News Spezifikationen der HD 6990 (nicht) enthüllt

@KAOZNAKE: Es wird vermutlich unerheblich sein, ob ein solches Monstergerät brauchbar, nutzbringend oder gar mit Sinn gefüllt sein wird. Sobald aus betriebswirtschaftlicher Sicht ein Absatzmarkt vorhanden ist, wird es gebaut und unter die Massen gebracht. Was mich dabei am meisten stört ist der Verwendungszweck: Spielen. Das ist alles andere als sinnvoll. Und für sinnlose Dinge auch noch sinnlos 300W verbraten? Die Strickpulli-Veganfraktion, die solche Karten zur Freizeitgestaltung in Betracht zieht, sollte sich mal Gedanken über die grundsätzliche Haltung und Moral machen.

Mich würden solche Graphikkarten brennend interessieren, wenn man mit ihnen rechnen könnte. Leider ist AMDs API derzeit so gut wie nicht sinnvoll nutzbar und im Lager der Konkurrenz gibt es keine Karten mit zwei GPUs, die man a) bezahlen kann UND b) die nicht bei den DP_Einheiten beschnitten ist (logisches UND). nVidias Quadro Karten, die man faktisch auch als GPGPU Rechenwerke für wiss. Zwecke nutzen kann, sind einfach viel zu teuer für kleine Institute, die Massenkarten werden beschnitten und doppel-GPU Quadros habe ich noch keine (bezahlbare) gesehen.
Bei AMD ähnliches. Von der Hardware abgesehen ist bei AMD das API sowie die Treibersoftware um Klassen schlechter als bei nVidia, das CUDA SDK setzt Maßstäbe. Desweiteren ist äußerst frustrierend, daß AMD clamheimlich die quelloffene Treiberunterstützung stark beschnitten hat, was die versprochene Offenlegung der 3D Spezifikationen anbelangt - was letztlich eine Grundvoraussetzung wäre, um geeignete OpenGL/OpenCL APIs anbieten zu können.
Bleibt zu fragen wo das Klientel herkommt, das sich an solchen Karten ergötzt. Und da bleiben in der Tat nur 'Fanbois' übrig. Mit Preisen von über 500 Euro sind solche Karten kein Pappenstil und wenn ich mir überlege, daß nach spätestens 1 1/2 Jahren die Leistung solcher Energiemonster von Single-GPU Karten erreicht wird, erscheint mir eine Beschaffung, fiskal gesehen, irrational. Oder?
 
Jaki135 schrieb:
Nur noch drei Wochen ... und Weihnachten is dann ja auch :D

sofern die bis dahin überhaupt verfügbar sind und nicht nur ein paperlaunch wird :freak: :evillol:
 
Es ist ja egal ob AMD oder NV, doch auch mir sind 300 Watt doch zuviel. Habe mal zuhause getestet! Mein großer LCD TV mit Humax Receiver + Harman/Kardon 5.1 Receiver und Subwoofer kommen auf nicht mal 300Watt. Der Kühlschrank kommt auf etwas mehr als 100 Watt.

Da wäre ja der PC samt 300 Watt Karte auf insgesamt 450 bis 500 Watt? Also beim Zocken von 3 bis 5 std. Wären das fast 5 bis 6€ die Woche.

Wer braucht so was?
Gruß
 
Wenn die 6890 die GTX 580 übertrifft dann zieht Nvidia einfach die Taktschraube an und nennt es GTX 680 :D
 
ich hoffe das die HD 6970 wirklich mit den 19xx Stream-Prozessoren kommt! Das wäre wirklich nötig um was gegen die 580 auszusetzen!

es wird sehr sehr spannend! Freue mich schon auf den CB Test :) :)...


€dit:

Eggcake schrieb:


O.o.........ich kann zwar nix verstehen aber geil....ist sogar von heute!

bitte nen Update der News hier!! :)...
 
Steve says schrieb:
Wenn die 6890 die GTX 580 übertrifft dann zieht Nvidia einfach die Taktschraube an und nennt es GTX 680 :D


... bei Fermi kann die Taktschraube nicht groß 'angezogen' werden, ohne daß das Design bei der derzeitigen Strukturbreite ernsthafte Abwärmeprobleme macht.
 
Übrigens nicht mal ein Leak: da steht dick und fett: "Under NDA until 22nd Nov" *aufDatumGuck* :)
 
Meine Hoffnung beruht derzeit auch auf der 6970, die hoffentlich ein vernünftiges Verhältnis zwischen Preis - Leistung - Wärme - Stromverbrauch bietet.
 
Eggcake schrieb:
Übrigens nicht mal ein Leak: da steht dick und fett: "Under NDA until 22nd Nov" *aufDatumGuck* :)


... und der Tag (22.11.) ist noch lang ...

Das ist zu lesen, daß durch das neue VLIW4-Design die doppelt genaue Fließkommaarithmetik nun ca. 1/4 der entspräche, welche man für die einfach genaue Fließkommaarithmetik veranschlägt. Das klingt vorerst einmal sehr verlockend, de facto aber bringt AMD diese Rechenleistung, im Gegensatz zu nVidia, aber nicht auf die Rollbahn. Ein nettes Werbearugment, mehr auch nicht.
Ich habe es bislang noch nicht geschafft, auch nicht mit nVidia, mit ausschließlich Opensourcemitteln die GPU zum Rechnen bewegen zu können. Stets ist ein 'geschlossener' binärer Treiber nötig (BLOB) oder es gibt einfach kein kompatibles, verwendbares SDK (und damit Lowlevel Compiler). Darunter leiden vor allem die Berkeley UNIX Derivate.
 
Zuletzt bearbeitet:
Dr. MaRV schrieb:
Ich glaub nicht das NV einpacken kann, bisher haben sie mit ihren verkorksten GF100 Karten auch gute, sogar bessere Umsätze generiert als AMD mit seinen HD5000 Karten, die ja immer als perfekt, rundes Produkt gepriesen wurden.



ohne sich die beiden system anzuschauen aus deiner signatur: 2xintel und 2xnvidia drinn.

mit ihren verkorksten GF100 hat nvidia nicts verdient, es wurden nicht einmal 700.000 chips verkauft. dagegen liegt AMD irgendwo bei 6mio`s der cypress chips(ich meine irgendwas mit 16 oder 17 mio insgesammt an DX11 gpu`s). der einzige grund für nvidias gewinne ist ihre deutlich stärkere präsen in der industrie. den da machen die firmen gewinne. Vorallem hat nvidia für jede zeile an quelltext eine lizensgebür, bei amd ist wie du geschrieben hast das meißte offen.

@ thread

jetzt wird auch klar warum nVidia auf einmal eine 590 herausbringen kann, den mit 1920 shadern wird die mit zimlicher sicherheit vor der 580 liegen und das mit ca 200W verbrauch statt 350W.
 
ja wie jetzt?

Übersetz das mal einer!
 
Argh wieder keine Angabe zu den Shadern!!!

Aber dafür mal das VLIW 4D Design bestätigt, sowie ein neuer AA-Mode. Bin gespannt was der bringen soll. Dazu durchgängig 2x tesselationsperformance zur 5870, da sollte das Gemecker aus der Richtung auch mal ein Ende haben :D
 
KAOZNAKE schrieb:
Argh wieder keine Angabe zu den Shadern!!!

Aber dafür mal das VLIW 4D Design bestätigt, sowie ein neuer AA-Mode. Bin gespannt was der bringen soll. Dazu durchgängig 2x tesselationsperformance zur 5870, da sollte das Gemecker aus der Richtung auch mal ein Ende haben :D

Der neue AA-Mode sieht nach CSAA aus, wie man's von den NV-Karten her seit langem kennt. Immer her damit ;)
 
KAOZNAKE schrieb:
Dazu durchgängig 2x tesselationsperformance zur 5870

(Faktor 1,5 im Worst Case und sonst) 2x bis 3x Tesselation Performance. Sieht so aus, als ob der verbesserte Tesselator der 6870 verwendet wurde, aber in doppelter Ausführung (bei der 6970). Sind wohl deutlich gröbere Architekturänderungen als so manche vermutet haben.
 
Zuletzt bearbeitet:
Tjo, im Rennen um die Krone ist der Stromverbrauch bei den Herstellern egal, da zählt nur Power. :)
 
KAOZNAKE schrieb:
Die 5870/5970 waren in ihrer technischen Ausführung (Refernenz) das beste was es gab auf dem Markt. Wenn du dir die billigste hersteller-Lösung suchst, hast du was falsch gemacht.

jup die HD5870 macht Wasser auch gut 1100 Mhz + mit, annehmbar. Ich wollte damit nur ausdrücken, dass man hoffentlich nicht spart wie bei der HD68XX, die schon sehr am Limit operiert - was Takt angeht und zudem sehr kostenoptimiert wurde. Dazu zählt eben auch BQ.

-> Takt hoch -> Chip kleiner -> BQ runter -> verwirrende Namen

alles vorallem aus einem Grund. Weniger Kosten / Karte also mehr Gewinn pro verkaufter Einheit.
Auch soweit natürlich verständlich, bis auf den BQ Punkt.

Bitte hör mit dem dummen Gefasel auf. Minimal mehr flimmern in theoretischen Tests, das in Spielen keiner (Achtung: außer Fanbois) bemerkt und zudem innerhalb der technischen Spezifikationen liegt, hat nichts mit Bildqualität zu tun. Du tust geardezu, als ob bei AMD das grün lila wäre oder bunte Streifen im Bild produziert werden. Mein Gott, man kann es auch übertreiben. :rolleyes:

Wenn du im besonderen von der Bildquali sprichst, möchte ich mal gern wissen was du sonst noch für Probleme hast, denn NVIDIA hat hier sicher auch keine weiße Weste. Ich sag nur Spulenpfeifen.

Egal ob schlechte BQ oder Spulenpfeifen, beides ist ein NoGo. Wenn ich 500€ + für ne GPU ausgeb + Wasserkühler dann will ich keine schlechtere BQ als die Vorgängergeneration. Tut mir Leid, aber hast du dir mal die Videos reingezogen vom BQ Test?

Sorry, aber Leistung werden beide Karten genug haben ... kaum ein Spiel ist gerade sehr anspruchsvoll. Umso wichtiger ist eben diese BildQuali und nein, die HD68XX würde der GTX 460 alleine wegen diesem Grund nicht vorziehen.

Da bringt mit supertolles adaptives AA nichts wenn das AF dann schlecht rüberkommt... Und man sieht den Unterschied nur nicht wenn man verblendet ist oder nie den Vergleich hatte...
 
Zuletzt bearbeitet:
hier weitere Angaben zum HD 6970

6e3xom.jpg
 
Polygon per clock dopppelt so hoch? Wie könnte sich sowas auf die Performance auswirken?
 
Zuletzt bearbeitet von einem Moderator: (Multiple Satzendzeichen (!!!, ???) entfernt. Bitte Regeln beachten!)
Memory Bandwith: 153GB/s zu 160GB/s

Da stimmt was nicht!
 
Zurück
Oben