News Spezifikationen der HD 6990 (nicht) enthüllt

MichaG schrieb:
Sollten die Werte stimmen, wovon ich mal ausgehe, dann würde die HD 6990 mit 5 GFLOPS/Watt (double precision) in etwa soviel Leistung/Watt bieten, wie Nvidia bei "Kepler" (2011 in 28 nm) plant. :eek:
ix.tank schrieb:
@MichaG
Ja auf dem Papier. Aber die Architektur ist bislang pro TFlop nicht so effizient wie die von NVidia, das wird sich durch die 4D Shader zwar leicht bessern, aber sicher nicht in den Bereich von skalaren Shadern vordringen. Speziell dann wenn die Aufgabe etwas komplexer ist als eine Matrixmultiplikation oder ähnliches (Raytracing zum Bsp.).
Laut PCGH Hat die 5870 in DP 680 GFLOPS und die GTX 580 nur 197,6 GFLOPS
Das sind auch schon 3,6 GFLOPS/Watt und Fermi hat da auch keine 2 GFLOPS/Watt sondern
0.63 GLOPS/Watt.

Link: Klick mich
 
Zuletzt bearbeitet:
Dem geschwärzten Bild nach zu urteilen, wenn es sich denn dabei wirklich um fragliche Grafikeinheit handelt, wird das ja ein noch mächtigeres Schlachtschiff als die bisherigen Karten.
Aber eine solche Leistung braucht eben auch ein entsprechendes PCB.
 
Wollen wir mal alle hoffen das die Folie stimmt :D ... den unter 300W wäre bei der Rechenleistung sehr gut!!!

Wenn die Lautstärke auch stimmt .... gibts die im Januar ... AMD get the Power ;) ...
 
Naja und hoffentlich kommen dann auch schnell die Karten mit modifiziertem Kühler von den Partnern! Dann wirds sogar noch lustiger ^^
 
Also wenn der abfotografierte Bildschirm mal nicht Trollfutter ist.

Ich glaube nicht so recht an die Karte, auch nicht an den Shadervollausbau.
Passt auch nicht ins Bild. Wenn dem so wäre hätte AMD vermutlich einen Paperlaunch hingelegt, im NV das Geschäft zu verderben.

Ich denke hier hat sich jemand einen Scherz erlaubt und freut sich jetzt wie schön das von einer Newsseite zur anderen läuft.
 
feris schrieb:
Also wenn der abfotografierte Bildschirm mal nicht Trollfutter ist.

Und vor allem immer wieder erstaunlich, wie man sich über ein paar Zahlen die Köppe einschlagen kann. Wartet doch einfach bis die Karte da ist, alles andere ist eh nur Spekulatius und den gibts auch zu Weihnachten ;-)
 
LinkManu287 schrieb:
wie wie Graka hat kein HDMI AUSGANG?????

Der HDMI Ausgang an einer Grafikkarte ist so ziemlich das unsympathischste am PC das ich kenne.
Jedesmal wenn du den PC verrückst oder ein anderes Kabel ziehst rennst du Gefahr das HDMI Kabel unabsichtlich rauszuziehen, da ist mir der DVI Adapter mit seinen 2 Schrauben um Einiges lieber.
Hat sich wohl noch ned so rumgesprochen dass der Sound auch via DVI-D ausgegeben wird.
 
wie schauts mit den microrucklern aus? ist das immernoch sichtbar?
 
KainerM schrieb:
Was auch klar ist, ist dass es niemanden gibt der so eine Karte zum Spielen wirklich braucht. Selbst auf drei 24ern wird noch Leistung im Überfluss vorhanden sein.


Crysis: 580GTX @ 1920x1200 @ 8AA & 16AF = Gerade mal so akzeptabele 29,6FPS

Man kann nie genug Leistung haben!
 
Der Grund warum ATI keinen HDMI verbaut ist ganz einfach, sie müssten dafür Lizenzgebühren bezahlen! DP dagegen ist "gratis". Und da über Adapter DP sowieso mit HDMI kompatibel ist, kann man sich das sparen.

Außerdem hat HDMI keine Vorteile gegenüber DVI-D, außer dass die Stecker kleiner und die Kabel teurer sind...

OK, Crysis. Aber eigentlich alle anderen Spiele sind kein Problem.

mfg
 
Ycon schrieb:
...

Aber... dürften bei der Leistung 4 GB Speicher nicht ein bisschen knapp bemessen sein? Zukünftige Spiele werden ja nicht unbedingt den Speicherbedarf reduzieren.

bitte was? das sind 2GB pro Chip, wo sollte das nicht reichen? Nur weil die Karte schneller ist, verbraucht sie nicht gleich mehr Speicher.

Für fast alle Anwendungen reichen heutzutage noch 1gb Vram, für wenige Ausnahmen rentieren sich 2GB (das sind aber schon die Ausnahmen), und du willst dann 4gb pro Chip, also 8gp pro Karte? Wofür? Willst du deinen Arbeitsspeicher ersetzen?


gruß
 
Na ja, wenn man die BQ aufdreht, reicht es bei einigen Graka's nicht - wobei ich auch keine Dual-GPU kaufen würde, solange nicht die MR ausgeräumt wurden, womit ja nicht zu rechnen ist!

Aber zu Topic:
Ich gehe davon aus, dass die 6990 eine doppelte 6950 ist - was dann im Umkehrschluss ein ordentlich Stück Technik (6950) wäre! Die 6970 sollte dann wiederum höher getaktet sein als die 6950!
 
john carmack schrieb:
Man kann nie genug Leistung haben!

Das von einem User mit dem Namen eines iD Chefs - der für wirklich gute Engines steht.


Naja, irgendwann gibt es mal wieder eine Grafikengine, die mit Resourcen perfekter umgeht, als es Crytek jemals getan hat.

Es gibt viele gute Engines da draußen. Ich kann nicht nachvollziehen, wie man Grafikdemos spielen kann, weil man auf die Grafik so abgeht. Wenn ich was spielen will, darf es nicht ruckeln und meine (aktuelle) Grafikkarte muss wenigstens mittlere Details bei FullHD schaffen. Der Rest ist fürs Auge! Aber wer zockt dabei schon ;) (btw.: ich habe ein 5850 CF im Einsatz)
 
ich hoff nur, dass nicht an der Spannungsversorgung gespart wurde. Meine HD4850 war dahingehend einfach aufs billigste reduziert - der Chip hätte weit mehr mitgemacht aber dann hätten sich die VRs verabschiedet.

Wenn die HD6990 in der Ausführung kommt, wird das Potential sehr durch die Versorgung limitiert sein, gerade unter Wasser könnten die Chips sicher 2x1 Ghz machen... Frage ist ob das PCB das mitmacht. Hope so ;)

Man wird sehen wie sehr AMD bei dem "DrumRum" spart oder ob man wieder etwas mehr Wert auf Quali legt. Gilt besonders auch für die BQ, wenn die auf HD68XX Niveau liegt gibts halt ne GTX580.
 
Wenn man aus der Folie auf die Leistung der 6970 Rückschlüsse ziehen kann
(Vorrausgesetzt die Daten stimmen), wäre das natürlich ein Hit.

Die Wahrheit wird ja dann am 13.12 ans Licht kommen.

Dann wird entschieden.
 
hier wird es bald wieder ein Kampf der "Monsterkarten" geben. Fraglich ist warum bei der HD6970 wieder 256bit Anbindung ist? reichen die noch? Nvidia setzt auf >320bit Speicherinterface bei der Singelkarten und die HD6990 hat 2x256bit als DualGPU?
 
Ich glaub nicht das NV einpacken kann, bisher haben sie mit ihren verkorksten GF100 Karten auch gute, sogar bessere Umsätze generiert als AMD mit seinen HD5000 Karten, die ja immer als perfekt, rundes Produkt gepriesen wurden. Es wird sich auch niemand ärgern, der sich jetzt eine GTX 580 gekauft hat, wenn die 6970 am Ende 3FPS mehr schafft, darauf wird es wenn überhaupt hinauslaufen, merkt man das nicht. Sowas fällt bei mir noch unter Messtolleranz. Ebenso hängt der Kauf einer Grafikkarte ja nicht nur von deren Leistung ab, es spielen für die meisten Kunden viele Faktoren eine Rolle, da wäre zum einen PhysX und CUDA zu nennen, wen die Spiele immer schlechter werden soll wenigstens die Lederjacke des Protagonisten realistisch flattern. AMD hat ähnliches als OpenSource variante an Board, nur leider wird es bisher nicht oder nur teilweise unterstüzt. AMD bietet dafür EyeFinity, was sehr schön, aber auch sehr schön teuer ist und nicht von allen Spielen Problemlos unterstüzt wird. Der Preis wird bei der Leistung die sich jetzt doch abzeichnet nicht weit unter einer GTX 580 liegen, wozu auch vielleicht liegt er sogar drüber?
 
@ aklaa
Der Vram der GTX 580 hat 2ghz und jender der 6970 wird 2,75ghz haben. Die Bandbreite bleibt "relativ" ähnlich. Kann man aber auch immer schlecht sagen welche Architektur bandbreitenschonender arbeitet.
 
@aklaa: AMD hat sicherlich sehr gute Methoden um sowas zu testen und wenn die meinen es langt wird es das wohl auch ;)

AMD hat IMO in der Vergangenheit sehr gut gezeigt, das sie die einzelnen Komponenten immer besser auf einander abgestimmt haben. Ging los bei der 3870, als man das SI auf die Hälfte gekürzt hat im Vergleich zur 2900 und ging mit der 4870 weiter. Dort wurde die Bandbreite minimal ausgebaut im Vergleich zur erhöhten Rohleistung. Alles in allem hat man mittlerweile so ziemlich das Optimum erreicht, wobei auch Cayman hier wieder ne Schippe drauflegen wird.

@Dr.MaRV: Das war Ironie meinerseits ;) NVIDIA wird sicherlich weiterhin Produkte abliefern, die viele ansprechen, insofern mach ich mir da keine Sorgen :D
 
Zuletzt bearbeitet:
immer diese verbrauchsmonster ... zum glück bietet amd daneben noch genug normale karten an. 300 watt ... krank
 
Zurück
Oben