News GTX 580: Benchmarks und Infos zu TDP sowie TMUs

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.924
Es sind düstere Zeiten für einen 30 Zoll Monitor besitzer. Dämonen nagen an meinen FPS zahlen und meine Nerven werden mit Satans Peitsche strapaziert.

So denn mein Herr,

bitte lass Nvidia eine 595GTX mit 2+2GB Vram schmieden, damit ich meine 5870 in die Hölle schicken kann und die 60~ FPS wieder meine Wenigkeit in wohltuendem glanze erstahlen lassen.

*amen*
 
Zuletzt bearbeitet:
bitte lasse es den 8. nov als veröffentlichung sein und ein paar testmuster schon im umlauf das wäre perfekt.
 
Ich denke nicht, dass sie durchweg 20% schneller ist, eher weniger und damit eigentlich keine neue Karte. Woher soll auch die Leistung kommen? Die Leistungssteigerung beim einen oder anderen Spiel ist ja nichts außergewöhnliches, richtig mehr Rohpower hat sie nicht. Da wird die 6970 die GTX580 in den Boden stampfen wenn man mal vom Cherry Picking absieht.
Wie ich drauf komme? Die 6970 soll ja ordentlich Strom ziehen und das wird sie nur wenn da deutlich mehr Grafikpower raus kommt.
 
Zuletzt bearbeitet:
wer zockt denn auf einem 30" tft? ich würde eine brille aufsetzen.

wie üblich sollte man vorsichtig sein, denn die daten können sich als finte herausstellen.
 
Mich stimmen die genannten 128 TMUs sehr nachdenklich. 512 Shadereinheiten, quasi als vollwertiger GF100, sind ja plausibel, aber 128 TMUs würde heißen, dass Nvidia die 64 TMUs eines vollständigen GF100 verdoppelt hat. Dann müsste man am Design ja noch einiges verändert haben. :confused_alt:
 
Neja ich denke schon, dass die Karte jetzt auch kommen wird.
Aber dass NVidia gleich die komplette 500er Namesserie für eine Karte über Bord wirft?
Ich meine dir nächsten Karten werden geshrinked und dann bestimmt nichtmehr unter 5xx sonder unter 6xx verkauft.
 
@xeljaga : wohl zu oft vor dieser flimmerkiste gehockt. trink ne warme milch und schlaf erstmal,
vielleicht ergeben sich ja noch mehr nonsense utopien um deinen uberpwned rechner in der signatur zu würdigen/verbessern ...
 
Ich weiß nicht, da die Balken von 0 weggehen bleibt ein wenig der WoW Effekt auf der Strecke :D
Aber gut, sollten es im Endeffekt 20-30% mehr sein, ist es ja schonmal ein Anfang.
Jetz mal angenommen eine HD6950 ist etwas über einer HD5870, und ne HD6970 nochmal ~20% mehr, dann ist ma ja unter Umständen duchraus auf Augenhöhe.
Letzendlich kann man da nur hoffen Nvidia hält sein versprechen mit der geringeren Leistungsaufnahme im Vergleich zur GTX480.
 
Zuletzt bearbeitet: (8 durch 9 getauscht)
Ich sehe da keine 20% Mehrleistung auf die gtx480 max 15%, die zwei Aussreisser zählen nicht.
 
20% sinds im Schnitt allemal wenn ich mir die Balken einzeln ansehe.
 
Solche Balkendiagramme erzeugen bei mir ein müdes Gähnen!
Sowas sollte einfach ignoriert werden...
 
Warum wird soviel Wert auf diese unwichtige Tessellation gelegt?

Im Heaven Bench ist die Karte super, in echten Games nicht wirklich der Rede wert. Tessellation scheint wesentlich mehr Rechenleistung zu fressen, wie Parallax Occlusion Mapping. Bei Crysis lässt sich POM ganz einfach aktivieren, dadurch sie die Grafik wesentlich detaillierter aus, der Boden wird richtig 3D und plastisch.
Die Frames brechen kaum ein!!!

MfG
 
Ziemlich unglaubwürdig meiner Meinung nach. Was war noch mal das Problem mit dem GF100? Richtig, der hatte und hat ein ziemliches Problem mit der Stromaufnahme. Deswegen wurden viele Einheiten deaktiviert, damit man den Chip irgendwie doch noch auf den Markt bringen konnte.

Und jetzt soll auf einmal ein "voller" GF100 mit "Anbauteil" besser im Verbrauch sein als die GTX 480? Wenn ich mich noch richtig erinnere, so lag doch einer der Fehler beim GF100 bei den Schichtübergängen. Wenn TSMC da nicht ein Wunder vollbracht hat müsste der ganze Chip doch neu entwickelt werden. Bei TSMC hat es dieses Wunder wohl nicht gegeben, sonst wären schon diverse Nutzer bei den aktuellen HD58XX und GTX4XX gekommen und hätten über ihre sagenhaften Verbrauchswerte geschrieben. Aber zusätzliche Redundanz in den Chip ein zu bauen bedeutet auch, dass der Chip größer wird. Was wieder rum zu höheren Kosten bei den Karten führt. Auch scheint mir für einen vollkommen neuen Chip die Zeit doch etwas knapp. Entwicklung und Vorserie nehmen schließlich einiges an Zeit in Anspruch.

Daher meine Vermutung, man hat hier und da einiges verbessern können am aktuellen Design. Wenn man damit auf etwa 10 Prozent mehr Grafikleistung kommt dürfte der Auftrag erledigt sein.
 
MichaG schrieb:
Mich stimmen die genannten 128 TMUs sehr nachdenklich. 512 Shadereinheiten, quasi als vollwertiger GF100, sind ja plausibel, aber 128 TMUs würde heißen, dass Nvidia die 64 TMUs eines vollständigen GF100 verdoppelt hat. Dann müsste man am Design ja noch einiges verändert haben. :confused_alt:
Ja, und das innerhalb von nur knapp über einem 1/2 Jahr (Fermi-Relaese war ja im März) :king::rolleyes::D.

So ein Design-Upgrade bricht man nicht mal ebenso übers Knie :freak:.


Und dann soll das Teil trotz allem noch weniger Saft verbraten, obwohl sie durch all das obige mächtig aufgebohrt/aufgebläht wurde - geshrinkt wurde ja auch nichts, also konnte von daher auch nichts an TDP eingespart werden.

Ich halte die Meldung für großen Mumpitz, oder vllt. sogar virales Marketing von nV, um AMD kurz vor ihrem Cayman-Release noch ordentlich Angst einzujagen :evillol:.
 
Das ist doch völlig realistisch. 20% mehr Leistung. Der Name ist auch völlig ok und generell sind solche Diskussionen so unbedeutend, wie das eine Korn Reis, das vom Laster fällt.

Nvidia hat bestimmt nicht erst im März damit angefangen. Nvidia wusste schon im November 2009 was sie in den Händen hielten. Bestimmt hat schon im November 2009 parallel die Weiterentwicklung angefangen.
 
Nvidia hat eine 480 - ATI kommt mit einer 6970 - Nvidia reagiert mit einer 580 => beide gleichschnell oder Nvidia schneller. Aber die Mehrheit wird die Karte die nächsten Monate nicht kaufen können - aus finanziellen Gründen oder schlechter Verfügbarkeit.
 
Zurück
Oben