News GTX 580: Benchmarks und Infos zu TDP sowie TMUs

Xeljaga

Ensign
Dabei seit
Dez. 2006
Beiträge
250
Es sind düstere Zeiten für einen 30 Zoll Monitor besitzer. Dämonen nagen an meinen FPS zahlen und meine Nerven werden mit Satans Peitsche strapaziert.

So denn mein Herr,

bitte lass Nvidia eine 595GTX mit 2+2GB Vram schmieden, damit ich meine 5870 in die Hölle schicken kann und die 60~ FPS wieder meine Wenigkeit in wohltuendem glanze erstahlen lassen.

*amen*
 
Zuletzt bearbeitet:

Barni86

Lt. Junior Grade
Dabei seit
Sep. 2010
Beiträge
342
bitte lasse es den 8. nov als veröffentlichung sein und ein paar testmuster schon im umlauf das wäre perfekt.
 

ATI Soldat

Banned
Dabei seit
Juli 2010
Beiträge
570
Ich denke nicht, dass sie durchweg 20% schneller ist, eher weniger und damit eigentlich keine neue Karte. Woher soll auch die Leistung kommen? Die Leistungssteigerung beim einen oder anderen Spiel ist ja nichts außergewöhnliches, richtig mehr Rohpower hat sie nicht. Da wird die 6970 die GTX580 in den Boden stampfen wenn man mal vom Cherry Picking absieht.
Wie ich drauf komme? Die 6970 soll ja ordentlich Strom ziehen und das wird sie nur wenn da deutlich mehr Grafikpower raus kommt.
 
Zuletzt bearbeitet:

hardtech

Banned
Dabei seit
Jan. 2008
Beiträge
1.061
wer zockt denn auf einem 30" tft? ich würde eine brille aufsetzen.

wie üblich sollte man vorsichtig sein, denn die daten können sich als finte herausstellen.
 

MichaG

Redakteur
Ersteller dieses Themas
Teammitglied
Dabei seit
Juli 2010
Beiträge
8.982
Mich stimmen die genannten 128 TMUs sehr nachdenklich. 512 Shadereinheiten, quasi als vollwertiger GF100, sind ja plausibel, aber 128 TMUs würde heißen, dass Nvidia die 64 TMUs eines vollständigen GF100 verdoppelt hat. Dann müsste man am Design ja noch einiges verändert haben. :confused_alt:
 

Faranor

Lt. Commander
Dabei seit
Nov. 2007
Beiträge
1.382
Neja ich denke schon, dass die Karte jetzt auch kommen wird.
Aber dass NVidia gleich die komplette 500er Namesserie für eine Karte über Bord wirft?
Ich meine dir nächsten Karten werden geshrinked und dann bestimmt nichtmehr unter 5xx sonder unter 6xx verkauft.
 

briegel

Cadet 4th Year
Dabei seit
Feb. 2006
Beiträge
90
@xeljaga : wohl zu oft vor dieser flimmerkiste gehockt. trink ne warme milch und schlaf erstmal,
vielleicht ergeben sich ja noch mehr nonsense utopien um deinen uberpwned rechner in der signatur zu würdigen/verbessern ...
 

r4yn3

Admiral
Dabei seit
Mai 2006
Beiträge
7.360
Ich weiß nicht, da die Balken von 0 weggehen bleibt ein wenig der WoW Effekt auf der Strecke :D
Aber gut, sollten es im Endeffekt 20-30% mehr sein, ist es ja schonmal ein Anfang.
Jetz mal angenommen eine HD6950 ist etwas über einer HD5870, und ne HD6970 nochmal ~20% mehr, dann ist ma ja unter Umständen duchraus auf Augenhöhe.
Letzendlich kann man da nur hoffen Nvidia hält sein versprechen mit der geringeren Leistungsaufnahme im Vergleich zur GTX480.
 
Zuletzt bearbeitet: (8 durch 9 getauscht)

Kartenlehrling

Admiral
Dabei seit
Apr. 2010
Beiträge
8.377
Ich sehe da keine 20% Mehrleistung auf die gtx480 max 15%, die zwei Aussreisser zählen nicht.
 

r4yn3

Admiral
Dabei seit
Mai 2006
Beiträge
7.360
20% sinds im Schnitt allemal wenn ich mir die Balken einzeln ansehe.
 

G.Rottig

Lt. Junior Grade
Dabei seit
März 2008
Beiträge
262
Solche Balkendiagramme erzeugen bei mir ein müdes Gähnen!
Sowas sollte einfach ignoriert werden...
 
M

McDaniel-77

Gast
Warum wird soviel Wert auf diese unwichtige Tessellation gelegt?

Im Heaven Bench ist die Karte super, in echten Games nicht wirklich der Rede wert. Tessellation scheint wesentlich mehr Rechenleistung zu fressen, wie Parallax Occlusion Mapping. Bei Crysis lässt sich POM ganz einfach aktivieren, dadurch sie die Grafik wesentlich detaillierter aus, der Boden wird richtig 3D und plastisch.
Die Frames brechen kaum ein!!!

MfG
 

Microarchitekt

Lt. Junior Grade
Dabei seit
Juli 2006
Beiträge
486
Ziemlich unglaubwürdig meiner Meinung nach. Was war noch mal das Problem mit dem GF100? Richtig, der hatte und hat ein ziemliches Problem mit der Stromaufnahme. Deswegen wurden viele Einheiten deaktiviert, damit man den Chip irgendwie doch noch auf den Markt bringen konnte.

Und jetzt soll auf einmal ein "voller" GF100 mit "Anbauteil" besser im Verbrauch sein als die GTX 480? Wenn ich mich noch richtig erinnere, so lag doch einer der Fehler beim GF100 bei den Schichtübergängen. Wenn TSMC da nicht ein Wunder vollbracht hat müsste der ganze Chip doch neu entwickelt werden. Bei TSMC hat es dieses Wunder wohl nicht gegeben, sonst wären schon diverse Nutzer bei den aktuellen HD58XX und GTX4XX gekommen und hätten über ihre sagenhaften Verbrauchswerte geschrieben. Aber zusätzliche Redundanz in den Chip ein zu bauen bedeutet auch, dass der Chip größer wird. Was wieder rum zu höheren Kosten bei den Karten führt. Auch scheint mir für einen vollkommen neuen Chip die Zeit doch etwas knapp. Entwicklung und Vorserie nehmen schließlich einiges an Zeit in Anspruch.

Daher meine Vermutung, man hat hier und da einiges verbessern können am aktuellen Design. Wenn man damit auf etwa 10 Prozent mehr Grafikleistung kommt dürfte der Auftrag erledigt sein.
 

xrayde

Lieutenant
Dabei seit
Dez. 2008
Beiträge
756
Mich stimmen die genannten 128 TMUs sehr nachdenklich. 512 Shadereinheiten, quasi als vollwertiger GF100, sind ja plausibel, aber 128 TMUs würde heißen, dass Nvidia die 64 TMUs eines vollständigen GF100 verdoppelt hat. Dann müsste man am Design ja noch einiges verändert haben. :confused_alt:
Ja, und das innerhalb von nur knapp über einem 1/2 Jahr (Fermi-Relaese war ja im März) :king::rolleyes::D.

So ein Design-Upgrade bricht man nicht mal ebenso übers Knie :freak:.


Und dann soll das Teil trotz allem noch weniger Saft verbraten, obwohl sie durch all das obige mächtig aufgebohrt/aufgebläht wurde - geshrinkt wurde ja auch nichts, also konnte von daher auch nichts an TDP eingespart werden.

Ich halte die Meldung für großen Mumpitz, oder vllt. sogar virales Marketing von nV, um AMD kurz vor ihrem Cayman-Release noch ordentlich Angst einzujagen :evillol:.
 
C

Canopus

Gast
Das ist doch völlig realistisch. 20% mehr Leistung. Der Name ist auch völlig ok und generell sind solche Diskussionen so unbedeutend, wie das eine Korn Reis, das vom Laster fällt.

Nvidia hat bestimmt nicht erst im März damit angefangen. Nvidia wusste schon im November 2009 was sie in den Händen hielten. Bestimmt hat schon im November 2009 parallel die Weiterentwicklung angefangen.
 

Low

Lt. Commander
Dabei seit
Sep. 2003
Beiträge
1.067
Nvidia hat eine 480 - ATI kommt mit einer 6970 - Nvidia reagiert mit einer 580 => beide gleichschnell oder Nvidia schneller. Aber die Mehrheit wird die Karte die nächsten Monate nicht kaufen können - aus finanziellen Gründen oder schlechter Verfügbarkeit.
 
Top