News GTX 580: Benchmarks und Infos zu TDP sowie TMUs

Naja ist jetzt auch keine sonderlich große Erkenntnis das bessere Kühlung den Verbrauch senkt. Das ist weiß gott nichts neues.
 
hab ich auch nicht behauptet. ich wollte nur herausstellen, dass 20% weniger leistungsaufnahme bei besserem kühler und weniger spannung absolut unproblematisch möglich sind. außerdem sieht man, dass die rev-kühlung der 480 grottig ist.
 
Hm, es gab mal nen Tread im Wakü-Bereich wo gefragt wurde, wie sich die Leistungsaufnahme bei einer WaKü (die daraus resultierenden niedrigeren Temps) ändert. Ergebniss war damals gleich null.
Aber scheinbar gillt dies bei der 480 (und 580) nicht mehr unbedingt.
 
Es kommt auf die Anzahl der Transistoren, dem ursprünglichen und dem nachfolgenden Verbrauch an GTX480 Differenz teils 50°C).
Insbesondere die Kühlung der Spannungswandler ist hierbei wichtig um deren Effizienz zu steigern, was aus einem geringeren Verbrauch resultiert. Und bei Wasserkühlern ist es eben häufig das dieser Bereich "passiv" gekühlt wird, sprich kein Wasser direkt darüber fließt, sondern nur ne simple Kupferplatte.

Bei Spannungswandler auf dem Motherboard z.B. kann man die Reduzierung des Verbrauchs z.B. messen, auch wenn es natürlich nicht so hoch ausfällt
 
Mephisto2022 schrieb:
GTX580 TDP ca 250Watt u. 20% effizienter bzw. schneller als GTX480
5870 TDP 181Watt u. 15% langsamer als GTX480
6970 angeblich unter 300Watt TDP das macht maximal satte 65% mehr Abwärme/Leistung als ne 5870 :evillol:

Mal nachdenken:
GTX 480 - 250W TDP - maximaler Realverbrauch = 318W
HD5970 - 294W TDP - maximaler Realverbrauch = 291W
HD5870 - 188W TDP - maximaler Realverbrauch = 206W

Bei allen neueren Karte war NV dann wieder realistischer. Hoffen wir, dass das auch so bleibt... darüber hinaus sind die 300W für Cayman alles andere als offiziell wie vorhin schon gesagt wurde. Ich rechne mit max. 250W. Nochmal, diese Werte beziehen sich NICHT aufs Spielen und sollen nur zeigen wie relativ die Angaben des öfteren sind.
In Games bleiben alle 3 Grafikkarten deutlich innerhalb der Specs, wobei dann die 5970 noch immer weniger Saft zieht als die GTX. Wer hätte das nach der TDP so erwartet?? Also sollte man hier etwas aufpassen mit dem Spekulieren. Bezieht man sich auf die TDP der 5970 so könnte eine 6970 auch mit 300W TDP (was ja alles andere als fix ist) sowohl bei Furmark, als auch in Games deutlich unter der GTX480 bleiben.

@ PalimPalim
Stimmt, auf dieses Ergebnis ist auch C'T gekommen bei deren extrem OC Tests. Dort wurde aber auch angemerkt, dass man DEUTLICH kühlere Temperaturen braucht um die Leistungsaufnahme reduzieren zu können.
 
Zuletzt bearbeitet:
Wo seht Ihr in diesem Benchmark einen Vorsprung von 20% vor der GTX 480? Im Schnitt sind das maximal 10% und gelegentlich treten mal einzelne Werte auf, wo der Vorsprung vielleicht 20% beträgt, mehr aber auch nicht. Ich würde eher sagen, dass die GTX 580 ca. 10 bis maximal 15% vor der GTX 480 liegt und das reicht nicht um die HD 6970 zu schlagen.
 
Mist hätte ich mal gewartet ^^ Leider hab ich nun die 480 gekauft, seit 3 Wochen unter Wasser sind die Temps super :D
 
Performance pro Watt wird im High End Bereich momentan wichtig. PCI Express 2.0 gibt einen Maximalwert von 300W vor. Wenn Nvidia diese Marke zu deutlich reisst, könnten sie gezwungen werden, PCI Express von ihren Packungen zu streichen.
AMD kann mehr Leistung in die 300W quetschen als Nvidia.

Nvidia gibt übrigens einen durchschnittlichen Verbrauch als TDP an und nicht den Maximalwert wie AMD. Den Quatsch hat Intel mit den Pentium 4 Heizkraftwerken angefangen.
 
Eine recht großformatige Ankündigung. Bleibt zu sehen, ob die genannten Zahlen auch im Endergebnis Bestand haben werden.
Gut zu sehen, dass DIE Fermi-Schwachstelle schlechthin, die geringe Anzahl an TMUs, endlich behoben worden ist bzw. zu sein scheint.
 
ThePikeman schrieb:
Nvidia gibt übrigens einen durchschnittlichen Verbrauch als TDP an und nicht den Maximalwert wie AMD. Den Quatsch hat Intel mit den Pentium 4 Heizkraftwerken angefangen.
Bei der HD 4870 X2 gab es eine TDP Angabe von 286W.
Real waren es dann aber 376W, also 90W mehr.
ThePikeman schrieb:
Performance pro Watt wird im High End Bereich momentan wichtig. PCI Express 2.0 gibt einen Maximalwert von 300W vor. Wenn Nvidia diese Marke zu deutlich reisst, könnten sie gezwungen werden, PCI Express von ihren Packungen zu streichen.
AMD kann mehr Leistung in die 300W quetschen als Nvidia.
Wie die HD 4870 X2 mit 376W und auch die GTX 480 mit 304-318W zeigt, ist die 300W Vorgabe keine Schallmauer. Es ist eine Empfehlung, mehr nicht.
Wieviel eine Grafikkarte max. schlucken kann, hängt nur von der(n) 12V Schiene(n) des Netzteils ab und ab wann das Netzteil auf Grund der Überlastschutzschaltung dosselt.

Anyway, ich geh davon aus, dass HD 6970 und GTX 580 in etwa die selbe Leistungsaufnahme bei ~ 250W (real) haben werden.
Das was eine HD 6970 beim Chip eventuell effizienter ist, wird sie durch etwas mehr und vor allem schnelleren Speicher wieder draufpacken.

Interressant dürfte der Idleverbauch werden.
Wenn Nvidia bei der GTX 580 das Kunststück von der GTX 460 wiederholen kann, mit 17W dann wäre das der Hammer.

Aber die Frage wird diesen Winter wohl auch nicht welche Karte die umweltfreundlichste oder schnellere SGPU Karte ist, denn da wird mal die eine, mal die andere schneller sein.

Es wird sich dann um den Preis und auch um Features drehen.
Bildqualität, Spieleunterstützung, Taktfreudigkeit und Lautstärke.
 
Zuletzt bearbeitet:
Wenn diese Daten Stimmen und die Karte nicht alzuwarm wird, ist die gekauft :-) Endlich eine ablösung für meine GTX275
 
Wieso gehen alle davon aus das die HD 6970 so schnell sein wird? Ich kann mir irgendwie nicht vorstellen das AMD Grafikkarten mal im Highendbereich führen sollen xD.
Gibt es Informationen zum AMD 69xx Chip bezüglich Die-Größe in mm² und Recheneinheiten? So könnte man ja ungefähr hochrechnen wie weit sich die Highendkarten von den aktuellen 68x Karten absetzen könnten....
2GB GDDR5 sind schonmal sauber :)


Nvidia attackiert mMn verzweifelt um sich rum^^um die Kunden von den AMD-Karten fernzuhalten. Glaube auch das die GTX580 wieder so ein Notprodukt wird. Der Strombverbraucht kann bei der 580gtx doch kaum sinken,wenn doch die Leistung nochmals deutlich zulegen soll im selben Fertigungsprozess, oder?
 
Die Benchmarks sehen erst einmal gut aus, auch wenn sie nichts bedeuten.

Auf die Stromverbräuche bin ich vorallem gespannt. es ist mir unvorstellbar, dass Nvidia nochmals über 300W geht. Falls doch könnte man in Ausnahmefällen wie Furmark so 280-290W sehen.

Mehr / vergessene Cheaterei bei AMD?
Leider interssiert Furmark keinen - damit hatte AMD (damals noch ATI) auch ihre Probleme. Seit Cataylst 8.8 bremsen die doch ihre Karten hier künstlich ein (mehr mogeln wie bei Catalyst 10.10??), während Nvidia die eigenen Karten voll durchlaufen lässt. Vergleichbarkeit ist hier also nicht gegeben(!!!). Leider haben das alle wegen der guten 5800er-Serie und schlechtem Fermi vergessen.

Quelle hierfür (uralt aber immer noch gültig):
http://www.gamestar.de/hardware/news/treiber/1948489/catalyst_88.html

Tatsächlicher Leistungsverbrauch?
Ich rechne mit enorm reduziertem Idle-Verbrauch der GTX580von 15-25W (extremer Optimist:king:). Das wäre die Sensation wie bei der GTX460. Hier hatte die GTX480 nicht gut vorgelegt, die GTX460 aber überrascht. Selbes mit dem Neuen Fermi und viele würden sie sich evtl. kaufen.

MAX-Verbrauch ist egal, da kaum eine Karte lange auf Volllast läuft. Wenn doch, dann ist die Karte unterdimensioniert oder die Anwendung schlecht programmiert. :evillol:
 
Naennon schrieb:
immer das gleiche Gelaber... und am Ende?

8800 GTX > HD 2900XT + 3870
GTX280 > 4870
GTX 480 > 5870
GTX 580 > 6890

Du redest von den Verkaufspreisen, richtig? Verglichen mit nVidia kriegt man bei AMD mittlerweile mindestens die gleiche 3D-Performance fürs gleiche Geld (bspw. GTX 460 vs. HD 6850).

So war es, so ist es, so wird es immer sein.
Und den Quatsch glaubst du ja wohl selber nicht :lol:
 
d3n!z schrieb:
[...]Ich kann mir irgendwie nicht vorstellen das AMD Grafikkarten mal im Highendbereich führen sollen xD.[...]

Schon mal was von der Radeon 9800er Serie gehört? Oder X1950? nvidia hat nicht immer und durchgehend geführt und nvidia hatte mit dem G80 (und dem R600) einen echten Glücksgriff.
 
Insbesondere die Kühlung der Spannungswandler ist hierbei wichtig um deren Effizienz zu steigern, was aus einem geringeren Verbrauch resultiert.
Genau das muss es sein, hab sogar ein Beispiel das diese Theorie belegt. Die HD 5870 MK-13 von Edel braucht "nur" ca. 20 Watt weniger und zwar 140Watt. Bei der Kühlung werden die Spannungswandler nur mäßig mitgekühlt.
Also gilt es bei den kommenden Monstergrafikkarten vorallem auf eine perfekte Spannungswandlerkühlung zu achten. Idle und Last Verbrauch sinken dadurch dramatisch.
Jetzt würd mich nur noch eine HD 5870 mit Spitfire interessieren, wie weit hier der Stromverbrauch sinkt. Kombiniert das mit Undervolten und ihr habt eine komplett andere Karte vor euch. Enthusiast Power mit (low)-High End Stromverbrauch. Bin ganz begeistert :schluck: das man den Verbrauch so extrem drücken kann nur mit ordentlicher Kühlung. Macht bei den neuen Enthusiast Karten einen Monster Kühler zur Pflicht. Nicht nur wegen der Lautstärke.
 
Gut, dass ich auf einer GTX 275 alles in Full HD zocken kann, da warte ich lieber noch zwei Jährchen, bis die Karte in stottern kommt.
 
35 Watt mehr klingen plausibel. Ich gehe auch von einer Absenkung des Idle-Verbrauches aus bei gleichzeitigem Anstieg des Load-Wertes. GF100 im Vollausbau MUSS eigentlich mehr verbrauchen als der "alte GF100".

Es scheint ja inzwischen relativ sicher, daß GTX580 eben nicht auf GF104 basiert, sondern den ganzen für Gamer unwichtigen Krempel des GF100 mit sich herumschleppt.
 
Our sources in the Far East have indicated that the new chip will draw at least 35w more than the older Fermi

Unsere Quellen im Fernen Osten haben angegeben, dass der neue Chip mindestens 35W mehr als die älteren Fermi ziehen wird.

OMG - :skull_alt: GTX580 :skull_alt:

Wenn das stimmt, und das die Karte auf GF100 aufbaut, na denn Mahlzeit! Es würde bedeuten, nVidia hat aus dem Fermi I Desaster nichts gelernt und versucht es gleich nochmal auf die gleiche Weise!
Sicher wird es wieder einige "Zeugen nVidias" geben, die die GTX580 für die ideale Graka halten werden, aber da trennt sich dann doch die Spreu vom Weizenbier!
 
Zurück
Oben