Test Test: AMD Radeon HD 7970 GHz Edition

@Kodex
Wie gesagt: Geschätzt... Ich habe es nicht gemessen, weiß gar nicht, ob mein Messgerät das hinbekommt. Es schwankt auch ziemlich. Kann es mir aber heute mal nochmal evtl. genauer anschauen.

Und wie gesagt, nicht vergessen hängt hier halt alles am Messgerät inkl. 1x26" (gut, eigentlich 25,5" aber naja egal^^) + 1x24" Monitor, Maus, Tastatur, Headset, mehr Gehäuselüftern und naja Rest steht ja in der Signatur :D

Ich schau mal heute ob das Messgerät (ist nur so n Billigteil) das mit dem Durchschnitt hinbekommt.
 
Mein System (HD 7970 @ Standard) verbrauch unter Spielelast maximal 255 Watt. Allerdings sind auch Werte unter 200 Watt dabei. Jede Sekunde bekomme ich einen anderen Wert.

Mit einer GTX 680 habe ich einen Maximalverbrauch (in Spielen) von 247 Watt, aber den Verbrauch habe ich fast die ganze Zeit.
 
GTX680 hat wenn man sich die letzten Benchmarks anschaut gar keine chance megr gegen HD7970 ;

http://gamegpu.ru

...überall verliert NV !

HD7970 hat einfach deutlich mehr power unter der haube, blick auf ROH ,TEX etc. leistung genügt, war nur eine frage der Zeit.
 
Zuletzt bearbeitet:
Gar keine Chance ist aber ein bisschen übertrieben ;-)...

Die Rohleistung beider Karten bei gleichem Takt ist ungefähr gleich. Je anspruchsvoller das Setting, desto mehr bricht die GTX 680 zusammen. Da zukünftige Spiele zunehmend anspruchsvoller für Grafikkarten werden, wird die HD 7970 die GTX 680 auch in humanen Auflösungen schlagen. Das ist absolut logisch.

Dennoch ist der GK104 ein hervorragender Grafikchip, der mit weniger Transistoren die gleiche Rohleistung wie der R1000 erziehlt.
 
ich glaube nicht das man so einfach sagen kann das die 7970 durch anspruchsvollere Games stärker zulegen kann als die 680 nur weil sie heute bei höheren also anspruchsvolleren auflösungen schneller ist, denn das sind wieder ganz andere ansprüche die da gestellt werden. es wird immer titel geben die mal hier mal da besser laufen.
so habe ich mit meiner 260gtx in gtr2 eine minfps von 120 auf der Nordschleife, während meine 7970 an gleicher Stelle gerade mal 100 Liefert. Das muß man sich mal vorstellen.
Allerdings zeigt sich die 7970 dabei völlig unbeeindruckt davon, wenn sie 3 Bildschirme befeuern muß. Da liefert sie dann immernoch 100Fps.
Es kommt halt immer drauf an worauf die games optmiert sind und es gibt auch krasse beispiele wo es beisser wäre von jedem hersteller eine karte im rechner zu haben.
 
Klar kommt es auf die Optimierung der Games an. Aber ab einer gewissen Datenmenge wird die GTX 680 von der Speicherbandbreite und von der Speichermenge ausgebremst, während die HD 7970 eine wesentlich höhere Datenmenge verarbeiten kann ohne ausgebremst zu werden.

Deswegen gehe ich davon aus, dass die HD 7970 in zukünftigen Spielen auch unter einer Auflösung von 1920x1080 im Schnitt schneller rendern wird. Das hat uns die Vergangenheit einfach gelehrt.
 
Die 7970 wird auch in Zukunft Probleme haben überhaupt ausgelastet zu werden. Diese Designmängel gegenüber Pitcairn kann Tahiti nicht über Nacht ablegen.

Was genau hat uns die Vergangenheit gelehrt?
 
Welche Designmängel meinst du!?

Dass ein Blick auf die höheren Auflösungen stets ein Blick in die Zukunft ist ;-).
 
Tahiti ist deutlich fetter als Pitcairn und kann das nicht zeigen. Einige nennen es Setuplimitierung, das Problem ist fest verdrahtet.

Höhere Auflösung ist nicht gleichzusetzen mit mehr Effekte/whatever bei geringer Auflösung.
 
Hier mal der Link zum gesamten Test:

http://www.xbitlabs.com/articles/graphics/display/asus-geforce-gtx-680-msi-radeon-hd7970.html

Vorteile besitzt die GTX680 in 3 semi-synthetischen Benchmarks, kann aber sonst nicht wirklich weltbewegendes reißen:

Judging by these tests, neither card is better.

Im Fazit kommt der Autor daher zu folgendem Schluss:

In conclusion we would like to award ASUS GeForce GTX 680 DirectCU II TOP and MSI R7970 Lightning our Editor’s Choice title as the most advanced single-GPU High-End graphics cards in the market:

PS: Die "Last"-Lastaufnahme der Kepler-Karten ist trotzdem lobenswert, da kann AMD sich durchaus ein Beispiel dran nehmen. Ob der Unterschied nun 50 oder 100 Watt beträgt, ist doch eigentlich Wurst. Er ist messbar vorhanden.
 
@Pilstrinker
Es geht ja nicht darum, dass ich hier die 680 Leistungsaufnahme nicht lobenswert finde.
Es geht nur darum, dass es leider so ist, wie Kodex bereits geschrieben hat:
Es werden sehr oft die Maximalwerte angegeben und nicht der Durchschnittsverbrauch...Hier sieht man, dass der Unterschied zwischen den Karten auf einmal minimal ausfällt.
(Kleines Beispiel vielleicht: 60sek Test. 59,9sek ein Verbrauch von 100Watt. 0,1sek 300Watt --> es werden die 300Watt angegeben in den meisten Tests, obwohl der Durchschnitssverbraucht viel geriner ist. Das soll nur die Idee dahinter verdeutlichen! Sind keine Messwerte!)
 
Ausgehend davon
http://www.kitguru.net/components/g...htning-graphics-card-review-twin-frozr-iv/19/

(Msi Lightning Gaming Verbrauch 224 Watt)
Müsste also das restliche System bei denen rund 274 Watt (498Watt-224Watt) verbrauchen...Also fast soviel, wie CB insgesamt gemessen hat.

Vor allem schön, wenn man das Ganze noch mit der 680 vergleicht:
http://www.kitguru.net/components/graphic-cards/zardon/kfa2-geforce-gtx680-ex-oc-review/20/

Nimmt man hier die 440Watt vom xbit labs und zieht die Gaming Aufnahme der Karte ab (182Watt) verbraucht das Testsystem auf einmal nur noch 258Watt.

Fazit: Der Test ist in meinen Augen vorn und hinten ein schlechter Scherz...

Auch hier nochmal mit Durchschnittswerten schön zu sehen, dass der Unterschied auf einmal nur minimal ausfällt:
http://www.hartware.de/review_1481_7.html
 
Wie hier immer Benchs herangezogen werden, die völlig an der Realität vorbei gehen...
http://www.techpowerup.com/reviews/AMD/HD_7970_GHz_Edition/25.html
Aber wen interessiert es ob rine Karte in Benchs besser ist, auf die Spielleistung kommt es an:
http://www.techpowerup.com/reviews/AMD/HD_7970_GHz_Edition/28.html
Fakt ist: Mit einer ab Werk auf 1050Mhz+ OC 7970 bekommt man MEHR LEISTUNG für WENIGER GELD!

Zum Mehrverbrauch: Eine stock7970 verbraucht sogar WENIGER als eine stock680!
Eine 7970Ghz verbraucht bis zu 50W mehr unter Spielelast als eine stock680.

Der Preisunterschied auf eine vergleichbare 680 lässt einen 3 Jahre jeden Tag 5 Stunden Spielen, bevor man das Selbe für 2 vergleichbare Karte gezahlt hat!
Das Verbrauchsargument ist daher einfach nur eine Form von ich-hab-keine-Ahnung-aber-Nvidia-ist-eh-immer-besser.

nospherato schrieb:
Auch hier nochmal mit Durchschnittswerten schön zu sehen, dass der Unterschied auf einmal nur minimal ausfällt:
http://www.hartware.de/review_1481_7.html

Das gleiche wie bei Techpowerup Tests. Wenn man die Leistungsaufnahme beim spielen nimmt, und keine Peak-Werte in Furmark, dann steht die 7970 gut da!

EDIT: Und um es hier nochmals zu sagen: Die 680 ist einfach teurer. Dafür ist sie aber NICHT besser.
In der region 400€+ ist es mir relativ egal ob eine Karte 50W mehr verbraucht, wenn ich dafür mehr geboten bekommen, und der Kaufpreis auchnoch günstiger ist!
P/L ist die 7970 im Bereich 400€+ einfach besser.

Edit2: Und ja, die 670 Versionen, die weit unter 400€ liegen sind unter umständen vom P/L besser!
 
Zuletzt bearbeitet:
Als Beispiel mal eine Verbrauchsmessung mit (m)einer HD7970 und einem i2500k@4500 Mhz inklusive aller Peripherie, als Test dient der Crysis-Bench, alles ohne Spannungserhöhung:

Idle 150 Watt

Load Standardtakt 370 Watt

Load OC (1100\1500) 390 Watt

Mit Furmark + Prime95 kommt der Rechner auf 460 Watt (mit den OC-Einstellungen).

So ganz kann ich das xbitlabs-Resultat also auch nicht nachvollziehen, es sei denn, dass das VRAM-OC einen Megaeffekt auf den Verbrauch hat.

Tendenziell bleibt's aber wohl dabei, das die Kepler-Karten unter Last (ein wenig) günstiger abschneiden als die SI-Karten.
 
Fakt ist, dass in fast keinem Test / Review der echte Durchschnittsverbrauch gemessen wird, denn das ist einfach zu schwierig. Der Test von Hartware zeigt auch nicht den Durchschnittsverbrauch, sondern nur den Durschnitt aus den Maximalwerten aller Spiele.
Um den echten Durchschnittsverbrauch zu messen benötigt man ein Messgerät, dass während der gesamten Testsequenz (z.B.) zehnmal pro Sekunden den Verbrauch misst und am Ende den Mittelwert ausrechnet und anzeigt.

Einige scheinen nicht zu verstehen, dass Nvidias Turbo-Modus dafür sorgt, dass der Verbrauch bei den GTX-600-Karten konstant hoch bleibt, sodass der Durchschnitt fast so groß wie der Maximalwert ist.
Bei der HD 7970 ist das nicht so und bei der "GHz Edition" ist das nur teilweise so. Deswegen verbrauchen die Radeon-Karten im Schnitt wesentlich weniger als es der Maximalwert suggeriert.

Und ein Argmunt ist der Stromverbrauch nur, wenn er im Durchschnitt angegeben wird, weil danach auch die Stromkosten berechnet werden. Der Maximalwert zeigt bestenfalls wie stark das Netzteil mindestens sein sollte.

Bei den FPS guckt ja auch keiner auf die Maximalwerte...
 
HPC Master schrieb:

Und jetzt sei so freundlich, und sage mir mal, welches, bzw. wieviele Games das ach so tolle Physx von NVIDIA nutzen?

Alle sahen das Bild, aber keiner hat genau hingeschaut. :D

Von den GTX 670/680 sind unterschiedliche Taktregionen angeführt, aber bei der HD7970 1050/6000 (1500) Mhz.

Und in den Benches darf Sie mit 925/1375 (5500)Mhz arbeiten, da stimmt dann schon mal das erste nicht. Und das zweite, und ärgerliche, eine übertaktete, und nur eine übertaktete in den Vergleich des Stromverbrauchs zu nehmen, ist schon mal lächerlich.

Wen dann hätte man beide, OC und Stock, die normale, und die Ghz. Edition, in die Liste aufnehmen sollen.
 
Zuletzt bearbeitet von einem Moderator: (Fullquote entfernt)
Vergleicht mal die Taktraten und den Verbrauch mit denen auf diesem Bild:

zpw-xbt.png
 
Aha und was willst du uns damit sagen?^^

Ich habe in meiner Rechnung extra den Lightning "Standardtakt" von 1070Mhz genommen und bei der 680 GtX die Referenz um den Systemverbrauch zu ermitteln. Einfach nur, weil das die Werte waren, die gleich waren...
 
Siehst du es nicht?

Ich sehe eine durch die Bank deutlich bessere Leistungsaufnahme unter Last der GTX680 (denn warum sollten ausgerechnet bei der AMD-Karte Peaks herangezogen werden und bei der nVidia nicht, also gleiche Voraussetzungen für beide).
 
Zurück
Oben