R9 290X Tri-X OC vs GTX 970

Bornemaschine schrieb:
[...]Wie schon der PCGH Link zeigt kann sich die 290X sogar mit der GTX 980 locker messen Bei Auflösungen die Full HD übersteigen setzt sich die 290X sich sogar deutlich gegenüber der GTX 980 ab.[...]

Die 290x liegt auf 970 Niveau und die 980 etwas darüber wieso ist das so schwer zu akzeptieren? Komm mir jetzt nicht mit irgendwelchen Benchmarks, es gibt genug die das Gegenteil beweisen.

Bornemaschine schrieb:
[...]Wenn du dagegen versuchst eine GTX 970 auf das Niveau einer GTX 980 zu übertakten wird sich dein Stromanbieter aber freuen, da kommt man schnell in Fermi Gefilde beim Stromverbrauch..

Was ist denn das für ein Argument, die 290 zieht genauso mehr wenn du OC betreibst. Außerdem übetreibst du, man kann eine 970 ganz einfach auf 980 Niveau übertakten und diese ist wahrscheinlich dabei noch immer effizienter als eine 290(x).

btt:
Ich selbst hab eine GTX 970, empfehle dir aber eine 290 (ohne x), da diese z.Z. einfach das Beste P/L-Verhältnis bietet.
 
@Crax:
ganz so einfach ist das nicht. Es gibt genug Effizienzmessungen, die zeigen, dass die Custom OC 290/290X eben weniger! Strom verbrauchen als die Referenzkarten. Ist auch logisch, da wesentlich geringere Temps usw. (Allein die Temps machen bei der 290X ca. -25W bei +3% Performance aus, Link http://www.tomshardware.de/raijintek-morpheus-vga-cooler-hawaii-review,testberichte-241525-7.html).
Gleichzeitig ist es bekannt (es gibt genug Messungen), dass gerade die Custom 970 Modelle teils erheblich mehr Strom verbrauchen bei geringem OC.
Das liegt anscheinend am Design der 970er Karten, wodurch eine Sweetspot entsteht. Ab dem Sweetspot bringt die zusätzliche Takt/Target Erhöhung nur noch minimal FPS während die Leistungsaufnahme explodiert.
Hier wurde das Untersucht (TH): http://www.3dcenter.org/news/nvidia...er-targets-auf-performance-und-stromverbrauch
 
Zuletzt bearbeitet:
Die Custom R9 290(X) verbrauchen eben nicht weniger, sie sind zwar kühler aber dadurch laufen die Karten im Gegensatz zur Referenz immer mit vollen Taktraten, wodurch der Verbrauch eher höher liegt. Ist hier auf CB im Test auch so nachvollziehbar. Und die GTX 970 ist selbst mit extrem OC noch etwas sparsamer, aber man muss die Karte ja nicht bis an die Grenzen takten. Genauso wird auch bei den R9 290(X) der Verbrauch mit zusätzlichen OC ansteigen. Insgesamt ist die GTX 970 bei gleicher Leistung deutlich sparsamer.
 
@Razor0012
Ich will dir ungern auf den Schlips treten, aber hier ist das erste Beispiel, dass die Custom schneller UND sparsamer ist: http://www.hardwareluxx.de/index.ph...e-radeon-r9-290-tri-x-oc-im-test.html?start=5

Selbst auf CB kannst du anhand der Benchmarks meine Ausführungen relativ deutlich erkennen. Alle Custom 290X Karten (bis auf 2 Extreme Karten) sind sparsamer als die 290X Referenz und! gleichzeitig schneller -> effizienter. https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-290-290x-roundup-test.2482/seite-3
Die 290 Tri-X verbraucht 1% mehr (Messgenauigkeit?) als die 290 Referenz, ist aber gleich 7% schneller -> effizienter.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-290-290x-roundup-test.2482/seite-2
Und die 290X Karten takten teilweise bis 1080 Mhz, was nicht gerade wenig ist!

EDIT
Hier der Link mit der Temperatureffizienz nochmal schwarz auf weiß: http://www.tomshardware.de/raijintek-morpheus-vga-cooler-hawaii-review,testberichte-241525-7.html

Ich will hier weiß Gott nichts schön reden, auch nicht widerlegen, dass die 970 effizient bzw. weniger effizient als die 290er Serie ist. Das ist nämlich einfach nicht der Fall.
Es sollte aber ein für alle mal klargestellt werden, dass die 290er Karten eben NICHT extrem ineffizient sind, vor allem nicht bei Vergleichen von 290er Custom OC vs. 900er Custom OC . Unter "realen" Bedingungen und Annahmen verbrauchen die 290 bei gleicher (teilweise höherer) Leistung im Schnitt! ca. 25-50W mehr (sicher auch Ausreißer nach oben/unten).
Im realitätsnahem Vergleich zw. z. B. 200W vs. 230W Verbrauch dann aber von "deutlich sparsamer" zu reden, ist eben etwas realitätsfern.
 
Zuletzt bearbeitet:
@berkeley

Danke für den Link, aber der bestätigt doch nur das was ich geschrieben habe. Mit 1500Mhz liegt die 970 auf dem Niveau einer 980 und arbeitet noch immer effizienter als eine 290.

Ich schreib das nicht weil ich die 290 schlecht reden will sondern um Bornemaschine zu zeigen, dass seine Argumentation keinen Sinn ergibt.

Bornemaschine schrieb:
Nur das die hochgelobte Effizienz der GTX 970 schon bei leichter Übertaktung flöten geht ;) [...]
Wenn du dagegen versuchst eine GTX 970 auf das Niveau einer GTX 980 zu übertakten wird sich dein Stromanbieter aber freuen, da kommt man schnell in Fermi Gefilde beim Stromverbrauch..

Auch wenn die Effizienz sich durchaus verschlechtert, sparsamer als eine 290(x) ist sie noch immer. Bei der Logik sollte sich dein Stromanbieter dann nur noch mehr freuen wenn du eine 290x besitzt?
 
Zuletzt bearbeitet:
@Crax:
Das ist auch nicht abwegig, dass die 970 mit OC trotzdem effizienter ist als eine 290er. Nur sind die Unterschiede in solchen (und auch anderen) Fällen eben, z. B. ca. 30W weniger Verbrauch, nicht mehr ganz so enorm.

Ob die Karte letztenendes 200W oder 230W verbraucht kann (und soll) natürlich trotzdem die Kaufentscheidung beeinflussen. Jeder hat andere Präferenzen.
Jedoch muss man sich immer vor Augen führen, dass der Unterschied objektiv vorhanden aber eben gering ist (gemessen an Preis, Leistung, Features, Prestige, Gewohnheit, Herdenverhalten wegen Informationsasymmetrie usw. usw.).
 
Zuletzt bearbeitet:
Aufgrund der werksseitigen Übertaktung fällt die Leistungsaufnahme der MSI Radeon R9 290X Gaming etwas höher aus als noch bei unserer Referenz-Version. Da das Overclocking aber nicht ganz so stark ist wie bei den Modellen von PowerColor, Gigabyte oder ASUS, ist sie im direkten Vergleich etwas sparsamer.

Steht so bei Hardwareluxx, im übrigen verbraucht dort eine Saphire Tri X OC etwas mehr als die MSI.

Zum Vergleich verbraucht die Palit Jetstream 970 360 Watt (Gesamtsystem), die Radeons liegen bei 420 Watt+. Sind also 60 Watt mindestens was locker 33% Unterschied ergibt. Und die Palit ist die mit dem höchsten Verbrauch bei Hardwareluxx

Habe hier übrigens eine PCGH liegen, die Custom Radeons liegen bei 270+ Watt, meistens eher 300 Watt, die 970 sind bei 200 Watt , maximal 220 Watt in Form der Gigabyte. Ergo immernoch 60+ Watt
 
Zuletzt bearbeitet:
@Razor0012:
Wenn du schon eine Review zitierst, dann füge doch wenigstens einen Link an: (http://www.hardwareluxx.de/index.ph...si-radeon-r9-290x-gaming-im-test.html?start=4)
Dann kann man auch nachvollziehen, dass die MSI im Verbrauch lediglich der Referenz im "Quiet Mode" unterliegt. Im Vergleich zum Referenz "Uber Mode" hingegen (welcher trotzdem niedriger taktet als die MSI und folglich weniger Leistung bringt) verbraucht die MSI und auch fast jede andere Custom 290X weniger.

Wenn du konkret und detailliert getestete Verbrauchswerte haben möchtest, kommst du an TomsHardware nicht vorbei.
Hier mal ein Link mit detaillierten Verbräuche der 290er:
http://www.tomshardware.de/amd-radeon-r9-290-290x-test,testberichte-241458-4.html
Ergebnis:
290: 215-216W je nach Modell.
290X: 244-262W je nach Modell (was sich durch Temperaturminderung auf 225W drücken lässt, Link oben gezeigt).

Und hier die Verbräuche der 970/980:
http://www.tomshardware.de/nvidia-g...up-vergleichstest,testberichte-241658-20.html
970: 171-189
980: 180-213

Kann schon sein, dass unter bestimmten "ungünstigen/anderen" Messbedingungen andere Ergebnisse erzielt werden. Die Vergleichbarkeit ist jedoch wichtig (nicht quer durch alle Reviews sondern ein ähnliches/gleiches Verfahren für alle Karten)
 
Zuletzt bearbeitet:
Ich habe Hardwareluxx mit selbigem verglichen, und PCGH das selbe. PCGH misst übrigens auch nur die Grafikkarte und die Unterschiede sind dort nunmal keine 30 Watt sondern 60 Watt oder mehr. Sparsamste 970 gegen sparsamste R9 290 ohne X sind mehr als 100 Watt Differenz!

Insgesamt geben sich beide Karten nicht besonders viel, allerdings sind die Effizienzunterschiede nicht so gering wie du meinst. Die Unterschiede sind schon recht groß und Hawaii ist als Chip ziemlich Ineffizient, selbst gegenüber den 280(X) Karten steht Hawaii nicht besonders gut da, es gibt kaum Verbesserungen in Sachen Effizienz und diese Architektur ist immerhin 3 Jahre alt.
 
Zuletzt bearbeitet:
Aber nur wenn du bei der 290 eine zusätzliche 75W Glühbirne als CaseMod betreibst (oder eine 970 mit 125W PT), sonst dürfte der Unterschied wie gesagt nicht ganz so arg ausfallen :)
 
Messung PCGH:

Sapphire R9 290 Tri X OC: 267 Watt

Asus GTX 970 Strix: 166 Watt

Du kannst jetzt zwar PCGH Lügen oder Unfähigkeit unterstellen aber z.B. CB (Gesamtsystem):

Sapphire R9 290 Tri X OC: 383 Watt

Asus GTX 970 Strix: 243 Watt

Sogar ein noch größere Differenz...

Will das ganze aber jetzt nicht weiter ausführen...
 
Wie ich schon geschrieben habe, wenn du verlässliche, halbwegs korrekte und detaillierte Informationen zum Verbrauch haben möchtest, dann schaust du bei TomsHardware vorbei.
Ich will auch niemandem Lügen usw. unterstellen :)
Allerdings hat TomsHardware mit Abstand das beste Equipment und präsentiert den Verbrauch entsprechend am detailliertesten. Da wird nicht nur eine Zahl in den Raum geworfen.

Allerdings hat diesbezüglich jeder seine eigenen Ansprüche.
 
Im Übrigen streuen die Karten, egal ob Nvidia oder AMD, sogar innerhalb einer einzigen Modellreihe extrem. Ich habe mittlerweile 5 Gigabyte R9 290 Windforce OC vermessen und eine Streuung von insgesamt max. 25 Watt im Gaming-Loop gehabt. Bei Maxwell ist das sogar noch etwas extremer. Eine handverlesene GTX 980 OC schippert im Gaming-Loop bei 172 Watt durch die Gegend, wo eine normale Retail-Karte eines anderen Herstellers mit etwas weniger Takt immer noch satte 205 Watt zieht. Unter gleichen Bedingungen. Auch das ist einer der Gründe, warum die Redaktionen bei den größeren Karten so extreme Unterschiede in den Messergebnissen haben können. GPUs sind, wie CPUs auch, absolutes Lotto.

Ich messe im Schnitt 1 bzw. 2 Minuten und das ganze zum Gegentest jeweils 5 Mal, weil ich aus vielen Messreihen heraus mittlerweile die Erfahrung gemacht habe, dass bei geringerer Messdauer kleinere Messfehler oder sporadische Abweichung zu unangenehmen Fehlern führen kann. Ich streiche bei den fünf Durchläufen den schlechtesten und besten, bzw. die mit den offensichtlichsten Fehlern. Dann wird ein Mittelwert errechnet. Das dauert pro Karte dann schon mal über 10 Minuten. PCGH misst 30 Sekunden lang mit einem ungenaueren Ampèremeter und greift dabei in logischer Folge meist höhere Werte ab. Man kann Spannung und Strom nie getrennt und in viel zu großen Intervallen messen. Das geht immer irgendwie schief.
 
Zuletzt bearbeitet:
Solange sich Leute auch über pinkfarbene und lindgrüne Autos zerfetzen, solange bleibt das an der Tagesordnung. :D
 
@FormatC:
Sehr interessante Erläuterung! Dass die Grakas streuen war klar, aber 20-30W ist natürlich schon ordentlich.
Zudem, wie du ebenfalls erläutert hast, spielt das Messverfahren eine enorme Rolle.
 
Nach mittlerweile über 300 getesteten Grafikkarten in über 2 Jahren habe ich auch festgestellt, dass dieser ominöse ASIC-Wert nur was fürs Schaulaufen ist und in Wahrheit alles und überhaupt nichts aussagt, zumindest bei Nvidia.

Ich habe hier gerade eine Galax GTX 970 Hall of Fame am Wickel, die ab Werk fast 1,5 GHz Boost packt, dabei aber nur 170 Watt benötigt. während ein Mitbewerberprodukt bei etwas über 1.3 Ghz schon knapp 200 Watt wegfuttert. Der ASIC-Wert ist bei beiden Karten übrigens ähnlich (schlecht). Das ist alles GPU-Z Voodoo und durch nichts in der Praxis wirklich allgemeingültig belegt.
 
Zurück
Oben