Nvidia 780Ti vs. AMD R) 290X / Stromverbrach und Kosten

-Nobody-

Ensign
Registriert
Jan. 2011
Beiträge
170
Hallo CB- Community,

Welche Graka soll ich kaufen, Nvidia oder AMD?

Dies wird immer wieder im Forum gefragt und entfacht regelmäßig tolle Diskussionen.
Immer häufiger wir über den Stromverbrauch diskutiert und ich habe mir mal selbst so meine Gedanken zu diesem Thema gemacht und eine kleine Tabelle aufgestellt.

Meine Persönliche Meinung zum Stromverbrauch einer HighEnd Graka möchte ich hier nicht zur Debatte stellen.

Vielmehr soll meine Tabelle jedem verdeutlichen was er spart oder bezahlt.

Entschieden habe ich mich für die GTX 780TI (Launch 07.11.2013) und R9 290X (Launch 24.10.2013).
Diese Karten Spielen in der selben Liga und sind beide Ende 2013 auf den Markt gekommen und sollten somit vergleichbar sein.

Entscheidet einfach selbst ob sich der Mehrpreis einer GTX 780Ti zugunsten des Stromverbrauchs für euch lohnt.

http://fs1.directupload.net/images/150125/v99phkaq.png



LG Nobody
 
Zuletzt bearbeitet:
öhm...eine GTX 780 Ti holt man sich seit der GTX 980 eigentlich nur noch, wenn man sie für einen sehr geilen Preis bekommt.
 
... und Idel schreibt man Idle...

schöne Tabelle ansonsten aber wer kauft sich ne High End Graka um Strom zu sparen?
 
promashup schrieb:
Es geht nicht darum ob man sich heute noch eine 780Ti kaufen sollte, sondern darum zu zeigen wie sich die tatsächlichen Stromkosten bei diesen realen Beispiel verhalten.

auch nicht ganz richtig. die gtx 970, welche gerade mal 5% langsamer ist als eine 780 ti, zieht sage und schreibe 120W weniger aus der dose. von daher ist das für mich kein aktueller vergleich
 
Eine Grafikkarte auf sieben Jahre Laufzeit anzuschaffen halte ich für persönlich ziemlich sinnfrei.

Die 780ti ist zudem zu teuer. Die 970 ist günstiger und nochmals effizienter. Die 290X würde ich alleine wegen der Hitzeentwicklung und der dementsprechend lauteren und größer dimensionierten Kühlung nicht kaufen.
 
wie wäres mit der Geforce GTX 970 (zb von EVGA oder ASUS mit OC 15%) bestes Preis Leistungsgverhältnis derzeit und im ilde unhörbar,...
 
Dai6oro schrieb:

:rolleyes::rolleyes::rolleyes:

Wegen dem Bericht ist die meist empfolene und immer gut bewertete Karte also ab sofort eine Karte, die der Käufer meiden sollte wie der Teufel das Weihwasser???

Ich stelle also nochmal die gleiche Frage wie im anderen Thread: ist jemandem das überhapt schon aufgefallen bzw. hat jemand dadurch schon einbußen bei irgendwas gehabt?

Denke von uns hier im Forum nicht.
 
Es macht sich hier keiner Gedanken darüber, worum es dem Themen-ersteller geht, oder?

Dessen Intention ist, dass bei der Wahl von Grafikkarten hier häufig der Stromverbrauch als finanzieller Aspekt groß berücksichtigt wird. Mit der Wärmeentwicklung hat das hier erst einmal nichts zu tun.

Auch wenn ich denke, dass -Nobody- die Tabelle etwas besser hätte gestalten können, ist sie für das, wofür sie gedacht ist, geeignet:
Aus
"Aber die verbraucht x Watt mehr!!"
eine vernünftig bewertbare Aussage zu machen:
"Die x Watt Mehrverbrauch ammortisieren sich in einem Zeitraum y, wenn man von einem Preisunterschied von z ausgeht."

Da ist es egal, ob die GTX780Ti nun nicht mehr so attraktiv ist, falls man sie nicht günstig bekommt oder ob man auf AMDs 300er warten sollte oder ob die GTX970 nun doch nur 3.5Gig hat.
 
Schließe mich da meinem Vorposter an. Solang niemand 24/7 zockt, bitcoins mint oder was weiß den ich macht, halte ich den Stromverbrauch nur bei einem möglichen Netzteilwechsel für relevant.
 
Dai6oro schrieb:
Kannst ja hier mal lesen wie viele Leute eben schon ein Problem haben:

https://forums.geforce.com/default/topic/803518/geforce-900-series/gtx-970-3-5gb-vram-issue/66/

man kann sich aber auch sehenden Auges verarschen lassen, jeder wie er will.

Hat verarschen lassen recht wenig zu tun. Nur ich sehe es jetzt schon kommen, daß in jedem Thread, wo eine 970er nur ansatzweise angesprochen wird, jetzt dieses Thema kommt. Egal ob die Karte ansich sehr geil ist oder nicht. Alles was vorher war, ist damit sofort tot. Alles ist falsch...und es wird von nun an nur noch eine R9 290 / R9 290X geben...so wird es aussehen.

Sorry, ist zwar off-topic, aber leider kenne ich gewisse Verhaltensweisen besonders hier im CB schon sehr genau.

Fakt ist aber nunmal, daß der typische Zocker diesen Video-Ram-Bereich in der Regel nicht erreichen wird. Ansosten wären alle Tipps von wegen R9 280X mit 3 GB Speicher und bla und blub IMMER falsch gewesen.

Wer sich für Stromverbauch wirklch richtig interessiert und wem jedes Watt wichtig ist, hat in der Regel aber auch keinen High-End-Gamer-Rechner, sondern richtet seine Zocker-Maschine nach Leistung/Stromverbrauch direkt aus.
 
Zuletzt bearbeitet:
Die Frage ist aber auch , ob diese Werte reelle mEsswerte sind oder die nach Hersteller angaben !
 
Klar hat die Tabelle durchaus eine Ausage Kraft.
Und ja die Ersparnis pro Anno ist meist nicht so gross.

Aber sollte man dann nicht auch sehen, das die TI im Vergleich zu der AMD noch etwa 10% mehr Leistung bringt.
Also ein Vergleich von Karten, die auf gleichen Niveau agieren +/-2% wäre da doch besser.
Da wäre dann zum Beispiel die GTX 780 OHNE Ti besser gewesen und somit der Unterschied auch grösser.

Und wenn jemand mehr Stunden am Tag zockt, was durchaus nicht unbedingt selten ist,
dann wird über die Verwendungzeit einer Karte in mehreren Jahren durchaus etwas mehr eingespart.

Hinzu kommen dann noch die laufend steigenden Energie Kosten, die unvermeindlich sind,
da ja die Subventionierung von der"grünen" Stromerzeugen komplett auf die Verbraucher abgewälzt wird.
Da immer mehr Konzerne dies im grossen Stil betreieben, werden die Kosten noch deutlich steigen in den nächsten Jahren.

Ebenfalls sind die angegeben Kosten von 24,74 Euro/KWH ziemlich niedrig angesetzt,
und doch nicht nur selten meist deutlich höher.
Der durschnittliche Arbeitspreis für Strom lag im Jahr 2014 bei 29,13 Cent/KWH Brutto.

Quelle: Wikipedia

Zusätzlich darf man für eine sogennante "realistische" Darstellung die Laufzeit im Idle nicht einfach weglassen.

Grundsätzlich muss das jeder für sich abwegen, ob AMD oder Nvidia.
Je mehr ein Rechner genutz wird, um so grösser wird die Schere und umgekehrt.

Bei Nutzung von mehreren Monitoren and den Karten würde die Schere ebenfalls noch weiter auseinander gehen.

Gruss vom TTjoe
 
Zuletzt bearbeitet:
Das soll nur ein Beispiel sein und leider haben viele das Thema hier nicht verstanden.

Es geht mir nur darum die Energieersparnis einer Graka in Euro umzurechnen und Bildlich darzustellen.

Dies könnt ihr natürlich auch mit einer Graka eurer Wahl machen und dieses Ergebnis selbst bewerten.

Im Vergleich Energieeffizienz würde ich keine Produkt vergleichen das ein Jahr auseinanderliegt in der Entwicklung und aus diesem Grund habe ich mich für die Ti entschieden.
 
Quixy schrieb:
Die Frage ist aber auch , ob diese Werte reelle mEsswerte sind oder die nach Hersteller angaben !

Die Werte dürften sich auf Benchmark Test beziehen,
würde also im realen Gaming Bereich also etwas niedriger sein.
Zu berücksichtigen wäre dann noch, dass dies Referenzkarten Werte sein dürdten.
Soll also heissen, dass etwaige Custom-Karten durch eine höhere Taktung dann wieder etwas mehr vrebrauchen werden.
Das gilt natürlich für AMD und Nvidia Karten gleichfalls :D
Ergänzung ()

-Nobody- schrieb:
Das soll nur ein Beispiel sein und leider haben viele das Thema hier nicht verstanden.

Es geht mir nur darum die Energieersparnis einer Graka in Euro umzurechnen und bildlich dar zustellen.

Dies könnt ihr natürlich auch mit einer Graka eurer Wahl machen und dieses Ergebnis selbst bewerten.

Im Vergleich Energieeffizienz würde ich keine Produkt vergleichen das ein Jahr auseinanderliegt in der Entwicklung und aus diesem Grund habe ich mich für die Ti entschieden.

Hey, soll ja auch nicht unbedingt kritisch gemeint sein, sondern eher als Verbesserungsvorschlag.
Grundsätzlich hast du das schon ganz gut gemacht :-)

Gruss vom TTjoe
 
Zuletzt bearbeitet:
Zurück
Oben