Test GPU-Stromverbrauch 2025: Neue Messungen zur Leistungs­aufnahme von Grafik­karten

Schöne neue Messreihe mit aktuellen Werten. Ob da nun ein paar W drauf oder runter kommen, ist erstmal wurscht. Es geht ja um eine Einschätzung und Einordnung.
Dass jede Karte noch variieren kann wissen wir doch alle.

Aber ich muss auch sagen, dass mir meine 7800XT mittlerweile auch zu viel säuft und ich daher ausnahmslos alle Games auf die 100hz meines Monitors begrenze und keine mehr mit max. FPS zocke.
Klar, Grafikkracher schaffen teils natürlich keine 100FPS in meiner recht hohen 3440x1440 Auflösung.

Jetzt kommt aber der Sommer wieder und man merkt einfach an der Raumtemperatur wenn 250W rausgeblasen werden oder eben nur 120-170W je Game.
Daher schiele zwar schon sehr gerne auf die 9070 aber da ist mir der Mehrwert noch deutlich zu gering was Leistung angeht und den Preis den ich dafür zahlen müsste.
Da warte ich lieber auf die UDNA Gen , was uns hier so erwartet. :)
 
  • Gefällt mir
Reaktionen: Alphanerd und Chismon
Ultharandor schrieb:
Speziell weil man sinnvollerweise mit ab 60FPS wenn möglich spielen sollte,
Ich habe es mal für dich entsprechend korrigiert, jetzt passt die Aussage 🤘
 
  • Gefällt mir
Reaktionen: MalWiederIch
Ich habe eine RX9070 und die hier vorgestellte Messung bestätigt im Wesentlichen das, was ich unter Adrenaline sehen kann. Ich habe "Effizienz bevorzugen" voreingestellt, aber sobald ich die Maus auf dem Desktop bewege bin ich bei einer Leistungsaufnahme von 30-40W. Ich frage mich, ob das beim surfen, YouTube schauen etc. wirklich sein muss.
Lässt man die Finger von der Maus, dann sind 12W im idle kein Problem, aber dann kann man den PC auch direkt runterfahren.
Ich bin etwas enttäuscht.
 
Tommes schrieb:
Ich spiele jeden Tag 10Std, das sind dann bei ca. 800Watt gleich 8KW
Machen ja die wenigsten :) man macht ja Mal Pause Mal zockt man mehr Mal weniger und arbeiten muss man ja auch ....

Bei den Leuten die das hauptberuflich machen die können das sicher absetzen
 
  • Gefällt mir
Reaktionen: MalWiederIch und Alphanerd
TheInvisible schrieb:
Meiner Meinung nach ist "idle" also eher office, browsing oder youtube oder ähnliches sehen
Der Idle Wert ist halt die Basis für Desktop/Office/Alltag.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Wolfgang schrieb:
Verstehe ich, hier gibt es aber schlicht das Problem, dass wir keinen 4K240-Monitor dauerhaft hier haben. Das ist aber durchaus eine Sache, die ich auf dem Schirm habe - die die längerfristige Zukunft.
Bitte nicht, ich glaube dass mag unsere Bubble hier zum Teil betreffen aber mit Scope auf breite Masse und unser Umfeld ist dies glaube ich eher eine Nische, auch in der nahen Zukunft.
 
  • Gefällt mir
Reaktionen: SmashD
TheInvisible schrieb:
Wobei wer sitzt wirklich bei 100% idle vorm Rechner, ergibt ja keinen Sinn. Da kann man gleich den Energiesparmodus aktivieren oder ausschalten.
Das ist ja das lächerliche an der idle-Diskussion, egal ob GPU oder CPU.
Wenn ich nichts zu tun habe, schalte ich den PC aus.

idle ist der Ruhezustand/Leerlauf und nicht die Geringbelastung durch Videos anschauen.
https://de.wikipedia.org/wiki/Idle
 
  • Gefällt mir
Reaktionen: Alphanerd, Rotznase6270 und Ruptarr
Und Idle ist für die Stromkosten quasi belanglos. Wenn die GPU unter Last 300 Watt zieht, interessiert mich doch nicht der Passiv-Verbrauch von 10 oder 20 Watt.
 
johnieboy schrieb:
Wenn Mainstream Grakas 500-700€ in 2025 kosten dann kann man Monitore in diesem Preisbereich ebenfalls als Mainstream bezeichen. 4k240 sind heute für 619€ zu haben.
es geht nicht immer um den preis, es geht darum, was die Leute zu Hause verwenden. und da ist cb ein blase und steam hardware Analyse das aussagekräftigere Tool. Und ich wette das whqhd und 60Hz oder sogar fullHD 60 HZ mit Abstand führt und >144hz 4K am anderen Ende der skala ist. ich selbst habe auch erst im februar auf IPS HDR1000 144HZ 4K gewechselt für €780) von VA HDR400 60HZ 4k (zu corona für ca. 750€), da ich mit dem Teil auch arbeite und Farbtreue (100% adobe rgb) und Werkzeugleisten eher meinem Aufgabenfeld entsprechen als maximale Frames. und da wird schnell teuer

https://geizhals.de/?cat=monlcd19wide&xf=11961_100~11963_240~14591_38402160 (okay Saturn hat den 8900 von Philips aktuell in der Werbung – im Januar war man da noch um die 1.000€ ). ich hab den 6800 von Philips.
Bildschirmfoto 2025-05-27 um 10.58.41.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SmashD und _b1nd
Ultharandor schrieb:
Ich hätte mir beim FPS Limiter lieber 60FPS gewünscht. Speziell weil man sinnvollerweise mit 60FPS wenn möglich spielen sollte, bzw das an sich auch die Standardgeschwindikkeit eder meisten Monitore war.
ob die FPS jetzt bei 50 oder 60 ist für die Messung nicht wirklich entscheidend. Hier geht es nur darum wie gut die Karten im Teillastbereich mit aktzeptablen Settings funktionieren, und 60 fps kann für manche Karte da schon nicht mehr Teillast sein.
Und da es nur um ein Spiel geht, ist die Kombination FPS-Limit/Leistungsaufnahme sowieso nicht absolut.
Kleines Gegenbeispiel: in Rimworld 240 fps hab ich 60W und in Clair Obscure 60fps 130W. In Rimworld ist der Framelimitier defacto egal, da kommt immer das selbe raus, in Clair Obscure würde 50 vs 60 fps anzeigen wir gut die Karte im Teillastszenario arbeitet. Aber ob ich jetzt als Ergebnis 50 fps mit 110W oder 60fps mit 130W mit offen 220W 100fps (geratene werte) vergleiche, macht in der Praxis keinen großen Unterschied (wie gesagt die fps/W kombis sind grobe schätzungen und werden kein reales verhalten abbilden)
Das entscheidene ist, wie sich das verhältnis aus FPS zu Leistung im Teilbereich ändert.
 
  • Gefällt mir
Reaktionen: GerryB
Ich bleibe dabei. Ich hatte die 5080 TUF OC hier, um meine 4090 potentiell zu ersetzen. Leider komme ich im FS2024 in 4K Maxed Out komplett in den VRAM Mangel. Die 4090 kommt damit (23GB Auslastung) gerade so hin.

Dennoch ist die 5080 von den neuen Karten, die meiner Meinung nach "rundeste". Die TUF OC ist super leise, IDLE und Verbrauch unter Last nochmal deutlich weniger als bei der 4090.

Eine 5080Ti mit 24GB wäre sowas von gekauft. Die 5090 hat mir einfach zu viele Abstriche, obgleich die Performance schon sehr gut ist.

Interessanter Test, besten Dank!
 
Danke insbesondere für den Vergleich mit fps-Limiter.

(PS: nur mal so zum Vergleich wegen den 60+ fps Wünschlern hier im Forum -> ich spiele "langsame" Spiele auch mit 30 fps-Limit weil es nicht stört)
 
johnieboy schrieb:
jedoch hätte ich lieber 4k240 gesehen, weil das die Richtung darstellt in die sich der mainstream Monitormarkt mit rapiden Schritten bewegt
Der "mainstream" zockt auf 1080p@60/144Hz:hammer_alt:
 
Tja, so wirklich relevant ist dieser Artikel für mich leider nicht, da (zugegeben zurecht) meine RDNA2 Karte nicht mehr vertreten ist und ich keines der hier stellvertretend gemessenen (noch relativ hochpreisigen) Spiele besitze.

Was letzteres angeht, weiss ich noch nicht einmal, ob/wann sich das zukünftig ändern wird (denn dann dürften wieder andere AAA Titel hier gebencht werden).

Abseits dessen bin ich für die per Marketing/Werbung bemühte fps per W Sichtweise auch nicht die richtige Zielperson.

Absolut gesehen immer schlechte werdende Effizienz (bei der RTX 5090 nicht mehr unter 400 W für anspruchslosere Titel stabil betreibbar und eine kolportierte RTX 5080 "Super" soll ja auch 400W TBP erreichen) machen diese (Ultra)High-End-Karten m.M.n. zunehmend unattraktiver.
 
  • Gefällt mir
Reaktionen: daknoll und hennich
johnieboy schrieb:
Wenn Mainstream Grakas 500-700€ in 2025 kosten dann kann man Monitore in diesem Preisbereich ebenfalls als Mainstream bezeichen.
4k240 sind heute für 619€ zu haben.
Wer sich einen 4K/240Hz Monitor für über 600€ anschafft, zockt nicht auf einer Billo Grafikkarte im mittleren Preissegment, die wahrscheinlich, je nach Titel, nicht mal 100FPS packt (was die 240Hz ebenfalls obsolet machen):freak:
 
  • Gefällt mir
Reaktionen: SmashD
Die Leute, die eine RTX 5090 kaufen, interessiert der Stromverbrauch nicht.
Die wollen die maximal mögliche Leistung.
 
  • Gefällt mir
Reaktionen: MalWiederIch und _b1nd
hennich schrieb:
@H1ldegunst ja schon klar. Aber so krass ? Das sind 100% mehr Leistung die gebraucht wird. Entweder sie bekommen das nicht in den Griff oder sie haben kein Bock mehr Geld in alte HW zu stecken bzw. in Treiberoptimierung.
Das ist doch nichts neues bei den 7000ern oder?
Bin jetzt nicht so im Thema drin, aber ich meine alleine der Aufbau in mit dem Chiplet-Design führt zu einem deutlich höheren Verbrauch in Niedriglast-Szenarien.
Ob das nun nur technische Gründe hat oder auch vom Treiber abhängt, bin ich raus.
 
  • Gefällt mir
Reaktionen: N0Thing und Alphanerd
Zurück
Oben