Test GPU-Stromverbrauch 2025: Neue Messungen zur Leistungs­aufnahme von Grafik­karten

5060Ti ist echt sparsam - deckt sich mit den Meldungen, dass Zotac einen MiniPC damit rausbringen möchte
 
danyundsahne schrieb:
Jetzt kommt aber der Sommer wieder und man merkt einfach an der Raumtemperatur wenn 250W rausgeblasen werden oder eben nur 120-170W je Game.
Daher schiele zwar schon sehr gerne auf die 9070 aber da ist mir der Mehrwert noch deutlich zu gering was Leistung angeht und den Preis den ich dafür zahlen müsste.
Da warte ich lieber auf die UDNA Gen ...
Das sehe ich ähnlich, bei mir sind es generell 60fps Limit (auch wegen meines 60Hz Monitors) und natürlich UV, solange das Spiel stabil läuft um bei ca. 160W zu bleiben.

RDNA4 (auch aus RDNA2 Sicht) lohnt sich für mich auch zu wenig (zumal UDNA1 der Einstieg in eine massive Architekturumstellung sein wird) und bisher hatte ich noch gar keine Probleme (finde die jetzige RDNA2 Karte eher noch zu mächtig, für das was ich aktuell spiele).

Ich werde wohl erst bei UDNA2 (in Kombi mit einem DDR6 RAM PC System) wieder irgendwann zugreifen (wobei es bei UDNA1 schon ein 150%(+) Leistungszielbereich werden dürfte, aber evt. noch nicht in der Mittel- bis Oberklasse (das darüber disqualifiziert sich jetzt für mich schon durch den hohen Verbrauch) und mir zudem zu kostspielig wäre und evt. (noch) zu wenig Speicherzuwachs hätte.
 
  • Gefällt mir
Reaktionen: danyundsahne und Boimler
Danke für die aktualisierten Werte. Schön, dass RDNA 2 mit dabei ist. Mit UV/OC mischt die Generation sogar noch weiter oben bei der Leistungsaufnahme mit. Sind die Messwerte von Arc richtig :D? Hatte die gar nicht als so stromhungrig im idle in Erinnerung...
 
  • Gefällt mir
Reaktionen: Chismon
Tommes schrieb:
Angenommen ich habe einen High-End PC mit einer 5090
Ich spiele jeden Tag 10Std, das sind dann bei ca. 800Watt gleich 8KW
Wenn du so viel spielst, verdienst du hoffentlich dein Geld damit. Sind dann also Betriebskosten.
 
  • Gefällt mir
Reaktionen: calippo, MalWiederIch und Chismon
SHEG schrieb:
Ich finde es klasse, dass die Methodik immer so ausführlich und nachvollziehbar erläutert wird. Danke dafür! :)

Was ich mir noch wünschen würde, jetzt wo der Stromverbrauch als Durchschnitt angegeben wird, wäre eine Möglichkeit, im selben Balkendiagramm die Min- und Max-Werte einzublenden, damit man ein Gefühl für die Schwankungsbreite bekommt.
Das ist mit unserem Diagramm-System nicht so ohne weiteres möglich - nicht, ohne das ohnehin schon lange Diagramm mit zwei Auflösungen noch länger zu machen. Da bleibt einem dann nichts anderes übrig, als das über das Karrussel selber heraus zu finden. Das ist denke ich aber ohne weiteres für jeden möglich, wenn auch natürlich nicht die perfekte Lösung :)
Couch-Potatoe schrieb:
Warum hat man sich für ein FPS Limit von 50 entschieden? Kommt mir etwas wahllos vor.
Ich habe das Limit so gewählt, dass die meisten Grafikkarten in dieses Limit rennen. Bringt ja nichts, wenn nur die schnellsten zwei in diesem sind.

Darüber hinaus spielt das ohnehin keine Rolle.
Das FPS-Limiter-Beispiel ist schlussendlich wirklich nur ein Beispiel, wie gut eine Grafikkarte generell Strom einsparen kann, wenn diese nicht mit der maximal möglichen Geschwindigkeit rendert. Es ist unmöglich zu sagen, Grafikkarte x kann bei FPS-Limit y immer z Watt einsparen. Das ist wirklich von Spiel zu Spiel unterschiedlich. Das genaue Testszenario ist deswegen eigentlich gar nicht wichtig.
bad_sign schrieb:
Eine Aussage würde mich mehr interessieren, wie gut fallen denn die Software Wert aus im Vergleich zur Messhardware?
Habt ihr da harte Abweichungen feststellen können?
Kann ich meiner 5070ti vertrauen, wenn sie 28W anzeigt (also +- 5%?)
Das hängt von Grafikkarte zu Grafikkarte ab, generell lässt sich das nicht sagen. Manche haben eine ziemlich genaue Telemetrie, anders eine recht ungenaue, andere wiederum werden bei hohen Watt-Werten ungenau und sind bei niedrigen/mittleren noch ziemlich genau. Das schwankt alles ziemlich.
Nitschi66 schrieb:
Danke @Wolfgang Besonders die Leistungsaufnahme über den PCIe Slot finde ich interessant. Finde es erstaunlich das selbst innerhalb einer serie die layouts so unterschiedlich sind. Eine 5090 nimmt fast gar nichts über den PCIe Slot wohingegen eine 5060 deutlich etwas darüber bezieht.
Das kann schlussendlich halt der Bordpartner selber bestimmen. Nvidia will bei ihren Designs den Strom über den PCIe-Slot offenbar so niedrig wie möglich halten. Palit bei der RTX 5060 ist das dagegen offenbar ziemlich egal, die geben gut Energie über den Slot.
G00fY schrieb:
@Wolfgang Vielen Dank für den interessanten Bericht und natürlich das ganzen Testen! Würde nur gerne wissen, wie ihr die Lastspitzen messt? Weil zB Igor bei seinen < 1ms Lastspitzen deutlich höhere Werte erreicht (als Beispiel 5080 FE 399W vs 529W).
Wir messen mit einem Sample pro Millisekunde, also jede Millisekunde gibt es einen Messwert. Das ist schnell für Messeinrichtungen, die explizit für Grafikkarten gedacht sind. Aber mit einem guten Oszilloskop kannst du halt nochmal deutlich schneller sein und öfter messen. Da bekommt man dann nochmal mehr Schwankungen mit als bei 1 ms.
SavageSkull schrieb:
@Beatmaster A.C.
Und rot nachlackiert, weil Rot ist schneller...

Back2Topic
Gibts eine Übersicht, welche Grafikkartenmodelle genommen worden sind? Gibt ja bei den kleineren Karten gar nicht immer eine "Founder Edition". Zumal das ja auch immer "limitierte" Modelle sind, die es nach einiger Zeit kaum noch im Handel gibt.
Eine direkte Übersicht gibt es nicht. So schaut es aber aus, was kein Referenzdesign ist:

  • MSI RTX 5070 Ti Ventus
  • Palit RTX 5060 Ti Infinity
  • Asus RTX 4070 Ti TUF OC
  • MSI RTX 4060 Ventus

  • Sapphire RX 9070 XT Pure
  • Sapphire RX 9070 Pure
  • PowerColor RX 7900 GRE Hellhopund
  • PowerColor RX 7700 XT Hellhound
Sennox schrieb:
Bitte nicht, ich glaube dass mag unsere Bubble hier zum Teil betreffen aber mit Scope auf breite Masse und unser Umfeld ist dies glaube ich eher eine Nische, auch in der nahen Zukunft.
Langfristig wird 4K240 ins Testportfolio kommen, das dauert aber noch. Da muss man sich noch keine Gedanken drüber machen :)
 
  • Gefällt mir
Reaktionen: Drahminedum, Sweepi, SHEG und 4 andere
Alphanerd schrieb:
... verdienst du hoffentlich dein Geld damit. Sind dann also Betriebskosten.
Das trifft dann wohl eher auf Pro/HardCore Gamer (eSports), einige (Twitch-)Influencer und Spieletester (als Teil eines Entwicklungsteams) sowie Gaming-Journalisten zu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch und Alphanerd
MGFirewater schrieb:
und da ist cb ein blase
Richtig, CB ist ne Blase, genauer gesagt ne Enthusiasten Blase zum größten Teil, in welcher die Leute z.B. der Stromverbrauch von GPUs in unterschiedlichen Szenarien interessiert. ;)
Daher hätte mich der Stromverbauch mit 4k240 ebenfalls interessiert.

_b1nd schrieb:
Der "mainstream" zockt auf 1080p@60/144Hz:hammer_alt:
Cool. Während du offenbar nur auf die gegenwärtige Situation blickst schaue ich in die Zukunft.
johnieboy schrieb:
weil das die Richtung darstellt in die sich der mainstream Monitormarkt mit rapiden Schritten bewegt, wie man an der aktuellen Computex gesehen hat.
Der Markt wird in den nächsten Jahren mit OLED Monitoren praktisch geflutet werden. Und da OLED von Haus mit gut hohen Hz umgehen können wird jeder Hersteller das gerne mitnehmen.
Derzeit findet im 4K OLED bereich noch ein Upselling statt mit 165/240 Hz, aber das wird mit mehr Auswahl bald der Geschichte angehören und die Preise werden fallen.
Spätestens 2027 wird 4k240 für 300-400€ normal sein.

_b1nd schrieb:
Wer sich einen 4K/240Hz Monitor für über 600€ anschafft, zockt nicht auf einer Billo Grafikkarte im mittleren Preissegment, die wahrscheinlich, je nach Titel, nicht mal 100FPS packt (was die 240Hz ebenfalls obsolet machen):freak:
Ahja. hast offenbar noch nie was von DLSS/FSR gehört oder Frame Generation. Scheint grade der letzte Schrei zu sein, frag dazu am besten mal bei Nvidia nach, schließlich ist ne 5070 = 4090 :rolleyes:
 
MGFirewater schrieb:
Mainstream? eher Enthusiasten, was manche hier als Mainstream ansehen :freak:
Welche Grafikkarte soll denn die Auflösung "nativ" oder mit "DLSS/FSR4" betreiben? Alle restlichen Einstellungen runter und nur die Auflösung hoch oder was?
Bin vollkommen deiner Meinung. Mainstream kommt gerade mal bei "1440p" mit 120-240 an, wenn man Steam als Vergleich zieht, dann ist "Mainstream" eine arme "Gesellschaft". :D

ZT: Hochachtung vor der eingesteckten Arbeit :hammer_alt:
Verbrauch war mir immer ein wichtiger "Wert" und ein Entscheidungskriterium, sei es in Idle oder bei Volllast.
 
Zuletzt bearbeitet:
hennich schrieb:
Entweder sie bekommen das nicht in den Griff oder sie haben kein Bock mehr Geld in alte HW zu stecken bzw. in Treiberoptimierung.
Es liegt an der HW und nicht an den Treibern. Was sollen sie da in den griff bekommen?

Freuen wir uns lieber, dass es bei einer der letzten großen Baustellen voran geht.
 
infinity650 schrieb:
Lieber till69, freu dich doch, dass du so detaillierte Informationen mit realen Messwerten bekommst und zeige etwas Dankbarkeit für die aufwändige (für dich und mich und viele andere) Gratisarbeit. Es kann einem vergehen, wenn direkt nach einem solch aufwändigen Mess-Test-Artikel als erster Kommentar so ein Genöle kommt.

Zumal weder die Validierung der 'Messwerte' eines Eulenspiegel noch die Möglichkeit dazu besteht.
 
die 5070 ti braucht ja gar nicht mehr als die 4070ti super!!!
dann hätte ich mir ja den neuen PC (mit neuem netzteil) sparen können.

nun gibt wohl nie einen falschen grund für einen neuen PC.
 
die rtx4070super ist ja absolut entspannt, egal ob idle,youtube oder Fensterbewegung immer 18-19watt, da denkt man die Arbeitet garnicht für ihr Geld 😅
 
  • Gefällt mir
Reaktionen: Couch-Potatoe
Wolfgang schrieb:
Das ist mit unserem Diagramm-System nicht so ohne weiteres möglich - nicht, ohne das ohnehin schon lange Diagramm mit zwei Auflösungen noch länger zu machen.
Vielleicht nicht im selben Diagramm, aber zum Durschalten mit den Reitern "Durchschnitt", "Min" und "Max" ginge bestimmt. Dann müsste man sich nur noch mit der unterschiedlichen Sortierung begnügen.

Vielleicht sind so Fehlerbalken oder Schwankungsbreiten eine Idee für das nächste CB-System-Update in ein paar Jahren. 8-)
 
infinity650 schrieb:
Dankbarkeit für die aufwändige (für dich und mich und viele andere) Gratisarbeit. Es kann einem vergehen, wenn direkt nach einem solch aufwändigen Mess-Test-Artikel als erster Kommentar so ein Genöle kommt.

Vor allem sollte man bedenken, dass in Zukunft sicher auch wieder Partnerkarten getestet werden, wodurch man dann auch wieder relevante Informationen für die eigene Kaufentscheidung erhalten wird.

Die Community profitiert in jedem Fall, daher danke an computerbase!
 
Die 5090 zieht 683W Lastspitze vom Teller ? Wow - das iss heftig.
 
@Wolfgang: ist es möglich auch mit 3 Monitoren zu testen? Ich habe die Erfahrung gemacht, dass die Grafikkarten bei 3 Monitoren plötzlich richtig viel verbrauchen. Bei der GTX980Ti hatte ich 75W im Leerlauf, dei RTX2080Ti nun immerhin noch 45W.
 
Schade das der Verbrauch der 9070er reihe so hoch ist bei Youtube und Fenster-Bewegung :(
Nehme an das liegt an VRAM der zu hoch taktet ?

Gibts bei den AMDs eine Möglichkeit den Takt mit einem Tool per Profil zu limitieren ?
Sagen wir mal 300Mhz GPU/VRAM ?
 
  • Gefällt mir
Reaktionen: Knut Grimsrud
_b1nd schrieb:
Wer sich einen 4K/240Hz Monitor für über 600€ anschafft, zockt nicht auf einer Billo Grafikkarte im mittleren Preissegment, die wahrscheinlich, je nach Titel, nicht mal 100FPS packt (was die 240Hz ebenfalls obsolet machen):freak:
Dafür gibt's doch jetzt MFG 🤡
 
  • Gefällt mir
Reaktionen: _b1nd
Zurück
Oben