Test GPU-Stromverbrauch 2025: Neue Messungen zur Leistungs­aufnahme von Grafik­karten

TheInvisible schrieb:
Wobei wer sitzt wirklich bei 100% idle vorm Rechner
Vollbild Stream, Monitor 165Hz 2560x1440
1748347046007.png


Gleicher Stream in einem anderen Tab
1748347173902.png
 
Die ARC 770 frisst doch garnicht soviel. Meine zieht 8 - 25 Watt im Desktop. Man muss die halt richtig im Bios und unter Windows einstellen... ^^
 
Zuletzt bearbeitet:
anexX schrieb:
Falsch - die 240hz liegen immer an und sind immer ne Wohltat für die Augen - völlig egal ob du zockst, arbeitest etc. Man muss nicht zwingend auf 240 FPS zocken um was von nem 240hz Monitor zu haben.
Dass eine höhere Bildwiderholrate immer flüssiger ausschaut, hat niemand bestritten. Und trotzdem, wenn mein Game nur 100FPS (bspw. 4K inkl. DLSS etc.) schafft ist es relativ egal, ob ich 144, 165 oder 240Hz habe, es bringt mir keinen Vorteil.
Ergänzung ()

Sennox schrieb:
Dafür gibt's doch jetzt MFG 🤡
Mein Fehler:D
 
Zum Glück kann ich die ca 700 W die mein PC in gaming verbraucht mit meiner Solaranlage meist gut kompensieren da interessiert es mich nicht mehr so sehr wieviel die Grafikkarte zieht 😅
 
  • Gefällt mir
Reaktionen: calippo, MalWiederIch und Drakrochma
Tommes schrieb:
Hochgerechnet auf einem Monat vielleicht 200KW
Auf das Jahr gerechnet vielleicht 2000KW

Was hast du denn für Sicherungen im Hausanschlusskasten? Ich kann maximal 50kW verteilt auf 3 Phasen dauerhaft ziehen. Müssten ja um die 1700A Sicherungen und 600mm² Zuleitungen zu deinem Haus sein :o
 
  • Gefällt mir
Reaktionen: MalWiederIch
Tommes schrieb:
Da kann ich nur mit dem Kopf schütteln

Angenommen ich habe einen High-End PC mit einer 5090
Ich spiele jeden Tag 10Std, das sind dann bei ca. 800Watt gleich 8KW
Hochgerechnet auf einem Monat vielleicht 200KW
Auf das Jahr gerechnet vielleicht 2000KW

Das ist die hälfte von dem was ich mit meinem Haus verbrauche:hammer_alt:

Tommes schrieb:
Ich kenne sehr viele süchtige, die jeden Tag Stunden vor der Kiste sitzen
Auch mit wenig Kohle in der Tasche

Was jetzt – hat die Person Kohle oder nicht?
Entweder man kann sich einen High-End-PC für 4–5k leisten und den Strom dafür zahlen, oder eben nicht. Aber bitte nicht behaupten, jemand mit "wenig Kohle" zockt täglich 10 Stunden auf einer 5090 und bläst dabei 2000 kWh im Jahr durch – das ist komplett zusammenkonstruiert.


Natürlich kannst du darüber diskutieren, dass GPUs zu teuer oder zu stromhungrig sind. Aber das ist ein völlig anderes Thema. Dein Szenario wirkt eher wie ein künstlich dramatisierter Worst Case, der mit der Realität der meisten Nutzer nichts zu tun hat.


Und auch dieser Dauer-Maximalverbrauch – was soll das sein? 10 Stunden täglich Cyberpunk mit Pathtracing auf 4K bei 20 FPS in Endlosschleife? Mal ehrlich. Selbst bei Vollauslastung liegt der Verbrauch meist nicht dauerhaft bei 800 W. Das ist einfach nur sinn- und zusammenhanglose Polemik gegen die 5090 – egal wie absurd das Beispiel sein muss, Hauptsache draufhauen.

Und das schlimmste. Wahrscheinlich würde ich dir im Kern sogar noch zustimmen. Aber so wie du dein Argument verpackst, kann ich das nicht stehenlassen. Es schadet nur dir und deiner eigentlichen Message.
 
  • Gefällt mir
Reaktionen: calippo, cyberpirate und MalWiederIch
Chismon schrieb:
Das trifft dann wohl eher auf Pro/HardCore Gamer (eSports), einige (Twitch-)Influencer und Spieletester (als Teil eines Entwicklungsteams) sowie Gaming-Journalisten zu.
Anders kommt ja man nicht auf die 70h/w mit einer 5090 aus seinem Beispiel.

Nepobaby und gut bechte Rentner vlt noch. Denen macht der Stromverbrauch dann auch nix aus. Der Rest schafft das nicht, wenn er einen Lebensunterhalt erwirtschaften muss.
Zanza schrieb:
Wird Zeit für ein paar Solarpaneele auf dem Dach oder Balkon.
Wer zockt denn bei Sonnenschein?

Aber ansonsten zu Solar: ja.
 
  • Gefällt mir
Reaktionen: Chismon
Dasher schrieb:
Was jetzt – hat die Person Kohle oder nicht?
Entweder man kann sich einen High-End-PC für 4–5k leisten und den Strom dafür zahlen, oder eben nicht. Aber bitte nicht behaupten, jemand mit "wenig Kohle" zockt täglich 10 Stunden auf einer 5090 und bläst dabei 2000 kWh im Jahr durch – das ist komplett zusammenkonstruiert.


Natürlich kannst du darüber diskutieren, dass GPUs zu teuer oder zu stromhungrig sind. Aber das ist ein völlig anderes Thema. Dein Szenario wirkt eher wie ein künstlich dramatisierter Worst Case, der mit der Realität der meisten Nutzer nichts zu tun hat.


Und auch dieser Dauer-Maximalverbrauch – was soll das sein? 10 Stunden täglich Cyberpunk mit Pathtracing auf 4K bei 20 FPS in Endlosschleife? Mal ehrlich. Selbst bei Vollauslastung liegt der Verbrauch meist nicht dauerhaft bei 800 W. Das ist einfach nur sinn- und zusammenhanglose Polemik gegen die 5090 – egal wie absurd das Beispiel sein muss, Hauptsache draufhauen.

Und das schlimmste. Wahrscheinlich würde ich dir im Kern sogar noch zustimmen. Aber so wie du dein Argument verpackst, kann ich das nicht stehenlassen. Es schadet nur dir und deiner eigentlichen Message.
Hallo

Es gibt Menschen die haben einen High-End PC , und im Kühlschrank laufen sich die Mäuse Blutblasen

Dafür ist immer Geld da

MFG Thomas
 
  • Gefällt mir
Reaktionen: _b1nd
statt 144Hz gerne auch 480Hz testen 😬
Ergänzung ()

interessant wäre auch ein Community Test. wer schafft den niedrigsten Idleverbrauch?
 
Tommes schrieb:
Hallo
Da kann ich nur mit dem Kopf schütteln

Angenommen ich habe einen High-End PC mit einer 5090
Ich spiele jeden Tag 10Std, das sind dann bei ca. 800Watt gleich 8KW
Hochgerechnet auf einem Monat vielleicht 200KW
Auf das Jahr gerechnet vielleicht 2000KW

Das ist die hälfte von dem was ich mit meinem Haus verbrauche:hammer_alt:

Vielleicht werden die Heizkosten etwas niederiger:daumen:

MFG Thomas
Man muss aber auch einen gewissen Schaden haben um jeden einzelnen Tag im Jahr mehr zu zocken als zu arbeiten - machst du das so bzw. arbeitslos? :p

Bereits 10 Stunden die Woche dürfte für berufstätige Menschen, die nicht Single + hobbylos sind, schwierig werden - das wären 6kWh (nicht KW - dass du den Unterschied nicht kennst erklärt vermutlich die unrealistische Rechnung) bzw. 6€ die Woche oder 24€ im Monat - bei einer Grafikkarte die aktuell irgendwo bei ~2.600€ liegt.

Kennst du keine wirklich teuren Hobbies oder regst du dich nur auf, weil du dir selbst keine RTX 5090 leisten kannst/willst? Die Stromkosten sind jedenfalls das kleinste Problem.

Alphanerd schrieb:
Das verstehe ich nie ganz. Statt idlen lassen schlafen schicken.
Für die wenigen, die den PC lediglich als Konsolenersatz nutzen mag das funktionieren - nahezu jeder Homeoffice-Job liegt allerdings 1:1 im Idle-Bereich, ist doch nun wirklich nichts Neues :rolleyes:
Alphanerd schrieb:
Wer zockt denn bei Sonnenschein?
Wer installiert eine PV-Anlage heutzutage ohne Speicher? Das ist doch naiv, 16kWh gibt es bereits für unter 2.000€ …
Ergänzung ()

Dasher schrieb:
Was jetzt – hat die Person Kohle oder nicht?
Entweder man kann sich einen High-End-PC für 4–5k leisten und den Strom dafür zahlen, oder eben nicht. Aber bitte nicht behaupten, jemand mit "wenig Kohle" zockt täglich 10 Stunden auf einer 5090 und bläst dabei 2000 kWh im Jahr durch – das ist komplett zusammenkonstruiert.
:p
ErnstHaft99 schrieb:
Und Idle ist für die Stromkosten quasi belanglos. Wenn die GPU unter Last 300 Watt zieht, interessiert mich doch nicht der Passiv-Verbrauch von 10 oder 20 Watt.
Wenn du das pauschal für alle behaupten willst solltest du mal umdenken bzw. rechnen lernen, massig Leute, erst recht seit Corona, haben Homeoffice - bei 8 Stunden am Tag wären 30W Differenz 18,72€.
100W Differenz beim Zocken bei 8 Stunden die Woche kommen allerdings nur auf 12,48€ …

Zockst du mehr als du arbeitest?
Ergänzung ()

ErnstHaft99 schrieb:
Und Idle ist für die Stromkosten quasi belanglos. Wenn die GPU unter Last 300 Watt zieht, interessiert mich doch nicht der Passiv-Verbrauch von 10 oder 20 Watt.
Dann solltest du mal umdenken, massig Leute haben seit Corona Homeoffice - bei 8 Stunden am Tag wären 30W Differenz 18,72€.
100W Differenz beim Zocken bei 8 Stunden die Woche kommen allerdings nur auf 12,48€ …

Zockst du mehr als du arbeitest?
t3chn0 schrieb:
Eine 5080Ti mit 24GB wäre sowas von gekauft. Die 5090 hat mir einfach zu viele Abstriche,
Eigentlich doch nur einen - den Preis - oder welchen Vorteil soll eine RTX 5080 Ti gehenüber einer 5090 haben bis auf den Preis? :p
 
Zuletzt bearbeitet:
Bei den neuen Karten hat AMD ja echt 2 Extreme erschaffen, die 9070 schafft es unter die Top 5 der effizienten Karten und die XT unter die Top 5 der ineffizienten, zu dem ganzen Haufen der 7000er.
Ergänzung ()

MalWiederIch schrieb:
Eigentlich doch nur einen - den Preis - oder welchen Vorteil soll eine RTX 5080 Ti gehenüber einer 5090 haben bis auf den Preis?
Wahrscheinlich auch einen nicht ganz so extremen Verbrauch.
 
  • Gefällt mir
Reaktionen: MGFirewater
Die 5060Ti verbraucht weniger als eine RX7600 und eine 4070. Finde ich schon sehr gut. Abwarten, wie es mit der 9060XT aussieht.

Hätte nicht gedacht, dass die 5060Ti 16GB die interessanteste Karte der 50er Reihe ist. Es bleibt spannend.
 
Tommes schrieb:
Hallo
Da kann ich nur mit dem Kopf schütteln

Angenommen ich habe einen High-End PC mit einer 5090
Ich spiele jeden Tag 10Std, das sind dann bei ca. 800Watt gleich 8KW
Hochgerechnet auf einem Monat vielleicht 200KW
Auf das Jahr gerechnet vielleicht 2000KW

Das ist die hälfte von dem was ich mit meinem Haus verbrauche:hammer_alt:

Vielleicht werden die Heizkosten etwas niederiger:daumen:

MFG Thomas
Wie kommst du auf 800 Watt Stromverbrauch pro Stunde? Bei Outlaws liegt der durchschnittliche Stromverbrauch "nur" bei 586 Watt lt. Test. Und wenn du bereit bist, 3.000 € für eine 5090 zu bezahlen, wirst du dir die Stromkosten doch sicher leisten können.
 
laut AIDA64 zieht meine 7900XTX im Idle um die 40 - 50 Watt. Im Dual Monitor Setup bei WQHD@144Hz für beide Displays. Mit VR Brille oder dritten Monitor 100 Watt. Da taktet dann der VRAM nicht mehr runter.

Ist das einzige was mich stört an der Karte. Lastwerte habe ich ähnliche wie hier im Test. Um die 360 Watt wenn die Karte knüppelt.

Unterm Strich bin ich aber sehr zufrieden. Leistung satt, genug VRAM für VR und leise.

Gruß
Holzinternet
 
WolledasKnäul schrieb:
Was hast du denn für Sicherungen im Hausanschlusskasten? Ich kann maximal 50kW verteilt auf 3 Phasen dauerhaft ziehen. Müssten ja um die 1700A Sicherungen und 600mm² Zuleitungen zu deinem Haus sein :o

Ich wollte eh schon was dazu schreiben, weil hier teils munter Leistung mit Verbrauch (genau genommen Arbeit bzw. Energie) bzw. deren Einheiten vermischt werden.

Die Leistung wird in Watt (W) angegeben und die verbrauchte Energie dagegen in Wattstunden (Wh). Wenn z.B. eine 4090 im Schnitt 400 W zieht, sind das in einer Stunde 400 Wh. Oder anders gesagt: nach 2,5 h zieht die Karte eine Kilowattstunde (kWh).

Wird gerne durcheinander geschmissen, verstehe nur nicht so recht warum. Es ist das gleiche Prinzip wie bei Distanzen und Geschwindigkeiten. 200 km mit dem Auto zu fahren ist was anderes als mit 200 km/h zu fahren. Die Distanz sagt nichts darüber aus, wie schnell man die Strecke zurückgelegt hat und umgekehrt sagt die Geschwindigkeit nicht aus, welche Distanz man gefahren ist.
 
Leistungsaufnahme beim Spielen
Was zeigt diese letzte Tabelle? Also genau genommen der Bedarf des PCI Slots? Die 5070 12GB hat einen Verbrauch von 1 Watt.
Ich weiss nicht was mir das sagen soll. Kann mich da bitte jemand aufklären? Für was ist das wichtig?
 
Zurück
Oben