Test GPU-Stromverbrauch 2025: Neue Messungen zur Leistungs­aufnahme von Grafik­karten

Cabranium schrieb:
Kann mich da bitte jemand aufklären? Für was ist das wichtig?
das die karte ihre ganze leistung über den PciE stecker zieht und praktisch nix über das mainboard. Für den verbrauch ist es aber egal. Das ist halt eine messung die während der anderen messungen sich ergibt und rein informativ ist für al jene die es interessiert.
 
  • Gefällt mir
Reaktionen: Cabranium
till69 schrieb:
Ich messe an der Steckdose ohne dGPU, dann mit. Das Delta zeigt mir meinen realen Idle Wert der GPU.

und wie bootest du ins windows mit ausgebauter gpu?
 
verstehe. dann misst du aber nicht den realen idle-wert der dgpu, sondern signifikant niedriger, da du dafür ja noch den idle-wert der igpu kennen müsstest und zum gemessenen delta dazuzählen musst.
 
Redundanz schrieb:
da du dafür ja noch den idle-wert der igpu kennen müsstest
Nein, muss ich nicht, denn die iGPU ist auch mit dGPU aktiv.
Hier mal ohne dGPU:
 

Anhänge

  • iGPU.jpg
    iGPU.jpg
    177,1 KB · Aufrufe: 101
  • Gefällt mir
Reaktionen: Redundanz
aktiv ja, verbraucht aber erst mit angeschlossenen monitor etwas.
 
  • Gefällt mir
Reaktionen: Redundanz
till69 schrieb:
Hier mal ohne dGPU:

ok, alles klar, bei solchen beeindruckenden werten wäre es dann ohnehin vernachlässigbar.
überrascht mich ein wenig wie niedrig die idle-leisungsaufnahme der grafikkerne tatsächlich ist.
Ergänzung ()

Northstar2710 schrieb:
aktiv ja, verbraucht aber erst mit angeschlossenen monitor etwas.

naja, dass wir vom typischen vergleichszenario des desktop-idle mit einem aktiven monitor sprechen sollte klar sein. hoffe das hat till bei seiner messung alles berücksichtigt...
 
Interessanter Test, die meisten Werte sind zwar nicht neu, aber dafür recht übersichtlich für Vergleiche.

Lustig ist das aber immer bei etwas älteren Spielen mit Begrenzer auf 60fps was so leider nicht getestet wurde.
Als Beispiel, meine alte 1070 (OC) verbrauchte oft ihre ~190W, die 4070TiS kommt in vielen dieser Spiele auf ~100W - das merkt man auch.
 
Abudinka schrieb:
ob die FPS jetzt bei 50 oder 60 ist für die Messung nicht wirklich entscheidend. Hier geht es nur darum wie gut die Karten im Teillastbereich mit aktzeptablen Settings funktionieren, und 60 fps kann für manche Karte da schon nicht mehr Teillast sein.
1+

btw.
funktionieren bedeutet heutzutage das man FG zuschalten kann, was mittlerweile ab 50fps smooth genug
läuft, ... die früheren Angaben von min60fps finde ich mittlerweile überzogen.

60fps an nem 60Hz-Moni sind übrigens totaler Unfug!
57fps ist optimal bezgl. InputLag

Wenn ichs besonders sparsam haben will am 60Hz-Moni, dann nutze ich RTSS=44fps + FG/AFMF = 88fps,
wo dann theoretisch immer mal im Wechsel echte und fake frames zu sehen sind.
(muss man probieren in "langsamen" games)
 

Anhänge

  • The Witcher 3 Wild Hunt_2025.05.21-11.46 dlss.jpg
    The Witcher 3 Wild Hunt_2025.05.21-11.46 dlss.jpg
    1.010,7 KB · Aufrufe: 102
Zuletzt bearbeitet:
Tommes schrieb:
Hallo
Da kann ich nur mit dem Kopf schütteln

Angenommen ich habe einen High-End PC mit einer 5090
Ich spiele jeden Tag 10Std, das sind dann bei ca. 800Watt gleich 8KW
Hochgerechnet auf einem Monat vielleicht 200KW
Auf das Jahr gerechnet vielleicht 2000KW

Das ist die hälfte von dem was ich mit meinem Haus verbrauche:hammer_alt:

Vielleicht werden die Heizkosten etwas niederiger:daumen:

MFG Thomas
Also erstmal stimmen deine Einheiten nicht. Außerdem spielt niemand 365 Tage im Jahr 10h, das ist völlig Banane, wäre dem wirklich so, hat man ganz andere Probleme als die Stromkosten...
 
Ich finde den Stromverbrauch viel zu hoch. Einfach dass die meisten aktuellen Karten ca 200-300W brauchen ist verrückt.

Zum Glück braucht meine 4060 nur 100-130W. Das ist mMn noch okay. Leider sind die Zeiten von 60-100W vorbei. Ich denke an die GTX 1650 mit 70W.

Man merkt, dass die Effizienz sich immer weniger verbessert und man mehr Rechenleistung meist mit mehr Stromverbrauch erzielt.

Allerdings bin ich über AMDs neue Karten überrascht.

@GerryB Ab 48fps bzw. Hz fühlt sich das Bild „flüssig“. Ab 24fps oder Hz empfindet man es als Film. Darunter stotterig. Hat Heinrich Herz rausgefunden.
 
Zuletzt bearbeitet:
MalWiederIch schrieb:
Wenn du das pauschal für alle behaupten willst solltest du mal umdenken bzw. rechnen lernen, massig Leute, erst recht seit Corona, haben Homeoffice - bei 8 Stunden am Tag wären 30W Differenz 18,72€.
Ich sollte rechnen lernen? Du solltest mal besser denken lernen. Im Homeoffice sitzen 95% an einem Laptop oder PC der Firma mit Onboard GPU und einem belanglosen Verbrauch dieser "GPU".
10 oder 20 Watt ergibt im übrigen eine Differenz von 10 und nicht von 30 Herr Rechenkünstler.
Btw, Homeoffice ist seit Ende Corona wieder rückläufig.
 
Zuletzt bearbeitet:
Tommes schrieb:
Auf das Jahr gerechnet vielleicht 2000KW

Das ist die hälfte von dem was ich mit meinem Haus verbrauche:hammer_alt:
Und diese Person verbraucht vielleicht sogar weniger Strom im Jahr als du. Weil Zocken der Lebensinhalt ist und außenrum wenig passiert.
Ergänzung ()

ErnstHaft99 schrieb:
Btw, Homeoffice ist seit Ende Corona wieder rückläufig.
Eigentlich nicht. Eigentlich ist es mehr denn je Trend in großen Firmen.
 
  • Gefällt mir
Reaktionen: calippo
Du solltest dich besser informieren. Aber egal. Du hast recht und ich meine Ruhe.
 
Alphanerd schrieb:
Wer zockt denn bei Sonnenschein?
Im Hochsommer bei >30 Grad kann ich draußen nur noch dahin vegetieren. Ab in den Keller, Klima an und die Mittagszeit mit Gaming überbrücken. Strom kommt von der 19kwp Anlage vom Dach und wenn der nicht selbst verbraucht wird, verschenkt man ihn an solchen Tagen.
 
  • Gefällt mir
Reaktionen: _b1nd und Alphanerd
Tommes schrieb:
Ich spiele jeden Tag 10Std

Wenn Du 10 Std. am Tag spielst hast Du ganz andere Probleme als die Stromkosten der Grafikkarte.
 
  • Gefällt mir
Reaktionen: Alphanerd, Moritz Velten und GerryB
Betreibe meine 4080S mit 0,9v@2000MHz, da verbraucht sie noch 175W bei 75% Leistung.
 
Zurück
Oben