Hat die Auflösung direkt etwas mit der Leistungsaufnahme einer GPU zutun?

MeisterJoda

Ensign
Registriert
Nov. 2025
Beiträge
183
Hallo,

ich habe meine RTX 5070 TUF Gaming OC bis an ihr Limit übertaktet. Einfach nur aus Neugierde für einen Test. Dabei hab ich die maximale Leistungsaufnahme auf 300W angehoben und den Chip um 350mhz übertaktet. Hab (entgegen meiner Erwartungen) einen relativ großen Leistungsboost bekommen. Höher ging vom Takt leider nur Softwareseitig nicht.
Zur eigentlichen Frage: Ich habe für meinen Test einmal den FurMark als Benchmark und War Thunder als Game genutzt. In FurMark zieht die Karte dauerhaft 300W. Ohne Ausnahme. In War Thunder auf 1080p bei 99% GPU Auslastung und ~100FPS zieht die Karte jedoch "nur" 230-250W. Ich habe einfach testweise die Auflösung ingame auf 1440p umgestellt und war dann auf einmal bei 99% Auslastung und ~70-80 FPS bei 280W. Und erst auf 4k ging es mit ~290-295 in Richtung 300. Der Takt war in allen drei Auflösungen grob immer bei 3120-3240mhz. Und die GPU war dauerhaft bei 99% Auslastung.

Ich war bisher eigentlich immer davon ausgegangen, dass eine GPU bei einer höheren Auflösung die gleiche Menge Strom zieht und einfach weniger FPS erzielt. Logisch ist das für mich auch irgendwie, weil eigentlich könnte die GPU bspw. ja dann auf 1080p sogar sonst noch mehr Leistung erreichen. Generell würde mich das mal interessieren, warum eine GPU in manchen Spielen bei 99% Auslastung deutlich mehr Strom zieht als in anderen.
Wenn grade irgendwer Zeit und Lust hat mir zu Antworten, würde ich mich sehr freuen! Ist absolut nix dringendes, bin einfach nur neugierig.

LG Jonathan
 
  • Gefällt mir
Reaktionen: KEV24in_Janßen
MeisterJoda schrieb:
Ich war bisher eigentlich immer davon ausgegangen, dass eine GPU bei einer höheren Auflösung die gleiche Menge Strom zieht und einfach weniger FPS erzielt.
Wie kommst du zu dieser Annahme? Höhere Auflösung bedeutet mehr Last und mehr Last bedeutet mehr Leistungsaufnahme. Sofern da Puffer vorhanden ist.
Ist die Karte bereits bei 1080p voll ausgelastet, wird es genau wie du schreibst: Dann verbraucht die Karte gleich viel Strom, liefert aber weniger.

Insofern zweifle ich an der "Auslastung" in 1080p.

MeisterJoda schrieb:
Generell würde mich das mal interessieren, warum eine GPU in manchen Spielen bei 99% Auslastung deutlich mehr Strom zieht als in anderen.
Eine Grafikkarte besteht aus verschiedenen Prozessoren die verschiedene Aufgaben haben und nicht jedes Spiel lastet eine Grafikkarte gleich aus.
 
  • Gefällt mir
Reaktionen: Ja_Ge, lazsniper, redjack1000 und 5 andere
MeisterJoda schrieb:
Generell würde mich das mal interessieren, warum eine GPU in manchen Spielen bei 99% Auslastung deutlich mehr Strom zieht als in anderen.
Ganz einfach, weil du nicht den Stromverbrauch der GPU sondern der gesamten Grafikkarte ausliest. Und die besteht aus weitaus mehr als nur GPU, die hat z.B. auch Cores für Raytracing.
 
  • Gefällt mir
Reaktionen: lazsniper, llacon, djducky und 3 andere
Ah okay, also es kommt darauf an, was sie berechnen muss.
 
MeisterJoda schrieb:
Ich war bisher eigentlich immer davon ausgegangen, dass eine GPU bei einer höheren Auflösung die gleiche Menge Strom zieht und einfach weniger FPS erzielt.

Rechne dir doch einfach die Pixelanzahl aus.

1920x1080 = 2.072.600 Pixel

2560x1440 = 3.686.400 Pixel

3840x2160 = 8.294.400 Pixel

Sollte doch klar werden, dass mehr Pixel auch mehr Leistung benötigen.

Dass die FPS sinken, liegt einfach nur daran.
 
  • Gefällt mir
Reaktionen: tRITON
Vermutlich in 1080p ein CPU-Limit. In höheren Auflösungen sollte die GPU auch rasch die 100% Auslastung erreichen.
 
  • Gefällt mir
Reaktionen: nicK--
kachiri schrieb:
Höhere Auflösung bedeutet mehr Last und mehr Last bedeutet mehr Leistungsaufnahme. Sofern da Puffer vorhanden ist.
Ist die Karte bereits bei 1080p voll ausgelastet, wird es genau wie du schreibst: Dann verbraucht die Karte gleich viel Strom, liefert aber weniger
Davon war ich bisher auch immer ausgegangen. Aber das Prinzip zieht sich durch alle möglichen Spiele, dass die Karte auf höherer Auflösung mehr Strom zieht, auch wenn alle Tools in den Tests immer von 99% Auslastung sprechen.
Ergänzung ()

Moov schrieb:
Vermutlich in 1080p ein CPU-Limit. In höheren Auflösungen sollte die GPU auch rasch die 100% Auslastung erreichen
Nein, in meinen Tests war ich nie im CPU-Limit. Das war auch meine erste Vermutung. Aber der Takt und die prozentuale Auslastung der GPU sind dauerhaft am Maximum.
 
Zugriff auf den VRAM verbrauchen eine Menge an Leistung. Es kann durchaus sein, dass die Grafikkarte bei höheren Auflösungen mehr auf den VRAM zugreifen muss und daher mehr verbraucht, als wenn sie bei niedriger Auflösung nur viel rechnen muss:
1771188674532.png

https://tallendev.github.io/assets/papers/e2sc-gpumem.pdf
 
  • Gefällt mir
Reaktionen: angHell, RaptorTP, MeisterJoda und eine weitere Person
@MeisterJoda

Das kann man mit einem einfachen Energie(kosten)messgerät gut überprüfen.

Meistens ist das nicht ganz genau, aber es reicht definitiv aus, um zu sehen, welches Szenario mehr/weniger Energie verbraucht.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
LuminousVision schrieb:
Rechne dir doch einfach die Pixelanzahl aus.

1920x1080 = 2.072.600 Pixel

2560x1440 = 3.686.400 Pixel

3840x2160 = 8.294.400 Pixel

Sollte doch klar werden, dass mehr Pixel auch mehr Leistung benötigen.
Ich verstehe das schon. Aber wenn die Karte bei FullHD schon komplett ausgelastet ist (sprich alle Kerne sind an ihrem Maximum), warum braucht sie für die selbe Menge an Berechnungen dann mehr Strom?
Ergänzung ()

Ostfriese schrieb:
Das kann man mit einem einfachen Energie(kosten)messgerät gut überprüfen.

Meistens ist das nicht ganz genau, aber es reicht definitiv aus, um zu sehen, welches Szenario mehr/weniger Energie verbraucht.
Ich mache das mit diesem 12VHPWR-Adapter von ThermalGrizzly.
 
Drewkev schrieb:
anz einfach, weil du nicht den Stromverbrauch der GPU sondern der gesamten Grafikkarte ausliest. Und die besteht aus weitaus mehr als nur GPU, die hat z.B. auch Cores für Raytracing.
This + VRAM.

Ich hab genug Games, da ist die GPU bei 100% Auslastung und die GPU zieht keine 600 Watt.
 
  • Gefällt mir
Reaktionen: lazsniper und MeisterJoda
Azghul0815 schrieb:
Ich hab genug Games, da ist die GPU bei 100% Auslastung und die GPU zieht keine 600 Watt.
Entspannte 5090 xD...
Naja, ich war es von meiner alten 3060Ti anders gewohnt, da diese in solchen Szenarios einfach immer eiskalt bei 195-200W stand. Ohne krasse Schwankungen. Liegt wohl an der Architektur und am Vram.
 
ohne FPS Limit wird die GPU immer! 300W ziehen

Außer du hast einen CPU Bottleneck und diese kann die Graka nicht ausreichend mit Bildern versorgen.

Ich empfehle Undervolting. Seit der GTX 1000er Serie (Pascal).

MSI Curve Editor - in meiner Signatur.
Sowie eben ein FPS Limit. Generell sinnvoll! Es gab mal Vorfälle die GPUs gegrillt haben wenn man zB zu lange im Menü des Games war und die hunderte Frames geballert hat (Amazons New Order war zB so ein Fall)

Hast du zB ein 144 Hz Monitor, FPS Limit einfach auf 140 und ab dafür. :)

Es muss nicht, kann aber! Probleme mit einzelnen Bildschirmen und Games geben, wenn man das FPS Limit auf die max. Hz setzt. z.B. Mikroruckler.
Alter Bildschirm beim Sohn hatte das gezeigt.

Ich zB stell meist auf 100fps. Bin zu alt für mehr FPS. xD

Ja gut, und Undervolting ist zB ungefährlich. Die Graka kann zwar mal abstürzen, dann hast du es aber einfach mit "zu wenig" Spannung übertrieben und musst die richtigen Werte finden.

Im Gegensatz zum Overclocking, fährst du mit weniger als mit mehr Spannung!

Grundsätzlich also gut.
Spart auch nen Haufen Energie. Dadurch auch weniger Watt unter Volllast.

Wenn du gaaanz runterscrollst im ersten Beitrag, dann gibt es auch ein Beitrag von mir als Video.

Bisher nur ein Beispiel für eine 5070 Ti gefunden:

Richtwert: RTX 5070 Ti - 2900 MHz @ 900mV
 
Zuletzt bearbeitet:
in halbwegs aktuellen Games nahezu immer. Was sonst?
Wenn ich meine RX 9070 frei drehen lassen würde, würde die immer 235-245W ballern.
Meine RTX 4070 hat das genauso gemacht.

Du willst sagen die RTX 5000er Serie macht das anders?

Gut, kann sein. Keine Erfahrung mit der Serie gesammelt.

Sei es drum, Undervolting + FPS-Limit schadet in keinem Fall!

Exit: Oooops, ich hab CPU geschrieben xD xD
 
RaptorTP schrieb:
Sei es drum, Undervolting + FPS-Limit schadet in keinem Fall!
Da bin ich bei dir.

Hab aber genug Games, da rennt die GPU in 99% und brauch nur 400 Watt.
Das kann ja kein CPU Limit sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lazsniper, Baal Netbeck, MeisterJoda und eine weitere Person
MeisterJoda schrieb:
Generell würde mich das mal interessieren, warum eine GPU in manchen Spielen bei 99% Auslastung deutlich mehr Strom zieht als in anderen.
Weil die Auslastungsanzeige nur einen Teil der ganzen Karte betrifft. Es gibt z.B. weit mehr als nur die GPU. Je nach Auflösung und Grafikdetails kann der Stromverbrauch trotz maximalem Takt und 100% Auslastung der GPU niedriger ausfallen. Das liegt an nicht ausgelasteten Einzelkomponenten wie VRAM, CUs, ROPs, RT-Cores usw.

RaptorTP schrieb:
ohne FPS Limit wird die GPU immer! 300W ziehen
Nein, nicht zwingend. Siehe oben. Es kann durchaus Spiele geben, die auch ohne FPS-Limit nicht die maximale Boardpower erreichen, weil sie bestimmte Funktionseinheiten einfach nicht oder nicht vollständig nutzen.
 
  • Gefällt mir
Reaktionen: Azghul0815 und RaptorTP
OK, Danke. Bei AMD ist das aktuell anders.

Letzte Taktstufe, über 70% Last - Vollgas!

Framelimit? Mir doch egal, die TDP muss gehalten werden xD ... wenn noch Luft nach oben, dann eben den GPU Takt hoch boosten (über 3000 MHz) for no reason!

So können sich Architekturen unterscheiden 😅

Aber gut, es geht hier ja um eine 5070.
 
  • Gefällt mir
Reaktionen: MeisterJoda
RaptorTP schrieb:
ohne FPS Limit wird die GPU immer! 300W ziehen
Ist aber nicht so.

Edit:
Sorry, hatte die anderen Beiträge noch nicht zuende gelesen, wo schon das Missverständnis aufgeklärt wurde xD
 
  • Gefällt mir
Reaktionen: RaptorTP
Zurück
Oben