Stromverbrauch: Alte GPU 99% vs neue GPU 30% Auslastung?

shinobin_xx

Cadet 3rd Year
Registriert
Jan. 2024
Beiträge
32
Ich habe da eine kurze Frage, die sich zwar nicht nur auf die GPU beschränkt, aber die ist für die Höhe des Verbrauchs wohl am Relevantesten und auch der Hauptfaktor meiner Frage:

1. Nehmen wir mal meinen aktuellen, alten PC mit einer 1060 6GB und i7 4790K. Wenn ich den an die Grenzen bringen, zum Beispiel Medieval Dynasty auf Low-Mittel, dann schafft er mit Glück so seine 50-60fps, der Strommesser zeigt konstant 260W für den Verbrauch an, dauerhaft für die ganze Session.

2. Nun käme mein neuer PC: 7800x3D mit 4070 Ti Super.
Sagen wir mal, ich würde höhere Einstellungen wählen, von mir aus auch Ultra, sowie auf 60FPS begrenzen.
Nehmen wir an, die GPU ist damit 20-30% (oder einen realistischen Wert) ausgelastet, hat also nicht so viel zu tun.

Käme ich damit auf deutlich mehr Stromverbrauch als mit dem Alten?
Im TDP Vergleich in Relation zur Belastung der Karte sähe es so aus:

TDP 120 Watt (1060 6 GB) vs TDP 285 Watt (4070 Ti Super) entsprechen: Faktor 2,375.
Aber Auslastung 99% (1060 6B) vs Auslastung z.B. 30% (4070 Ti) entsprechen: Faktor 3,3.
Damit wäre rechnerisch die neue Karte effizienter bei besseren Bild und gleichen FPS.

Also die Kernfrage: Ein neueres und bei Last deutliche stromintensiveres System, dass aber sehr gering ausgelastet ist und dennoch hohe bis ultra Grafikeinstellungen darstellen kann, wird das dann am Ende das Stromlevel "wie vorher" in etwa halten können? Oder ist das eine Wunschvorstellung?

Vllt. ist es auch eine doofe Frage, aber das Thema kam bei mir schon oft auf.
Danke euch!
 
Tja eine schnelle Grafikkarte möchte auch schnell mit Daten versorgt werden. Deine CPU ist einfach zu laaanngsaaaaammm
Je schneller das ganze ist desto mehr Strom wird benötigt. Im großen und ganzen ist eine neue CPU etwas sparsamer kommt aber wieder drauf an welches Model man nimmt.
 
tl;dr: Perf/W ist deutlich höher bei neuerer HW. -> Weniger Leistungsaufnahme für die gleiche Arbeit oder mehr Arbeit bei gleicher Leistungsaufnahme. kthxbye
 
  • Gefällt mir
Reaktionen: lazsniper
Ich habe hier die "Performance pro Watt" Skalen von Computerbase im Sinn. Ich denke, dass du nach so etwas suchen müsstest. Deine Frage habe ich denke ich verstanden...
I.d.R. ist es so, dass du mit neuerer/effizienterer Hardware die gleiche Leistung bei weniger Energiebedarf erhalten wirst, wie in #3 beschrieben.
 
@K3ks @cmd2012 Okay, dann passt das, die Antworten haben mir weitergeholfen bzw. das bestätigt, was ich einfach mal angenommen habe. Hatte Sorgen, dass durch topaktuelle Hardware auch der Grundverbrauch steigt, wenn ich die Einstellungen nicht groß ändere, aber das wäre ja dann effizienztechnisch auch Bockmist.

@wern001 Dir auch Danke, auch wenn ich nicht ganz 100% deine Antwort zu meiner Frage passend fand, speziell den ersten Satz. Zudem wäre eine von mir beschriebene 99-100%ige Auslastung der GPU doch ein Zeichen für ein GPU Bottleneck und nicht CPU? Du verwirrst mich.
Ergänzung ()

Ach und noch eine generelle Frage: Verhält es sich bei GPU's mit der Effizienz auch je nach Auslastung ganz unterschiedlich (z.B. wie bei Netzteilen) ? Ich schätze 100% GPU = 300W sind nicht gleich 10% GPU = 30W.
Wie verhält es sich denn da?
 
shinobin_xx schrieb:
@K3ks @cmd2012 Okay, dann passt das, die Antworten haben mir weitergeholfen bzw. das bestätigt, was ich einfach mal angenommen habe. Hatte Sorgen, dass durch topaktuelle Hardware auch der Grundverbrauch steigt, wenn ich die Einstellungen nicht groß ändere, aber das wäre ja dann effizienztechnisch auch Bockmist.
Ohne FPS Limit möchte deine Hardware so viele FPS wie möglich generieren. Also ist immer das Bottleneck (CPU oder GPU je nach Spiel/Settings) am Anschlag und verbraucht maximal viel Strom.

Wenn es dir um den Stromverbrauch geht, dann begrenze die FPS auf z.B. 60.
 
  • Gefällt mir
Reaktionen: K3ks
@shinobin_xx

Das hängt vom jedem einzelnen Chip und den Arbeitsbedingungen ab.
Jeder Chip ist individuell was die benötigte Spannung angeht, aber auch die Temperatur hat einen merklich Einfluss, ein Prozessor mit 70°C verbraucht mehr Strom als wenn er das Gleiche mit 30°C macht.

Die FPS pro Watt können beim gleichen Chip schon mal um 20% Abweichen, das hatte auch mal "der Bauer" bei CPUs getestet. 10 CPUs alles AMD Ryzen 5 7600. Jeder Prozessor war anders was die Effizenz anging. Die Abweichungen sind teilweise sehr stark.
 
  • Gefällt mir
Reaktionen: K3ks und shinobin_xx
Cokocool schrieb:
Wenn es dir um den Stromverbrauch geht, dann begrenze die FPS auf z.B. 60.
True, aber das war ja die Grundannahme meiner Frage, siehe:

2. Nun käme mein neuer PC: 7800x3D mit 4070 Ti Super.
Sagen wir mal, ich würde höhere Einstellungen wählen, von mir aus auch Ultra, sowie auf 60FPS begrenzen.
Nehmen wir an, die GPU ist damit 20-30% (oder einen realistischen Wert) ausgelastet, hat also nicht so viel zu tun.
 
  • Gefällt mir
Reaktionen: K3ks
Kommt immer auf die gewünschte Auflösung und gewünschten FPS an.

Meine RTX 4070 Ti benötigt bei 1080p@60FPS ohne RayTracing je nach Spiel auch nur 50 - 100 Watt/Std.
 
Leistung und Energiebedarf steigen NICHT linear zu einander an. Der Energiebedarf steigt eher exponentiell zur Leistung an. Willkürliche Annahme: für 60FPS werden 100 Watt benötigt, für 120FPS 400Watt
 
shinobin_xx schrieb:
@wern001 Dir auch Danke, auch wenn ich nicht ganz 100% deine Antwort zu meiner Frage passend fand, speziell den ersten Satz. Zudem wäre eine von mir beschriebene 99-100%ige Auslastung der GPU doch ein Zeichen für ein GPU Bottleneck und nicht CPU? Du verwirrst mich.

Wenn die CPU zu langsam ist kann sie nicht genügend FPS erzeugt. Denn die GPU kann nur das berechnen was an Daten da ist. (Abgesehen von FAKE Frames unter verschiedenen Marketingnamen)
Allerdings je höher die Auflösung und je mehr Grafikeffekt desto weniger bremst die CPU
 
shinobin_xx schrieb:
Ach und noch eine generelle Frage: Verhält es sich bei GPU's mit der Effizienz auch je nach Auslastung ganz unterschiedlich (z.B. wie bei Netzteilen) ? Ich schätze 100% GPU = 300W sind nicht gleich 10% GPU = 30W.
Wie verhält es sich denn da?
Hängt extrem vom Spiel ab. Manche Spiele haben nur 50% Auslastung aber ziehen trotzdem 100% Power und selbst bei 100% Auslastung kann der Verbrauch schwanken. Ich ärgere mich oft über schlecht optimierte Spiele die sinnlos Energie verballern - ich rede gar nicht von Performance aber selbst mit FPS Limiter ziehen manche Spiele unnötig viel Strom. Da kann man nichts machen.

Aber grundsätzlich wurde dir ja schon gesagt, dass neuere Hardware i.d.R. eine höhere Effizienz hat. Ich war selbst positiv überrascht als ich meine 3070 durch eine 4070 Ti ersetzt habe. Weniger Verbrauch bei mehr Leistung.
Ergänzung ()

cmd2012 schrieb:
Leistung und Energiebedarf steigen NICHT linear zu einander an. Der Energiebedarf steigt eher exponentiell zur Leistung an. Willkürliche Annahme: für 60FPS werden 100 Watt benötigt, für 120FPS 400Watt
Stimmt leider oder zum Glück nicht.
 
  • Gefällt mir
Reaktionen: shinobin_xx
RTX 4000 skaliert generell mit dem Stromverbrauch sehr gut wenn die FPS limitiert werden. Der auserkorene 7800X3D ist ebenfalls sehr sparsam unterwegs. Bei wieviel Watt du da genau rauskommst, kann dir niemand sagen, das schwankt dann doch etwas von Spiel zu Spiel und den genauen Settings.
 
  • Gefällt mir
Reaktionen: shinobin_xx
@cmd2012: Nein*
Aber:
-> Von High auf Ultra auf Max erhöht nicht selten (unverhältnismäßig) erheblich die benötigte Arbeit
-> Letzte paar MHz aus dem Silizium zu prügeln braucht viel W
-> -> zusätzliche W außerhalb jeder Effizienzsvernunft und es kommt nicht viel bei rum, auch steigt Leistung (was am Ende ankommt) nicht linear zum Takt
-> HW im Sweetspot (garantiert unter bzw. weit unter Max takt etc.) betrieben ist deutlich effizienter
-> -> Karte X mit 200W max liefert mit 140W max noch 90% der Leistung

Das Thema ist kompliziert, gibt extrem viele Faktoren.
Eh alles Banane -> SIehe #3
Und das derzeitige AM5-Setup ist Mist im idle (etwas besser mit den 8000er Gs) während Stock die Intels unter (Voll)Last Saufen wie ne ganze Burschenschaft.
E6: Post remade
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shinobin_xx
Aktuelles Beispiel von mir:
Tausch von GTX 1660 TI (120W TDP) auf 4060 TI (160W TDP) (CPU: 5900x)
Szenario: D4 mit 60 FPS Limit, Messungen aus HWINFO
1660 -> ~100W
4060 -> ~50W

Hab sogar die Settings bei der 4060 noch erhöht.
 
  • Gefällt mir
Reaktionen: shinobin_xx und K3ks
Zurück
Oben