Ist der Stromverbrauch in 4K irreführend zur Kostenberechnung in 1080p? Scheinbar ja

Einige Sites nehmen den Verbrauch in 1080 um die Effizienz der Grafikkarten zu vergleichen. Dazu werden dann die FPS durch die Watt geteilt und man hat Performance pro Watt : XFX Radeon RX 460 - Performance per Watt.
Das finde ich dann schon interessant. Die 1080 werden wahrscheinlich einfach deshalb so oft verwendet, weil es auch mit den kleineren Grafikkarten funktioniert.
 
Zuletzt bearbeitet:
Traxton schrieb:
Aber ist stilles Rumstehen auf der Skala der Subjektivität nicht noch höher einzustufen? ;)

Mindestens genau so schlimm wie die Auswahl der Software, mit der ich die Tests gefahren habe :-)
 
Du hast glaube nicht verstanden, was ich sagen wollte.

Zum ersten Abschnitt: Der Verbrauch hängt IMMER von den genannten Faktoren ab. Selbst der Lastverbrauch hängt vom Idle-Verbrauch ab. Ich wollte damit auch gar nicht so sehr auf eine physikalisch korrekte Formel hinaus sondern vielmehr klar machen, dass man den Verbrauch nicht absolut präzise errechnen kann sondern immer bei kleineren Schwankungen landen wird. Damit habe ich noch auf kein bestimmtes Szenario, auf keine Messmethodik und auf generell keinen konkreten Zustand einer Testumgebung anspielen wollen. Nur die unausweichlichen Schwankungen bei Ergebnissen.

Restlichen Abschnitte: Die sollte man eher als ganzes betrachten, nicht so einzeln aufdröseln. Ob FullHD oder 4K spielt keine Rolle für den Stromverbrauch. Gar keine. Relevant ist die LAST der Komponenten. Wählst du Auflösung und Details besonders hoch, erreichst du eher ein absolutes GPU-Limit und damit beim Verbrauch Werte, deren Unterschiede fast ausschließlich auf die GPU zurückzuführen sind. Es ist aber egal, ob diese 100% Last bei 320x240, bei FullHD, bei 4K oder bei 65536x65536 auftreten. Wichtig ist nur die hohe Last auf der GPU, die Auflösung spielt keine Rolle.

Und 4K Stromverbrauch & FullHD Performance sind kein Widerspruch >.< Du musst hier das Szenario beachten.

Szenario 1: Stromverbrauch (Und nur dieser, die Auflösung ist egal). Man wähle Einstellungen, in denen die gemessenen GPUs 100% Last erreichen. Die Unterschiede im Stromverbrauch des Gesamtsystems sind dann annähernd die Unterschiede im Stromverbrauch der Grafikkarten, weil diese das limitierende Moment darstellen und den Mammutteil des Stromverbrauchs ausmachen. Die 100% Last sind deshalb die Größe der Wahl, weil sie den tatsächlichen Verbrauch der Karte möglichst wenig verfälschen.
Szenario 2: Vergleich der Leistungswerte. Hier wählt man FullHD weil die meisten Leute eben noch in FullHD spielen. Daher ist ein 4K-Vergleich hier nur für Leute interessant, die in 4K spielen, den Rest interessiert das nicht. CB macht zum Beispiel Leistungsvergleiche inzwischen in mehreren Auflösungen, um diesem Problem entgegenzuwirken. Hier gibt es kein physikalisches Optimum sondern gesellschaftliche Interessen.

Problem, was du eventuell nicht siehst: Es gibt für ein System nicht "den Verbrauch". Zockst du mit einem durchschnittlichen Gaming-PC CS 1.6 wird der Verbrauch immer lachhaft gering sein. Weil die GPU einfach nur 2 Pixel schubsen muss, die CPU aber irgendwo bei 5000fps sagt "ne, mehr geht nicht". Der Verbrauch wird also von der CPU dominiert. Selbes System, selbe Auflösung, aber anderes Spiel (z.B. FarCry 4): Die GPU rechnet sich nen Wolf, schafft gerade so ihre 55 fps und die CPU ist der Meinung, wenns so langsam geht, kann sie auch noch nen Kaffee kochen gehen. Hier ist der Verbrauch von der GPU dominiert und sieht damit anders aus als bei CS. Obwohl es sich also um den selben PC handelt, hat man zwei vollkommen verschiedene Verbrauchswerte, obwohl in beiden Fällen eine Komponente limitiert.

Also in Kurz: Der Verbrauch wird als möglichst sauberer Wert gemessen, damit man sich daran orientieren kann. Es gibt zu viele Szenarien, als dass man sich an den Lesern von Tests orientieren kann, daher wird hier der maximale Wert präsentiert. Die Leistung hingegen wird so ermittelt, wie die meisten Leser sie verstehen. Denn hier kann es keinen maximalen Wert geben, weil jeder Nutzer direkt Einfluss darauf nehmen kann. Also gibt es hier "typische" Werte, wie z.B. FullHD und maximale Details. Deshalb der Unterschied zwischen den Testaufbauten.

Kleiner Nachtrag: Der Peak-Wert ist eben doch interessant. Im Testsystem werden die anderen Komponenten meist so gewählt, dass die Testumgebung selbst nicht limitiert. Aber reale Systeme können auch mit anderen Komponenten kommen. So kann es mal vorkommen, dass du zu irgendeinem Zeitpunkt sowohl CPU als auch GPU am absoluten Limit hast, dein System also die vorhandenen Resourcen optimal einsetzt. Dann sind die Peak-Werte der tatsächliche Stromverbrauch und das sollte dein Netzteil leisten können. Und der durchschnittliche Verbrauch ist pro Person so dermaßen unterschiedlich, dass es hier absolut nutzlos ist dazu überhaupt Tests zu machen.
 
Zuletzt bearbeitet: (Nachtrag eingefügt)
Nolag schrieb:
Einige Sites nehmen den Verbrauch in 1080 um die Effizienz der Grafikkarten zu vergleichen. Dazu werden dann die FPS durch die Watt geteilt und man hat Performance pro Watt : XFX Radeon RX 460 - Performance per Watt.
Das finde ich dann schon interessant. Die 1080 werden wahrscheinlich einfach deshalb so oft verwendet, weil es auch mit den kleineren Grafikkarten funktioniert.

Die Seite gefällt mir schonmal. Schaue ich mir morgen nochmal genauer an.

Unter anderem wegen dem Satz:
Da wir den Gesamtumsatz des Systems messen, fallen kleinere Karten in der Regel etwas ab, da der Verbrauch der restlichen Komponenten gleich bleibt.


@Soda
Auf deinen Post gehe ich morgen ein. Für mich ist heute Schluss.


Ergänzung vom 09.08.2016:

@ Soda
Ich denke schon, dass ich deine Theorie verstanden habe. Es geht dir darum ähnlich wie mit der möglich schnellsten CPU ein CPU-Limit auszuschließen analog bei der Stromaufnahme im speziellen die GPU-Last bei 100% zu haben um eine Vergleichbarkeit zu schaffen.
Dies ist für mich aber in meiner Betrachtung nicht das primäre Ziel. So gesehen habe ich diese Erkenntnis bereits akzeptiert und aufgenommen aber für diese Diskussion hinter mir gelassen. Für mich ist jetzt das primäre Ziel das Verhalten näherungsweise in der Praxis bei 1080p darzustellen (und damit den Unterschied zu 4K im Schnitt; auch weil soviele eben nicht in einer so hohen Auflösung spielen). Ich verzichte mit vollem Bewusstsein darauf die GPU-Last zum Vergleich auf allen Karten auf 100% zu treiben. Schließlich verhalten sich die Grafikkarten auch unterschiedlich. Anscheinend besonders stark unterschiedlich zwischen GTX 900/ R9 200/300.
Der Idle Verbrauch ist wichtig? In wiefern? Ist dieses Element bei der reinen Differenzbetrachtung relevant? Oder bereits als Problem eliminiert? Dies soll aber für die weitere Diskussion meinerseits nicht von Belang sein.

Bsp. CS mit CPU Limit: Dieses Bsp. bestätigt doch das Problem, dass die Differenzen zwischen den Systemen bei einem CPU-Limit, das in Full HD häufiger auftritt als in 4K, die absoluten Differenzwerte wegschmelzen.
Far Cry 4: Hier kommt bei deinem Bsp. auch mal der 4K Wert zu seiner Berechtigung. Aber dies ist ja auch nur ein Extremwert in der einen Richtung. In Full HD liegt die Wahrheit aber doch im Mittel irgendwo dazwischen?!

Dem Argument, dass der Stromverbrauch einmal sauber gemessen werden muss stimme ich zu. Nur wird 100 % GPU Auslastung zu hoher Wahrscheinlichkeit in 1080p seltener erreicht. Und auch die Durchschnittsauslastung wird in 4K höher ausfallen als in 1080p)

Dein Nachtrag basiert jetzt aber auf einer eher seltenen Kombination. Wenn dies bei einem Spiel mal zutrifft, dann aber wohl eher mit nur geringer Wahrscheinlichkeit auch bei weiteren Spielen.

Letztendlich bewegen wir uns doch in einem bestimmten Bereich. Angenommen Karte X verbraucht in 4K 60 Watt mehr als Karte Y. Die Werte sind bei 100% GPU Last entstanden. Also wird die Differenz im Bereich zwischen 0 Watt (anderes Extrem, Grafikkarte berechnet nichts) und 60 Watt (Grafikkarte zu 100% ausgelastet): Bleibt die Frage, wo wir uns im Falle von Full HD im Schnitt(über mehrere Spiele) bewegen. 4K hat immerhin die vierfache Auflösung von Full HD und wird daher erwartungsgemäß im Schnitt eine höhere GPU-Last haben.
Jetzt werden wir uns im Worst Case Szenario, also 100% GPU Last, bei den 60 Watt Unterschied bewegen. Ist dies aber nicht der Fall, so wird auch die Differenz fallen. Wie häufig wird also nun bei Spielen in FullHD die 100% erreicht. Seltener als in 4K auf jeden Fall. Also wird die absolute Differenz im Schnitt niedriger ausfallen. Der relative Verbrauch wird ähnlich bleiben. ;)

Zum Nachtrag: Es ist so nutzlos einen Test dazu zu machen, dass die PCGH trotzdem einen gemacht hat und durchaus relevante Unterschiede in den Absolutdifferenzen zu sehen sind. So nutzlos war der Test für mich daher nicht. ;)

Zudem:
Beide Szenen von Hisn haben die Richtung bestätigt. Also, dass die Stromverbrauchswerte des Gesamtsystems absolut sinken. Durch die höhere CPU-Last (und daher Anteil der CPU) werden sich auch die Gesamtsysteme in FullHD angleichen, da der Anteil der GPUs sinkt.

Ich habe kein Problem damit die 4K-Werte weiter zu nutzen. Dann halte ich lediglich im Hinterkopf, dass die absoluten Differenzwerte in FullHD üblicherweise geringer sind. ;) Zumindestens sollte dies für Karten mit ähnlicher Fertigungsgröße gelten.
Ob dies dem Durchschnittsuser aber klar ist, ist eine andere Sache. Versteht also der Nutzer die Haken der Stromverbrauchsprognose basierend auf 4K Werten für Full HD? Ist das nicht ansatzweise das gleiche Problem wie bei den Performancewerten?
Wenn ich mir die Werte im Startpost so anschaue, dann sind die 4K-Werte für mich irgendwie ein wenig sinnlose Panikmache für Nutzer die in Full HD spielen wollen und bei der Kaufentscheidung zwischen GTX 9xx und R9 2xx/3xx standen. Genau das ist mein Problem. Dieser Thread wäre gar nicht entstanden, wenn ich die Artikel in der PCGH nie gelesen hätte. ;)


Allgemein:
Wenn ich mir jetzt mal die absoluten Differenzen zwischen der RX 480 und GTX 1060 auf THG, CB und TweakPC anschaue halte ich das Folgende für mich fest:

THG: RX 480 braucht in 4K 45 Watt mehr (vor Netzteil, 1 Spiel)
CB: RX 480 braucht in 4K 44 Watt mehr (nach Netzeil, also mit „Ineffizienz“ des Netzeils, 4 Spiele)
TweakPC: RX 480 braucht in 1080p 32 Watt mehr (nach Netzteil, 7 Spiele)

Der Unterschied vom ersten zum zweiten Wert könnte statistisch noch insignifikant sein. Der Unterschied vom zweiten Wert (CB) zum dritten Wert (TweakPC) ist dagegen schon durchaus groß genug um die Tendenz zu bestätigen, dass die Differenz des Stromverbrauchs von 4K auf 1080p fällt. Es sind immerhin Werte zu 7 Spielen bei TweakPC und 4 Spiele bei CB eingeflossen. Und die Absolutdifferenz ist um 24 % gefallen.
Damit ist für mich der Erkenntnisgewinn aus der PCGH tendenziell auch im Vergleich der RX 480/GTX 1060 nachvollziehbar, wenn auch in geringerem Ausmaße.

Bei der R9 200/300 vs. GTX 900 Causa scheint die absolute Differenz von 4K zu 1080p stärker zu fallen. Eine Erklärung für die stärkere Diskrepanz könnte sein, dass die AMD Karten noch keine TDP-Limitierung inkludiert hatten?! Der Rest wird dann wohl auf die Computing Eigenschaft/Kapazität zurückzuführen sein. Sah man ja auch ganz gut bei der GTX 400 Serie von NVidia im Vergleich zu den damaligen AMD Karten. Bei den GTX 500/600/700 Serien lag die Effizienz zu den entsprechenden AMD Counterparts wohl auf ähnlichem Niveau wenn ich mir die Werte auf TweakPC so anschaue.


@Hisn
Nebenbei: Corsair Link sieht ganz gut aus. Hoffentlich verkauft Corsair demnächst noch eine kleineres Netzteil mit Corsair Link und 10 Jahren Garantie. Wenn ich bedenke, dass mein HX 520w bereits 9 Jahre in meinem Tower verweilt, sind 10 Jahre Garantie viel wert. Zudem scheint wohl der ständige Kampf um mehr Effizienz immer schwieriger bei den Netzteilen zu sein, was lange Einsatzzeiten noch realistischer macht.
 
Zuletzt bearbeitet: (Ergänzung)
Die Grundproblematik ist aber noch die selbe: Der Verbrauch hängt nicht von der Auflösung ab, sondern von der Last.

Was du bei identischen Settings aber einer Auflösung von 4K statt FullHD zwangsläufig erzeugst: Du verschiebst die Last in Richtung GPU ohne von der CPU mehr abzuverlangen (unter Umständen aber weniger, wenn die CPU auf GPU-Threads wartet). Daher hängt es schon mal von Engine und API, bzw. deren Anwendung ab, wie die Last sich ändert. Du hast also schon für jede 3D-beschleunigte Anwendung ein ganz eigenes Profil für die Lasten und damit den Stromverbrauch.

Beispiel A (fiktiv): Die Engine rechnet immer gleich schnell, GPU- und CPU-Threads sind unabhängig. Bei der Verschiebung von FullHD auf 4K ändert sich also nur etwas, wenn die GPU noch nicht am Limit lief. Dann steigt der Verbrauch.
Beispiel B (fiktiv): Die Engine rechnet nur dann die Logik weiter, wenn die GPU mit ihrer Arbeit fertig ist, bereitet sozusagen immer nur einen Frame vor. Dann liegt immer 100% GPU-Last an, durch die Verschiebung auf 4K sinken die Frames und die CPU hat weniger zu tun. Der Verbrauch sinkt.
Beispiel C (fiktiv): Die CPU rechnet immer gleich schnell, die GPU aktualisiert nur, wenn es auch neue Frames gibt. Hier hängt dann maßgeblich von den Komponenten ab, was passiert. Ist die CPU unterfordert sinken die fps, der Verbrauch bleibt gleich. Ist die GPU unterfordert, hat diese plötzlich mehr zu tun, der Verbrauch steigt.

Du siehst, es kann also alles passieren. Es gibt hier keine generelle Weisheit, es hängt einfach davon ab, wie die jeweiligen Anwendungen arbeiten. Zusätzlich hängt es von den gewählten Einstellungen ab (setz mal Schatten auf Mittel, plötzlich sinkt die CPU-Last enorm und das Verhältnis verschiebt sich). Es gibt also ungefähr so viele zu beachtende Szenarien, wie es Planeten in "No Man's Sky" gibt.


Betrachtest du jetzt den Verbrauch eines speziellen Systems in einer speziellen Anwendung mit ganz bestimmten Einstellungen, so wirst du in den meisten Fällen eine Differenz im Verbrauch zwischen FullHD und 4K haben. Aber es ist nicht mal so, dass der 4K-Verbrauch generell höher ist, er kann auch mal niedriger ausfallen (singleplayer-autorennspiele dürften dafür gute Beispiele liefern). Sobald du einen einzigen Parameter änderst, sind deine bisherigen Ergebnisse nichts mehr wert.

Im MITTEL kannst du sagen, das Systeme, die aus starker GPU und schwacher CPU bestehen unter FullHD weniger verbrauchen als unter 4K. Systeme mit starker CPU und schwacher CPU hingegen verbrauchen gleich viel bis hin zu mehr unter FullHD. Aber das ist eine Aussage zum Mittelwert und hängt zu stark davon ab, was du als einzelne Person mit dem Rechner anstellst. Du kriegst schließlich auch 2 GTX 1080 in die Knie und kannst auch eine R5 230 zum langweilen bringen. Deshalb gilt das nur im MITTEL, nicht als unumstößliche Weisheit.

Den Jahresverbrauch misst man am besten selbst, dann weiß man, was man verbraucht. Und das Netzteil sollte wirklich für das 100%/100%-Szenario ausgelegt sein. Es ist selten aber nicht unwahrscheinlich! Und wenn es auftritt, dann darf es nicht gleich puff machen.

Eventuell noch eine kleine Anekdote meines Matheprofessors zum Thema Mittelwert: "Wenn du eine Hand in flüssigen Stickstoff bei -130°C hältst und die andere in 180°C heißes Gallium, dann sind das im Mittel angenehme 25°C. Dennoch dürfte die Erfahrung alles andere als angenehm sein, obwohl der Mittelwert dies suggeriert."
 
Man darf bei der Betrachtung auch nicht vergessen, dass die Verbrauchswerte mit VSync off gemessen werden. Das ist dann nur für die Leute von belang, die das Tearing ertragen oder Freesync/Gsync verwenden. Spielt man mit 1080 bei 60Hz mit VSync on ist der Verbrauch nochmals deutlich geringer. Die Verbrauchswerte bei 4k ändern sich mit VSync on in der Regel nur wenig, da meist nur knapp 60Hz erreicht werden.
 
Zuletzt bearbeitet:
@ Soda

Die verwendeten CPUs sind:
bei TweakPC: Intel Core i7 3960X auf 4,4GHz
bei Hisn: Intel Core i7 5960X auf 4,4GHz
im PCGH Artikel: Intel Core i7 4790K

Im PCGH Artikel war die CPU Last im Schnitt unter 50 %. Die CPU Lasten bewegten sich im Artikel zudem immer klar unter 100%.

Was anscheinend passiert, ist, dass der absolute Verbrauch in 1080p fällt.
Dieser ist zudem durch eine höhere CPU Last verursacht. Aber keine 100% CPU Last.
Also ist damit der relative und absolute Anteil der GPU gesunken bei zugleich fallendem Absolutverbrauch. Das 2. Beispiel bei Hisn zeigt das auch.

Also scheint die Auflösung einen Einfluss auf die GPU Last zu haben und zwar auch dann wenn die CPU weiterhin nicht limitiert. (Meine Vermutung, Schlussfolgerung)
Also die GPU zwangsläufig weiterhin das Limit darstellen muss und dennoch anscheinend schwächer ausgelastet wird.

Ja, der Verbrauch hängt von der Last ab. Nur scheinbar scheint die Last auch von der Auflösung abzuhängen. Ist komisch, scheint aber so zu sein. Ich bin dahingehend bei dem Ergebnis offen und erwarte nicht, dass die schöne Theorie in der Praxis auch genau so abläuft. Es wäre nicht das erste Mal, dass sich die Praxis anders verhält als die Theorie. :D


@ Nolag
Klar, Vsync hilft da auch. Müsste auch mit den damals hier bei CB getesteten Framelimitern von AMD und Nvidia einhergehen.
 
VSync verschiebt die Limitierung von Hardware klar Richtung Software, sofern die Hardware auch außerhalb des VSync-Limits agieren kann. VSync ist also nicht nur eine Bildverbesserung, sondern auch eine Verbrauchssenkung.

Traxton, dein Einsatz in allen Ehren, aber der Verbrauch hängt nur von der Last ab, von nichts weiter. Durch eine Verschiebung von FullHD auf 4K erreichst du auch eine Last-Verschiebung. Bei derart starken CPUs aber eher Richtung GPU denn CPU. Das Beispiel von HisN zeigt meines Erachtens genau das "Phänomen", was ich versuche zu erklären: Die Leistungsaufnahme unter FullHD und 4K unterscheidet sich quasi nicht. Der Unterschied FullHD zu 4K liegt im Bereich der Messungenauigkeit, bzw. bei einem Unterschied von ca. 15% in der Leistungsaufnahme, was in diesem Fall etwa 20W ausmacht. Dafür ist die Last der GPU auch gesunken, speziell des VRAMs. Die genauen Auswirkungen kann ich nicht berechnen, dafür sind die Werte etwas zu zufällig. Aber die Erkenntnis sollte sein: Ob FullHD oder 4K spielt keine Rolle, wenn es um den Verbrauch geht.

Zu deinen Tests eventuell eine kleine Anmerkung: Auf TweakPC sehe ich keinen einzigen Verbrauchswert zu 4K. Daher ist das keine Quelle. Korrigiere mich bitte, wenn ich es falsch sehe. PCGH kann ich leider nicht nachvollziehen, da der Artikel nicht öffentlich einsehbar ist. Und die Ergebnisse von HisN bestätigen ja eher die Theorie, dass die Auflösung erst in dritter Instanz eine Rolle spielt - auch hier bitte ich um Korrektur, sollte ich die Werte falsch interpretieren.

Solltest du noch immer Zweifel hegen, so schlage ich vor, dass wir das hier nicht weiter im Beitrag diskutieren, sondern eventuell unserer CB-Redaktion mal vorschlagen, ebendieses Phänomen zu untersuchen. Ich bin der festen Meinung, dass die Auflösung keinen direkten Einfluss auf den Verbrauch hat, habe aber auch keine vernünftige Ausrüstung, um das argumentationsfest zu belegen. ComputerBase hingegen verfügt meines Wissens über hinreichend Equipment um das zu überprüfen. Hoffe ich zumindest.

Bevor wir das Vorschlagen aber nochmal ganz kurz, bevor ich irgendwas falsch verstehe: Deine Aussage ist jetzt, dass Systeme unter 4K (3D) generell mehr Strom verbrauchen als unter FullHD (3D), korrekt? Videowiedergabe lassen wir mal außen vor, denn dort wäre dieses Phänomen weder neu noch überraschend.
 
@ Soda
Zum ersten Abschnitt: Da habe ich keine Anmerkungen zwecks VSync. Da nicht Kernpunkt meiner Diskussion.

2. Abschnitt:
Ich bestreite nicht den Punkt, dass die GPU-Last für die Stromaufnahme verantwortlich ist.
Dieses Urteil unterschreibe ich zu 100 %!
Die Frage für mich ist, ob ein relevanter/statistisch signifikanter Unterschied besteht, der darauf schließen lässt, dass ein Unterschied der GPU Last zwischen 4K und 1080p besteht, trotz dessen, dass die CPU in beiden Fällen nicht limitiert. Außerdem wird zwischen den GPUs, die getestet werden, das Testsystem nicht verändert. Mir geht es um den Einfluss der Grafikkarte, der Unterschied der zwischen den GPUs dargestellt wird. In der Überschrift passen leider nur eine begrenzte Anzahl Zeichen. Und wenn das bisher auch im Text nicht klar geworden ist, dass ich darauf hinauswill, dass der Unterschied zwischen den GPUs in FullHD fällt, dann tut mir das Leid.

Der Eingangspost zielt nicht explizit darauf ab dass kein CPU Limit besteht, sondern auch bewusst ein CPU-Limit mit in Kauf nimmt, da dies ja auch die Performance Werte beeinflusst.
Aber bleiben wir bei der Diskussion ohne Akzeptanz des Vorliegens eines CPU-Limits um weiterhin eine hohe Auslastung der GPU zu haben.

Jetzt erst zum 5./letzten Abschnitt:
Ich greife die anderen ermittelten Werte nicht an. Das ist also korrekt.

Also jetzt weiter im Kontext:
Ich habe kein Problem die Werte von TweakPC wegzulassen. Ich stimme zu, dass diese problematisch sind zu interpretieren. Ich habe die lediglich genutzt in Ermangelung von Werten. Leider finde ich quasi keine Seite, wo 4K Stromverbrauch und 1080p Stromverbrauch aufgelistet wird, bei dem das Spiel/Szene gleich bleibt. Das Problem, das du genannt hast ist völlig korrekt. Lediglich den im Eingangspost verwendete Verweis auf THG scheint dies gemacht zu haben. Die Quelle habe ich gerade deswegen auch angegeben.
Ich habe auch leider nicht die Zeit im Internet die Nadel im Heuhaufen zu finden. :D
Und den PCGH Artikel kann ich auch gerne außen vor lassen.

Ich argumentiere jetzt mal ausschließlich basierend auf den Werten von Hisn im 2. Post, wo die CPU in FullHD zu 78 % ausgelastet ist. Ich nehme da also an, dass auch in FullHD kein CPU-Limit in der Szene besteht. Und ein CPU-Limit wollen wir ja gerne ausschließen.

Für die folgenden Ausführungen basierend auf den Werten von Hisn ist noch das folgende zu beachten:
Die CPU hat laut Intel Spezifikation eine TDP von 140 Watt. Ich nehme an, dass dies bei 100 % Auslastung der Fall ist.
Ich nutze die Werte, die ohne Wirkungsgrad des Netzteils von Corsair Link angegeben werden.
Dies sind in 4K: 365 Watt und in FullHD: 357 Watt.
Ja, diese Werte an sich sind wohl im Bereich des Zufalls durchaus einzuordnen. ;)

Aber damit ignoriere ich den Punkt, dass die CPU Auslastung von 48 % bei 4K auf 78 % bei 1080p steigt. Ich nehme jetzt an, dass mithilfe der TDP der CPU und dem Auslastungsgrad der Stromverbrauch durch die CPU berechenbar ist. Die CPU Last steigt um 30 % Punkte bzw. um +62,5 % von 4K auf FullHD.
Zunächst einmal folgt die Berechnung ohne Berücksichtigung, dass auch andere Komponenten im System Strom verbrauchen während der Szene. Also ein Worst Case Szenario für den relativen Unterschied beim Verbrauch der Grafikkarte:

Bei 4K:
Stromverbrauch des Systems: 365 Watt
Errechneter Stromverbrauch CPU: 0,48 x 140 = 67,2 Watt
Verbleibend für GPU: 365 – 67,2 = 297,8 Watt

Bei 1080p:
Stromverbrauch des Systems: 357 Watt
Errechneter Stromverbrauch CPU: 0,78 x 140 = 109,2 Watt
Verbleibend für GPU: 357 – 109,2 = 247,8 Watt

Absoluter Unterschied GPU: 50 Watt
Relativ ergibt sich: 247,8/297,8 – 1 = -16,79 % von 4K auf FullHD
Umgekehrt: 297,8/247,8 – 1 = + 20,18 % von FullHD auf 4K

Jetzt mal mit Annahme Restsystem 20 Watt, bleibt für GPU:
GPU 4K: 277,8 Watt
GPU 1080p: 227,8 Watt
Ergibt: - 18 % bzw. + 21,95 %

Annahme Restsystem 40 Watt (Kann schwer einschätzen wie hoch der Wert bei Hisn wohl sein kann, daher noch einmal mit 40 Watt): Zum Vergleich im CB System sind bei der GTX 1060 im Idle Zustand 47 Watt gemessen worden, isoliert wurden 9 Watt bei THG im Idle gemessen. Bleiben etwa 36-38 Watt für die CPU und Rest bei CB.
GPU 4K: 257,8 Watt
GPU 1080p: 207,8 Watt
Ergibt: -19,4 % bzw. + 24,06 %

Wie hoch du jetzt die Zone für einen nicht relevanten Unterschied/auf Messungenauigkeit beruhende Schwankung ziehen möchtest, darfst du für dich selber entscheiden. Das Ganze dann einmal für den absoluten und relativen Unterschied machen. ;)
Wie du jetzt bei 20 Watt Unterschied auf 15 % kommst, kann ich gerade nicht ganz nachvollziehen. Aber wären 15 % nicht bereits relativ viel? Da würde ich nichtmehr von Messungenauigkeit sprechen, wenn ich mir vorstelle, wie im Forum wegen einzelnen Prozentpunkten Leistungsunterschied eine Diskussion entsteht. :lol:

Ich hoffe du kannst jetzt meinen Gedankengang/Rechenweg besser nachvollziehen. Wenn du darin Fehler findest, bin ich froh, wenn du mich erleuchtest. ;)
Erwarte aber nicht, dass ich eventuelle Einwendungen einfach akzeptiere, sondern gedanklich selber auf relevante Auswirkungen überprüfe. :D

Für mich sind die Werte weit genug auseinander, um eine reine Messungenauigkeit/Schwankung verwerfen zu können.
Das ganze sind jetzt Werte basierend auf einer Grafikkarte. Habe ich jetzt zwei Grafikkarten mit unterschiedlicher TDP, dann wird die Differenz von 4K Stromverbrauchswerten auf 1080p absolut fallen. Womit ich wieder bei meinem Eingangspost wäre. :)

Umgekehrt:
Meine Erwartung wäre von 4K auf FullHD gewesen, dass, wenn die CPU Last steigt und die GPU Last gleichbleibt, der Stromverbrauch von 4K auf 1080p sogar steigt. Aber nicht fällt. In diesem Fall hätte der Wert etwa 50 Watt steigen müssen?! (Bei diesem Wert habe ich jetzt nicht genau drüber nachgedacht :D )

Gruß
Traxton
 
Oh, ich empfinde diese Diskussion keineswegs als Ermüdend. Ich bin stets am größtmöglichen Erkenntnisgewinn interessiert, daher finde ich diese Art Gespräche sogar interessant. Die Anmerkung zu VSync sollte eher auf den Kommentar von Nolag zielen.

Deine Rechnung ist zwar schön, aber leider physikalisch nicht tragbar. Das meinte ich mit der Formel aus sonstwasfür Parametern. Ich nehme mal einige Zahlen an, um zu sehen, auf welche rechnerischen Unterschiede ich komme.

Nehmen wir mal die Zahlen von HisN und legen der CPU dank seiner Übertaktung tatsächlich 140W Verbrauch zugrunde.
A: (4K)
CPU-Last: 48%
CPU-Takt: 3,75GHz
CPU-Spannung: Vermutlich 0-5% unter dem Wert aus B (angenommen, keinen Beleg dafür)
GPU-Last: 99%
GPU-Power: 84%
GPU-VRAM: 5006MHz
GPU-Vcore: 1,248V
Gesamtleistung: 365W
B: (FHD)
CPU-Last: 78%
CPU-Takt: 4,38GHz
CPU-Spannung: Vermutlich 0-4% über dem Wert aus A (angenommen, keinen Beleg dafür)
GPU-Last: 98%
GPU-Power: 75%
GPU-VRAM: 4514MHz
GPU-Vcore: 1,264V
Gesamtleistung: 357W

Wir nehmen fiktiv 20W für das System an. Die SpaWas müssen ordentlich ackern, das Board ist vermutlich ein OC-Board und RAM & Festplatte sollte man nicht vernachlässigen. Daher ist 20W sogar fast zu niedrig, sollte aber passen.
Wir nehmen an, dass die annähernd gleiche Spannung den Einfluss der Last auf ein Viertel senkt, da keine Teile der CPU abschaltbar sind, die Spannung gleich bleibt und selbige den Mammutanteil ausmacht. Dafür beziehe ich mal den Takt mit ein. Nach der Formel:
(TDPmax - TDPmax*(1-Last)*0,25)*(AktuellerTakt/Maximaltakt)
hätten wir in Szenario A für die CPU:
(140W-140W*(1-0,48)*0,25)*(3,75/4,38) = 104,2W
und in Szenario B für die CPU:
(140W-140W*(1-0,78)*0,25)*(4,38/4,38) = 132,3W
grob also 28W Unterschied. Also bleiben für die GPU:

A: 365W - 20W - 104W = 241W
B: 357W - 20W - 132W = 205W

Macht auf den ersten Blick einen größeren Verbrauch für 4K. Aber betrachten wir jetzt die Parameter für die GPU, auch was sie bedeuten könnten:
GPU-Last liegt bei annähernd 100%. Ist also vernachlässigbar.
GPU-Power ist ein Wert, dessen Inhalt schwer nachvollziehbar ist. Da es sich um die selbe GPU handelt, könnten wir annehmen, es handelt sich hierbei um genutzte Energie.
GPU-VRAM: Der VRAM-Takt ist in 4K verständlich höher. Das sagt aber nichts anderes aus, als dass die Last hier höher ist, weil der VRAM stärker gefordert ist. Eine GPU verbraucht nämlich nicht nur durch die Kerne Strom, der VRAM macht auch einen guten Anteil aus (ich meine mal 33% gelesen zu haben). VCore ist auch annähernd gleich. Wir betrachten hier also noch die Unterschiede des VRAMs unter der Annahme, dass er 33% des Stromverbrauchs ausmacht. Da die Spannung vermutlich wieder ähnlich ist, müssen wir hier wieder Faktorieren - beim Speicher allerdings eher mit 0,5, da hier lediglich lesen und schreiben relevante Operationen sind, keine Taktgeber. Da hier der Takt gleichbedeutend mit der "Last" ist, nehmen wir diesen Wert quadratisch, um der obigen Formel zu entsprechen.
Schätzen wir also den Stromverbrauch des VRAMs auf 80W. Dann ist der "reale" Verbrauch berechnet nach:
Speicherverbrauch * (SpeicherTakt/SpeicherTaktMax)^2
A: 80*(5006/5006)^2 = 80W
B: 80*(4514/5006)^2 = 65W

Blieben also noch 20W Unterschied zwischen FullHD und 4K. Das sind weniger als 10% Differenz. Tatsächlich gibt es aber eine Differenz, zumindest nach dieser Rechnung. ABER: Das mathematische Modell ist sehr stark vereinfacht, ich habe sicherlich ein paar Rechenschritte zu einfach gewählt und eventuell ein paar Zahlen falsch angenommen. Das physikalisch korrekt auszuarbeiten ist aber müßig und wir haben ohnehin zu wenig Werte um eine gewisse Signifikanz zu erreichen. Daher denke ich, ein ausführlicher Test zu diesem Thema dürfte Klarheit schaffen. Ich bin in einer Woche wieder in Deutschland und schaue mal, ob ich ein paar Testreihen dazu aufstellen kann.
 
Wie kommst du auf unter 10% ?
Du ziehst zum Schluss noch VRAM ab:
Bleibt für GPU ohne VRAM:
A) 241W – 80W = 161W
B) 205W – 65W = 140W
Also 20 Watt Differenz, ja. Aber die Basis hat sich dann doch geändert:
Relative Differenz ist dann doch –13 %. Oder nicht?

Davon ab:
Für mich ist die Grafikkarte gesamt wichtig. GPU ist da wohl missverständlich, sorry.
Macht bei deinen Werten einen Unterschied von 241 auf 205 Watt von -36 Watt bzw. etwa -15 %. Das ist für mich groß genug. ;)

Jetzt verweise ich noch, wie im Eingangspost, auf die Werte bei THG:
Hier sind die Performancewerte (Metro Last Light Redux), ein CPU-Limit in 1080p scheint nicht zu bestehen, da der Abstand zur GTX 1070 quasi gleich bleibt.

Und hier die Verbrauchswerte, in denen nur die Grafikkarte isoliert gemessen wurde (Also Rumrechnerei nicht erforderlich):
2160p: 119 Watt
1080p: 89 Watt
Relativ ergibt sich ca. -25 %

Wären es 5 – 10 Watt, geschenkt. Aber 90 statt 120 Watt, also 30 Watt weniger bei einer Basis von 120 Watt (-25 %) finde ich schon bemerkenswert. ;)
 
Zurück
Oben