@ Soda
Zum ersten Abschnitt: Da habe ich keine Anmerkungen zwecks VSync. Da nicht Kernpunkt meiner Diskussion.
2. Abschnitt:
Ich bestreite nicht den Punkt, dass die GPU-Last für die Stromaufnahme verantwortlich ist.
Dieses Urteil unterschreibe ich zu 100 %!
Die Frage für mich ist, ob ein relevanter/statistisch signifikanter Unterschied besteht, der darauf schließen lässt, dass ein Unterschied der GPU Last zwischen 4K und 1080p besteht, trotz dessen, dass die CPU in beiden Fällen nicht limitiert. Außerdem wird zwischen den GPUs, die getestet werden, das Testsystem nicht verändert. Mir geht es um den Einfluss der Grafikkarte, der Unterschied der zwischen den GPUs dargestellt wird. In der Überschrift passen leider nur eine begrenzte Anzahl Zeichen. Und wenn das bisher auch im Text nicht klar geworden ist, dass ich darauf hinauswill, dass der Unterschied zwischen den GPUs in FullHD fällt, dann tut mir das Leid.
Der Eingangspost zielt nicht explizit darauf ab dass kein CPU Limit besteht, sondern auch bewusst ein CPU-Limit mit in Kauf nimmt, da dies ja auch die Performance Werte beeinflusst.
Aber bleiben wir bei der Diskussion ohne Akzeptanz des Vorliegens eines CPU-Limits um weiterhin eine hohe Auslastung der GPU zu haben.
Jetzt erst zum 5./letzten Abschnitt:
Ich greife die anderen ermittelten Werte nicht an. Das ist also korrekt.
Also jetzt weiter im Kontext:
Ich habe kein Problem die Werte von TweakPC wegzulassen. Ich stimme zu, dass diese problematisch sind zu interpretieren. Ich habe die lediglich genutzt in Ermangelung von Werten. Leider finde ich quasi keine Seite, wo 4K Stromverbrauch und 1080p Stromverbrauch aufgelistet wird, bei dem das Spiel/Szene gleich bleibt. Das Problem, das du genannt hast ist völlig korrekt. Lediglich den im Eingangspost verwendete Verweis auf THG scheint dies gemacht zu haben. Die Quelle habe ich gerade deswegen auch angegeben.
Ich habe auch leider nicht die Zeit im Internet die Nadel im Heuhaufen zu finden.
Und den PCGH Artikel kann ich auch gerne außen vor lassen.
Ich argumentiere jetzt mal ausschließlich basierend auf den Werten von Hisn im 2. Post, wo die CPU in FullHD zu 78 % ausgelastet ist. Ich nehme da also an, dass auch in FullHD kein CPU-Limit in der Szene besteht. Und ein CPU-Limit wollen wir ja gerne ausschließen.
Für die folgenden Ausführungen basierend auf den Werten von Hisn ist noch das folgende zu beachten:
Die CPU hat laut Intel Spezifikation eine TDP von 140 Watt. Ich nehme an, dass dies bei 100 % Auslastung der Fall ist.
Ich nutze die Werte, die ohne Wirkungsgrad des Netzteils von Corsair Link angegeben werden.
Dies sind in 4K: 365 Watt und in FullHD: 357 Watt.
Ja, diese Werte an sich sind wohl im Bereich des Zufalls durchaus einzuordnen.
Aber damit ignoriere ich den Punkt, dass die CPU Auslastung von 48 % bei 4K auf 78 % bei 1080p steigt. Ich nehme jetzt an, dass mithilfe der TDP der CPU und dem Auslastungsgrad der Stromverbrauch durch die CPU berechenbar ist. Die CPU Last steigt um 30 % Punkte bzw. um +62,5 % von 4K auf FullHD.
Zunächst einmal folgt die Berechnung ohne Berücksichtigung, dass auch andere Komponenten im System Strom verbrauchen während der Szene. Also ein Worst Case Szenario für den relativen Unterschied beim Verbrauch der Grafikkarte:
Bei 4K:
Stromverbrauch des Systems: 365 Watt
Errechneter Stromverbrauch CPU: 0,48 x 140 = 67,2 Watt
Verbleibend für GPU: 365 – 67,2 = 297,8 Watt
Bei 1080p:
Stromverbrauch des Systems: 357 Watt
Errechneter Stromverbrauch CPU: 0,78 x 140 = 109,2 Watt
Verbleibend für GPU: 357 – 109,2 = 247,8 Watt
Absoluter Unterschied GPU: 50 Watt
Relativ ergibt sich: 247,8/297,8 – 1 = -16,79 % von 4K auf FullHD
Umgekehrt: 297,8/247,8 – 1 = + 20,18 % von FullHD auf 4K
Jetzt mal mit Annahme Restsystem 20 Watt, bleibt für GPU:
GPU 4K: 277,8 Watt
GPU 1080p: 227,8 Watt
Ergibt: - 18 % bzw. + 21,95 %
Annahme Restsystem 40 Watt (Kann schwer einschätzen wie hoch der Wert bei Hisn wohl sein kann, daher noch einmal mit 40 Watt): Zum Vergleich im CB System sind bei der GTX 1060 im Idle Zustand 47 Watt gemessen worden, isoliert wurden 9 Watt bei THG im Idle gemessen. Bleiben etwa 36-38 Watt für die CPU und Rest bei CB.
GPU 4K: 257,8 Watt
GPU 1080p: 207,8 Watt
Ergibt: -19,4 % bzw. + 24,06 %
Wie hoch du jetzt die Zone für einen nicht relevanten Unterschied/auf Messungenauigkeit beruhende Schwankung ziehen möchtest, darfst du für dich selber entscheiden. Das Ganze dann einmal für den absoluten und relativen Unterschied machen.
Wie du jetzt bei 20 Watt Unterschied auf 15 % kommst, kann ich gerade nicht ganz nachvollziehen. Aber wären 15 % nicht bereits relativ viel? Da würde ich nichtmehr von Messungenauigkeit sprechen, wenn ich mir vorstelle, wie im Forum wegen einzelnen Prozentpunkten Leistungsunterschied eine Diskussion entsteht.
Ich hoffe du kannst jetzt meinen Gedankengang/Rechenweg besser nachvollziehen. Wenn du darin Fehler findest, bin ich froh, wenn du mich erleuchtest.
Erwarte aber nicht, dass ich eventuelle Einwendungen einfach akzeptiere, sondern gedanklich selber auf relevante Auswirkungen überprüfe.
Für mich sind die Werte weit genug auseinander, um eine reine Messungenauigkeit/Schwankung verwerfen zu können.
Das ganze sind jetzt Werte basierend auf einer Grafikkarte. Habe ich jetzt zwei Grafikkarten mit unterschiedlicher TDP, dann wird die Differenz von 4K Stromverbrauchswerten auf 1080p absolut fallen. Womit ich wieder bei meinem Eingangspost wäre.
Umgekehrt:
Meine Erwartung wäre von 4K auf FullHD gewesen, dass, wenn die CPU Last steigt und die GPU Last gleichbleibt, der Stromverbrauch von 4K auf 1080p sogar steigt. Aber nicht fällt. In diesem Fall hätte der Wert etwa 50 Watt steigen müssen?! (Bei diesem Wert habe ich jetzt nicht genau drüber nachgedacht
)
Gruß
Traxton