Ich glaube
@KlaraElfer meint den
PCGH-Leistungsindex, aber ich habe da auch starke Zweifel, ob das so stimmt.
Es hilft auch nicht das in der Onlineversion keine konkret gemessenen Werte aufgeschlüsselt sind. Man sieht nur das Endresultat. Und da man das nicht nachvollziehen kann, ist es schwer denen so einfach zu glauben, außer man macht selber Stichproben mit dem eigenen System oder vergleicht mit den Werten, die andere Benutzer liefern können.
Aber zum konkreten Fall, das sind die Werte, die wir aus anderen Messungen wissen:
- 3600 verbraucht maximal 88W stock mit hoher Multi Core Auslastung (ob das aber jemand in einem Spiel sieht bezweifle ich mal stark).
- 3600 und 10400F sind relativ gleich schnell
Nun die angeblichen FPS pro Watt Werte von PCGH:
3.7 FPS/W für den 10400F, 2.2 FPS/W für den 3600. Oder in Prozent: der 10400F ist 68% effizienter als der 3600.
Aber kommt das hin?
Im Durchschnitt für 60 FPS braucht dann der 10400F 16.2W und der 3600 27W.
Diese Werte scheinen mir doch etwas zu klein. Euch auch? Ich hab leider keine der beiden CPUs, aber auch wenn es stimmen würde (was ich doch stark bezweifle), dann ist der Unterschied bei ganzen 11W.
(Meine CPU braucht 35W-45W für 60 FPS, je nach Spiel, aber der Anteil der an den SoC/Cache usw. geht ist hier auch größer, da zwei Chiplets anstatt einem für den 3600)
Und das is quasi der worst case für AMD, da der Anteil des SoCs (ca. 12W) größer ist, je weniger die CPU verbraucht bzw. je weniger die richtigen Rechenkerne beansprucht werden um mehr FPS zu liefern.
tl;dr
Gibt es hier jemanden mit nem 10400F bzw. 3600, der mal ein paar Werten bei denselben Spielen und FPS liefern kann?
Kommen 16W und 27W hin für die CPUs? Und kümmert euch der theoretische Unterschied von 11W überhaupt?