Nighteye schrieb:
Dadurch nutzt man dann quasi nur 70% der Intel CPU, während AMD 100% Ihrer CPU für das Spiel nutzen können.
Daher kommen dann auch solche unterschiede zustande.
Anhang anzeigen 1613418
Das sind aber zwei völlig verschiedene paar Schuhe.
Ein 9800X3D ist hier durch den Cache im Vorteil. Du misst FPS - und FPS sind das stumpfe abarbeiten des quasi immer gleichen Jobs möglichst oft pro Sekunde.
Der X3D Prozessor hat hier prinzipbedingt einen Vorteil, da er durch mehr Cache ohne die sonst üblichen Speedverluste bei größeren Caches exakt dieses Szenario stark pushen kann. Aber eben fast nur dieses Szenario.
Anstatt die Daten in den RAM zu schieben, können sie im Cache gehalten werden. Für jedes Frame, was berechnet wird, fällt damit im Best Case die Latenz für den Memory Zugriff über die lahme IF weg. Das ist quasi das Paradeszenario für diese Art von CPUs. Eine Aufgabe, extrem hohe Abhängigkeit der Threadlaufzeit, hoher Durchsatz!!! -> wird immer wieder vergessen zu erwähnen. Die X3D CPUs drehen immer dann richtig auf, wenn die Auflösungen niedrig sind und die Latenzen im Vergleich stark ins Gewicht fallen. Nur spielt man am Ende wirklich so??
Wenn du 300x das Frame pro Sekunde berechnest und 300x die Latenz für einen Zugriff in den RAM drin ist (also bei non X3D CPUs bspw. oder Intel), dann kann durch den größeren Cache relativ gesehen, extrem viel Zeit gespart werden, wenn man die Latenzen senkt.
Latenzreduktion ist Key bei Games. Das ist seit 15+ Jahren bekannt. Schon zu X58 Zeiten damals mit Nehalem jammerten die Leute, dass die große Plattform höhe Latenzen zeigte.
Und ja, man kann sowas ähnliches in der Art auch beobachten, wenn die falschen Threads bei CPUs mit ungleich schnellen Cores ungünstig verteilt werden. Bspw. bei fälschlicher Zuweisung des Mainloop Threads auf die E-Cores. Oder durch bspw. sowas wie die GameBar in Windows getätigte Dinge, wo dann versucht wird, alle Threads des Spiels zwingend auf die P-Cores zu kippen, was vielleicht zur Folge hat, dass der Main Loop ressourcenmäßig mit anderen, unwichtigeren Jobs konkurriert.
-> die Lösung ist nicht das Abschalten der E-Cores sondern die Optimierung der Software auf die verfügbare Hardware.
Auch AMD wird früher oder später hier das Konzept ändern bzw. ändert es schon. Zwar nicht so extrem wie Intel. Aber schon in den 300er APUs und Phoenix 2 sieht man, dass ein C-Core 1/2 bis 2/3tel so schnell im Peak ist. Liegt dort dann fälschlicherweise der Main Loop im LowRes CPU Game-Bench, weil falsch zugewiesen, fehlen dir obenraus auch die Ressourcen. Da ist Niemanden geholfen der CPU die Schuld zu geben...
Makso schrieb:
Welche Strukturgröße ist 18 A gegenüber TSMC?
Schwer bis unmöglich pauschal zu sagen. Weil im Endprodukt noch viel mehr Faktoren einfließen als reine Zahlen auf dem Zettel.
Die Packdichte gemessen an einfachen SRAM Zellen soll wohl deutlich! hinter TSMCs N2 liegen, eher in Richtung N3. In Sachen Leistung und Verbrauch hingegen soll das durchaus Richtung bis über N2 gehen.
Unklar ist aktuell, ob sie das erreichen und vor allem, wie viele Einheiten sie überhaupt produzieren können. Intel wollte mit 20A ja schonmal durchstarten, hat das dann aber quasi direkt beendet und 18A in den Fokus gestellt. Im Labor arbeiten sie wohl aber auch schon an 14A, also dem 18A Nachfolger. Das geht dann in Richtung N1 oder noch weiter.