• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Bericht Quo vadis, Cyberpunk 2077?: Die SMT-Problematik mit und ohne „Hack“ im Community-Test

Ich habe mal den internen Benchmark, mit meinem 5700g (35TDP Begrenzung) iGPU in 720p und Qualitätsvoreinstellung niedrig mit FSR Qualität, getestet. Dabei ist bei mir ein Unterschied von 3fps im Durchschnitt herausgekommen.
 
Eigentlich ist die Sache doch ganz einfach:

Wenn ein Kern ohne SMT läuft, wird der eine virtuelle Kern immer effizienter und schneller laufen. SMT kann zwar die Gesamtleistung der CPU steigern, wenn jeder Thread den Kern voll auslastet. Jeder Thread für sich gesehen, läuft mit SMT aber immer schlechter als ohne SMT.

Das ist nichts neues und lange bekannt.

Bei Programmen, bei denen die Performance einzelner Threads wichtiger ist als die Gesamtleistung aller Threads zusammen, kann SMT deswegen ein Problem darstellen. Und das gilt für die allermeisten Spiele.

Dazu kommen noch Effekte wie Cache-Lines, Chiplets und E/P-Cores die das ganze nochmal komplexer machen.

Im Prinzip muss ein Spiel genau für jeden Prozessor einzeln optimiert werden, in dem man jeden Typ von Thread auf eine bestimmte Konstellation festtackert. Also z.B. die kritischen Threads auf einzelne Kerne, die sonst frei von anderen Threads bleiben müssen. Threads, die nur teilauslasten und nicht kritisch laufen aber z.B. durchaus frei per SMT verteilen usw.

Das ist aber erstens kaum machbar und zweitens wiederspricht das der offenen PC Architektur. Selbst wenn man es heute auf die verbeitesten CPUs optimiert, kann es einem morgen bei einer neuen CPU Architektur um die Ohren fliegen.

Also: Da ist kein böser Wille oder Unfähigkeit dahinter, es ist einfach ein technisches Problem. Ich kann Spielern nur empfehlen, auf SMT zu verzichten. Speziell wenn man über 6 oder mehr echte Kerne verfügt. Das kann auch Nachteile haben, aber meistens bringt es ein deutlich besseres Spielgefühl. Selbiges gilt übrigens auch für E-Cores.
 
System: 5800X3D, RX 7900 XTX
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, Durchschnitt: 9
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 1 %-Perzentil: 18
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 0,2 %-Perzentil: 15

@Jan ich liefere mal für die 7900XTX und den 5800X3D die Werte. 3 Durchläufe, gemittelt.:)
 
  • Gefällt mir
Reaktionen: Hesky85, TigerherzLXXXVI und cm87
Grestorn schrieb:
Also: Da ist kein böser Wille oder Unfähigkeit dahinter, es ist einfach ein technisches Problem. Ich kann Spielern nur empfehlen, auf SMT zu verzichten.
Wenn es aber mit dem Fix bei einem 8 Kerner alle 8 Kerne samt SMT threads benutzt und ohne nur 6 und deutlich schlechter läuft und CDPR mehrmals drauf hingewiesen wurde und immer noch sagt, die Performance der 8 Kerner sei „as expected“…..

Dann ist es entweder böser Wille oder Unfähigkeit
Ergänzung ()

Grestorn schrieb:
Das kann auch Nachteile haben, aber meistens bringt es ein deutlich besseres Spielgefühl.
Ich hab mit meinen bisherigen 8 Kernern in den meisten Spielen die Erfahrung gemacht, dass 8C8T in erster Linie schlechtere lows hatten als 8C16T
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI und Verangry
Taxxor schrieb:
Dann ist es entweder böser Wille oder Unfähigkeit
Das könnte sein. Auf der anderen Seite scheinen sie ja aktuell nicht die verschiedenen Ryzen-Generationen zu unterscheiden. Und der aktuelle Hack gilt ja dann für alle 8-Kerner aus allen Generationen.
Und wir haben doch schon gesehen, dass gerade die ganz alten Ryzens nicht unbedingt unbedingt davon profitieren.

Sie können also vermutlich nicht einfach den "Hack" hier einbauen. Weil Ryzen 1 und 2 doch vermutlich so schon viel knapper sind als 5000er und 7000er. Sie müssten also eine weitere Unterscheidung einbauen. Und wenn man es nur anschalten wollte, für die Konfigs wo hier gezeigt wurde, dass es gewinnbringend ist, dann müsste man vermutlich explizit diese Konfigs erkennen, so dass man nicht ausversehen andere Konfigs dabei schlechter macht. Also noch viel mehr Unterscheidungen einbauen.

Und das ist dann nunmal nicht mehr gaanz so trivial. Kann immer noch faul sein von den Entwicklern, aber einfach die Ausnahme ausbauen, wird das Problem vermutlich nur verschieben, nicht beheben.

Taxxor schrieb:
8C8T in erster Linie schlechtere lows hatten als 8C16T
Wenn das Spiel auf 8 Kernen läuft und es Hintergrundanwendungen gibt, können sie im 2. Fall auf die virtuellen Kerne mit HW Support gepackt werden. Im anderen Fall müssen sie auf die gleichen Kerne wie das Spiel und es muss in SW hin und her gewechselt werden.

Wenn das Spiel nur 6 von 8 Kernen nutzen würde, wäre SMT vollständig aus vermutlich wieder im Vorteil. Wobei ich für AMD nicht weiß, in wie fern sie statisch geteilte Ressourcen überhaupt ohne SMT dann dem einen Kern zu schlagen. Nur wenn das überhaupt passiert, wäre SMT im BIOS aus ein Vorteil gegenüber die virtuellen Kerne einfach auszusparen bei der Verteilung der Threads, wie ein OS das ja auch schon macht, solange genügend Kerne da sind.
 
  • Gefällt mir
Reaktionen: Grestorn
System: 3900x, 3070ti (UV)
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, Durchschnitt: 10,1
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 1 %-Perzentil: 10,5
Szene 1, 720p, Ultra, ZUWACHS (Prozent) FPS, 0,2 %-Perzentil: 9,8

Nicht schlecht.
1688903364079.png



Zum Spaß mache ich das auch nochmal mit meinen Setting in 3440x1400 um ein Real-Life-Szenario zu haben:

System: 3900x, 3070ti (UV)
Szene 1, 3440x1440, GeForce Experience Presets (seieh Screenshot weiter unten), ZUWACHS (Prozent) FPS, Durchschnitt: 2,1
Szene 1, 3440x1440, GeForce Experience Presets (seieh Screenshot weiter unten), ZUWACHS (Prozent) FPS, 1 %-Perzentil: 5,8
Szene 1, 3440x1440, GeForce Experience Presets (seieh Screenshot weiter unten), ZUWACHS (Prozent) FPS, 0,2 %-Perzentil: 4,5

1688904146759.png

1688904196693.png
 
  • Gefällt mir
Reaktionen: Kommando
Für mich ist die fehlende oder fehlerhafte SMT-Unterstützung von Ryzen 8C+ CPUs in CP2077 nach so langer Zeit ein eindeutiger Beweis dafür, dass man bei CD Project Red absichtlich wenig für eine vernünftige Hardwareoptimierung auf Seiten AMD macht bzw. jemals im Sinn hatte. RDNA 3 performt zwar recht gut, aber das ist reiner Zufall. Zum Releasezeitpunkt war RDNA 2 ganz neu, und wie schlecht RX 6000 im Vergleich zu RTX 3000 in CP2077 performt, auch bei reinem Rasterizing, war mir schon damals nicht geheuer... Dann kam noch der ewig nicht vorhandene FSR-Support dazu, welcher dann nach über 2 Jahren mit der Version 2.1 nicht einmal gut ins Spiel implementiert worden ist.

Auf jeden Fall ist eine Schande, wenn man die große Verbreitung von Ryzen-CPUs in Gaming-PCs (und den Konsolen!) sieht. Außerdem frage ich mich immer ob es nur Zufall ist, dass Cyberpunk 2077 ausgerechnet DER Nvidia Vorzeigetitel ist.

Man könnte meinen: kein Wunder also, dass sich AMD bei Bethesda eingekauft hat. Wenn Starfield eine gute FSR-2-Implementierung bietet, wäre das natürlich ein gute Werbung für diese Upscaling-Technologie.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CrAzYLuKe
TigerherzLXXXVI schrieb:
Für mich ist die fehlende oder fehlerhafte SMT-Unterstützung von Ryzen 8C+ CPUs in CP2077 nach so langer Zeit ein eindeutiger Beweis dafür, dass man bei CD Project Red absichtlich wenig für eine vernünftige Hardwareoptimierung auf Seiten AMD macht
Du vergisst hier wohl, dass der aktuell im Spiel enthaltene Fix in Zusammenarbeit mit AMD entstanden ist
8-core, 12-core and 16-core processors remain unchanged and behaving as intended. This change was implemented in cooperation with AMD and based on tests on both sides

TigerherzLXXXVI schrieb:
Zum Releasezeitpunkt war RDNA 2 ganz neu, und wie schlecht RX 6000 im Vergleich zu RTX 3000 in CP2077 performt, auch bei reinem Rasterizing, war mir schon damals nicht geheuer..
Eine 3080 war in 1440p Raster, 8% schneller als eine 6800XT, der Schnitt vom CB Performancerating war 6%.

Mit Patch 1.5 waren die beiden dann sogar exakt gleichauf in 1440p.

TigerherzLXXXVI schrieb:
Dann kam noch der ewig nicht vorhandene FSR-Support dazu, welcher dann nach über 2 Jahren mit der Version 2.1 nicht einmal gut ins Spiel implementiert worden ist.
FSR1 kam 8 Monate nach dessen Release ins Spiel(Cyberpunk kam schon raus bevor es FSR gab), bei FSR2 hat es 5 Monate gedauert.

Cyberpunk Release: 12/20 (FidelityFX CAS zum Start vorhanden)

FSR1 Release auf Github: 06/21
Hinzugefügt in 02/22(Patch 1.5)

FSR2 Release auf Github: 06/22
Hinzugefügt in 11/22 (Patch 1.61)

TigerherzLXXXVI schrieb:
Man könnte meinen: kein Wunder also, dass sich AMD bei Bethesda eingekauft hat. Wenn Starfield eine gute FSR-2-Implementierung bietet, wäre das natürlich ein gute Werbung für diese Upscaling-Technologie.
Eine gute Werbung wäre es dann, wenn man den direkten Vergleich mit anderen Upscalern ziehen könnte und hier als Sieger hervorgeht.

FSR2 in Cyberpunk wurde mMn auch besser implementiert, als z.B. in Jedi Survivor, wo es nur FSR gibt^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
Caramelito schrieb:
Eher nicht - Das Game war immer top. Einige Bugs und vor allem Konsolen Technik war UNSPIELBAR. Deshalb wurde das Spiel weitestgehend "vernichtet".. Konsolen > PC und so :D
Hää??

Was ist daran top? Ich erinnere dich lieber mal an das erste Gameplayvideo, was vor 4 Jahren rauskam. Das jetzige Spiel ist dagegen, was im Video zu sehen ist ein flacher bunter Gaugummi Activision oder Ubisoft-shooter. Es wurde so viel gestrichen, gelöscht, zum schlechteren geändert, darüber bin ich bis heute baff.
Das was im Video zu sehen ist ist top. An diesem Spiel heute ist aber überhaupt nichts top.
Und das hat einfach nichts mit den Bugs zu tun. Auch wenn das Spiel immer noch verbuggt ist
Cyberpunk ist der heftigste Downgrad der Geschichte, da kommt bisher nichts ran.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fresh-D
Dafür sind die Wertungen, auch von Usern, aber sehr gut im Vergleich zu anderen AAA Games ;)
 
Manegarm schrieb:
Noch schärfere Aufösung bis 4k hat keinen Nutzen. Genauso wie noch bessere Grafik nichts mehr zu einem noch besseren Spiel beiträgt. Das ist wie mit Geld, viel mehr Geld zu haben macht einen nicht NOCH glücklicher.
Es ist schlicht kompletter Firlefanz. Klar, wer nur in 4k spielt hat sich dran gewöhnt, aber dann ist er selber schuld. Er kann sich auch wieder an 1080p oder wqhd gewöhnen, nach 2 Stunden würde ihn das nicht mehr stören.
Wenn ich dir jetzt erzähle, das mein laptop nur 1080p (mit einer 3070) und mein desktop 4k (mit einer 6900) hat und sage, das auf dem desktop die spiele einfach besser aussehen. Glaubst du mir das dann?
Glaubst du mir auch, das ich die 1080p wissend so gekauft habe und es mich nicht wirklich stört, das unterwegs am laptop manches nicht so geil aussieht?
Und ja, ich mag es auf dem desktop spiele mit geiler grafik zu spielen. Factorio macht in 4k aber auch deutlich mehr spaß (weil mehr übersicht) :D
Tatsächlich vermeide ich es inzwischen aufm laptop factorio zu spielen, weil mir dann die übersicht fehlt :/
 
  • Gefällt mir
Reaktionen: CrAzYLuKe
Taxxor schrieb:
Du vergisst hier wohl, dass der aktuell im Spiel enthaltene Fix in Zusammenarbeit mit AMD entstanden ist
Das stimmt. Allerdings liegt die Verantwortung nicht bei AMD, dass die Spieleengine von CP2077 besser für Ryzen 8C+ CPUs angepasst wird, sondern bei CD Project Red. Sie müssen die notwendigen Anpassungen vornehmen, schließlich ist es ihre Engine. AMD kann in diesem Fall nur oberflächlich Hilfestellungen geben, jedoch nicht an der Wurzel des Problems anpacken.

Taxxor schrieb:
Eine 3080 war in 1440p Raster, 8% schneller als eine 6800XT, der Schnitt vom CB Performancerating war 6%.
Wenn das die Werte sind, dann hätte ich übertrieben. Ich schaue mir das noch einmal an.

Taxxor schrieb:
FSR1 kam 8 Monate nach dessen Release ins Spiel(Cyberpunk kam schon raus bevor es FSR gab), bei FSR2 hat es 5 Monate gedauert.
OK. Da habe ich FSR 1.0 glatt verdrängt. Damit gehen die Zeiträume für die Implementierung wohl in Ordnung.

Taxxor schrieb:
Eine gute Werbung wäre es dann, wenn man den direkten Vergleich mit anderen Upscalern ziehen könnte und hier als Sieger hervorgeht.
FSR 2 hat den Vorteil, dass es für alle PC-Gamer nutzbar ist. Mal angenommen die Implementierung wird aufgrund der Zusammenarbeit zwischen Bethesda und AMD nahezu perfekt, dann wäre die Empörung über fehlendes DLSS Jammern auf hohem Niveau.

Taxxor schrieb:
FSR2 in Cyberpunk wurde mMn auch besser implementiert, als z.B. in Jedi Survivor, wo es nur FSR gibt^^
Schon möglich. Aber so wie bereits das Ryzen-Problem für CP2077 auf ein fehlendes Engagement auf Seiten des Entwicklers schließen lässt, so wird CD Project Red sicherlich auch nicht den größten Aufwand für FSR 2 betrieben haben. Und genau das möchte AMD natürlich nicht haben.
 
TigerherzLXXXVI schrieb:
Mal angenommen die Implementierung wird aufgrund der Zusammenarbeit zwischen Bethesda und AMD nahezu perfekt,
FSR2 muss prinzipbedingt sehr sparsam mit Rechenleistung umgehen, weil es diese Rechenleistung von den Shader Cores abzieht. DLSS hingegen hat Hardwarebeschleunigung für diese Berechnungen, zusätzlich zu den Shader Cores. Sie haben also schlicht mehr Rechenleistung zu geringeren FPS-Kosten zur Verfügung.
Selbst wenn AMD FSR2 verbessern werden kann um zur aktuellen Qualität von DLSS aufzuschließen, könnte DLSS vermutlich ähnliche Verbesserungen auch machen und haben immer noch mehr Rechenleistung übrig.

Diesen Unterschied, das FSR2 möglichst sparsam designt wurde, sehen wir auch bei XeSS. Das wurde auch für spezielle HW-Einheiten designt, steht aber auch (sogar in einer runter gedummten Fassung) generisch zur Verfügung. Und wie wir in Tests gesehen haben, bringt XeSS auf AMD und Nvidia GPUs nicht viel, weil es eben wie DLSS deutlich mehr rechnet, was nur mit dem passenden HW-Beschleuniger auch wirklich schnell genug geht.
Klar, AMD kann das dynamisch anpassen, aber dann frist FSR evtl. den Vorteil der niedrigeren Renderauflösung wieder auf...

Der größte Vorteil von AMDs Ansatz ist einfach, dass sie mehr Chipfläche für Shader Cores übrig haben und deshalb im Rastern auch vorne liegen. Schlechtere Performanz in den spezifischen Anwendungsgebieten (wie RayTracing und Upscaling), dafür mehr generische Performance. Aber Wunder kann man damit nicht vollbringen, alles ein Tradeoff.
 
  • Gefällt mir
Reaktionen: Grestorn
DLSS wurde auch schon durch fleißige Bienchen auf älteren Grafikkarten aktiviert. Ich glaube da ist einfach viel Hokuspokus um die Software. Das meiste läuft anscheinend über die CPU und die normalen Recheneinheiten. Und über die treiberseitigen Ausschluss anderer Generationen.

nVidia hatte einfach viel mehr Zeit dafür ihre Technik zu verfeinern. Ich glaube als das angekündigt wurde, gab es bei AMD noch keinen, der sich überhaupt damit beschäftigt hatte. Die wurden komplett überrumpelt.

nV hat also einen riesigen zeitlichen Vorsprung. Dazu kommt, dass sie nur für 2 Generationen optimieren müssen. Im Gegensatz zum allübergreifenden Ansatz von FSR. Aber ist auch arg OT hier, merke ich gerade.

Gibt genug Threads in denen das Thema besprochen wird.
 
Kommando schrieb:
auf älteren Grafikkarten aktiviert. Ich glaube da ist einfach viel Hokuspokus um die Software.
Ja? So auf die Schnelle finde ich da nichts. Hast du mal einen Link dazu?

Grundsätzlich glaube ich gerne, dass nicht 100% von DLSS Berechnungen auf den Inferenz-Beschleunigern laufen. Und alles ist einfach nur Mathe. Wenn du die Formeln hast, kannst du das auf jeder Art von Recheneinheit / Prozessor berechnen. Die Frage ist nur wie schnell...
 
Kommando schrieb:
DLSS wurde auch schon durch fleißige Bienchen auf älteren Grafikkarten aktiviert.
RTX lief auch auf GPUs ohne RT Recheneinheiten - brutal langsam.

Hast Du eine Quelle wo jemand DLSS (und nicht einfach nur eine Brücke zu FSR2) auf einer nicht RTX Karte zum Laufen gebracht hat, mit Qualitäts und Performance-Vergleichen?

Sonst ist das nur eine dieser raunenden Behauptungen, die man immer wieder bekommt "Ich hab gehört, NVidia nutzt die Tensor Cores gar nicht... alles nur Lug und Trug..."

(Klar, man verschwendet massiv Transistoren für Lug und Trug... Wer's glaubt)
 
Ich könnte jetzt auch nur die Quellen wieder raussuchen, die damals zur Einführung von DLSS gezeigt wurden. Irgendwer hatte das bei einem Spiel aktiviert. Habe den Stand nicht weiter verfolgt.

Wenn Ihr da weiter seid und nichts aktuelles findet, bzw. sagt, dass es nur inzwischen wiederlegte Behauptungen waren, dann glaube ich euch da eher.

Ist hier aber eh OT. :)
 
Zurück
Oben