• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Bericht Quo vadis, Cyberpunk 2077?: Die SMT-Problematik mit und ohne „Hack“ im Community-Test

Hallo zusammen,

@TheChris80
TheChris80 schrieb:
Der Beta Tester ist also nix neues.
In dem Maße, daß die Community Einspringen muß, damit essentielle CPU-Funktionen halbwegs vernünftig eingebunden werden, aber auf jeden Fall.

Das hier ist ein ganz anderer Fall als dies, was du z. b. aufzählst in Form von Silent Hunter xyz. Hier geht es um essentielle Funktionen einer CPU, die mehr oder weniger außer Acht gelassen wurden. Und der Kunde kann sich jetzt damit rumschlagen. So sieht es aus und nicht anders.

Was den Maßstab angeht, den du anlegst, fällt übrigens Gothic 3 auch noch darunter. Dürfte vielleicht sogar das krasseste Beispiel überhaupt sein. Wobei da die Gründe vielleicht tiefgehender sind, bzw. waren, als hier.

So long....
 
  • Gefällt mir
Reaktionen: TheChris80
Luxmanl525 schrieb:
Hallo zusammen,

@TheChris80

In dem Maße, daß die Community Einspringen muß, damit essentielle CPU-Funktionen halbwegs vernünftig eingebunden werden, aber auf jeden Fall.

So long....
Worauf ich hinaus wollte ist halt das CDPR nicht gerade dafür bekannt ist das spiele direkt flüssig laufen.
War bei Witcher 3 auch so. War super gehyped and dann kam sowas raus.
Selbst high - end GPU's der damaligen Zeit kamen kaum auf hohen einstellungen klar.

Will auch gar nix in schutz nehmen. aber ich denke man sollte schon wissen was man kauft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525
Ich hab sowieso Hyper Threading deaktiviert 😁
 
ein altes spiel, das trotz mehr problemen als spass und auch trotz fehlendem multiplayer, weiterhin gepusht wird. was CDProjekt da abgeliefert hat, war nicht aller Ehren wert und wenn entwickler ein problem 'ignorieren', dann ignorier ich den entwickler.

seid immer vorsichtig: ein fanboy kann sich alles schoenreden...da schliesse ich mich nich aus
 
  • Gefällt mir
Reaktionen: iron_monkey
An die 5950X und 7950X (3D) Besitzer, wenn ihr hier bereits mitgemacht und mit dem fix Leistung verloren habt, wie sieht es aus, wenn ihr im BIOS ein CCD deaktiviert?

Falls ihr das gegen testen wollt, wären das zusätzliche Infos für CDPR (und der Community) ob es eventuell besser läuft wenn ihr das mit euren CPUs im Vergleich zu der nicht gefixten exe testet.

Also CPU ohne fix mit allen Kernen, gegen mit fix und nur einem CCD.

Mich würde es nicht wundern, wenn ihr dann sogar bessere Ergebnisse habt als mit den zwei CCD.
 
Zuletzt bearbeitet:
Dytec schrieb:
Hallo! Bei DLSS wird die Renderauflösung auf zw. 720p und 1080p reduziert (je nach Qualityeinstellung) und über die Tensorcores erfolgt das KI Upscaling auf 1440p bzw. 4K.
Heißt: Die DLSS Unterstützung ist quasi wie das Spielen in 720p und entspricht damit gut dem Benchmarksetup.
Da du spezifisch DLSS erwähnst, gilt das auch für AMDs FSR?
 
Gilt auch für AMDs FSR, dort sind die Stufen aber noch etwas anders.

Eine genaue Auflistung findet man schnell im Netz, sowohl für DLSS(2) als auch für FSR(2).
Einziger Unterschied ist die Upscaling Methode, wird bei NV das via HW und vorher durch die AI generierten Bilder gemacht (Entwickler gibt es an NV, die lassen alle Bilder durch ihre KI einlesen und neu berechnen, dann wird eine .DLL zur Verfügung gestellt worin die Daten enthalten sind), werden bei AMD die vorangegangenen Bilder als Quelle genutzt, deswegen schliert das manchmal mehr.

1688628012255.png

Ultra Quality bei NV und Ultra Performance bei AMD waren beim Erstellzeitpunkt der Tabelle nicht verfügbar gewesen (ist schon ein paar Jahre her).
 
Zuletzt bearbeitet:
Verangry schrieb:
werden bei AMD die vorangegangenen Bilder als Quelle genutzt, deswegen schliert das manchmal mehr.
Das gleiche wird doch seit DLSS2 gemacht, AI Generierte bilder oder dass Entwickelr irgendwas an Nvidia schicken, gilt doch nur für DLSS1.

Die funktionsweise von DLSS2.x ist die gleiche wie von FSR2.x nur der Algorithmus ist aufwändiger bei DLSS(aber trotzdem nicht langsamer weil ma ndie tensorkerne mit nutzt)
 
  • Gefällt mir
Reaktionen: Ray519 und N0Thing
Soweit mir bekannt ist, wird DLSS immer noch von NV durch ihre KI gejagt, soweit der Entwickler das möchte (damit es besser aussieht).

Sollte das nur für DLSS 1 gegolten haben, dann hab ich da eine Wissenslücke
[macht aber auch nichts, die Auflösung war ja angefragt, der Rest war nur (halbwissende) Zugabe].
 
Luxmanl525 schrieb:
Hallo zusammen,

in kurzen Worten. Es ist ein Witz sondergleichen, daß eine Community sich darum kümmern muß, damit ein hochpreisiges Spiel am effektivsten auf einer wirklich gebräuchlichen CPU-Plattform läuft.

Da fehlen mir wirklich die Worte. Und ehrlich gesagt verstehe ich schonmal gar nicht, wieso die Leute das Spiel dann überhaupt Kaufen. Denn die betreffende Firma wird ja noch in ihrem Tun bestärkt.

CDPR hat das Verhalten in ihr Spiel in Zusammenarbeit und Absprache mit AMD eingebaut. Es wird also Konstellationen geben, wo der Fix Probleme machen kann und das Erlebnis von normalen Spielern beeinträchtigt.

Kurz zur Erklärung was dieser Fix eigentlich macht (für die die es interessiert).

Code:
75 2D 33 C9 B8 01 00 00 00 0F A2 8B C8 C1 F9 08
EB 2D 33 C9 B8 01 00 00 00 0F A2 8B C8 C1 F9 08

Wenn man die Zeichenfolgen vergleicht, fällt auf, dass nur das erste Byte anders ist. Der Rest dient vermutlich nur zur Identifizierung der richtigen Stelle in der Datei.

0x75 ist der x86 CPU OpCode für einen Sprung, wenn ein vorheriger Vergleich negativ ausgefallen ist (Jump if not equal)

0xEB ist der x86 CPU OpCode für einen Sprung, egal was vorher war (Jump)

Hier wird also ein Vergleich ausgehebelt, der absichtlich vorhanden ist, und durch einen festen Sprung in einen bestimmten Codebereich ersetzt. Diese Verzweigung ist kein Zufall und sicherlich das Ergebnis der Absprache zwischen AMD und CDPR. Man kann damit rumspielen, aber wenn ich ein Spielerlebnis wie vom Entwickler vorgesehen haben will, dann lasse ich es so wie es ist.
 
  • Gefällt mir
Reaktionen: Wedge. und MaLow17
DocWindows schrieb:
....aber wenn ich ein Spielerlebnis wie vom Entwickler vorgesehen haben will, dann lasse ich es so wie es ist.
Und genau das ist bei den AMD 8 Kernern (dort ist der Unterschied am höchsten zu messen) das Problem.
Die Abfrage hätte bei diesen CPUs nicht sein müssen.

Man kann natürlich sagen "hey das Spiel ist so programmiert also lebe ich damit" oder aber "hey ich bekomme durch das Ändern der Abfrage mehr Leistung also nehme ich lieber das.

Diese Abfrage muss CDRP (notfalls mit AMD zusammen) noch mal genauer untersuchen und genau darum geht es hier.

Ansonsten danke für die Ausführung, aber es wurde glaube ich bereits erklärt ;)
 
Verangry schrieb:
Soweit mir bekannt ist, wird DLSS immer noch von NV durch ihre KI gejagt, soweit der Entwickler das möchte (damit es besser aussieht).
Ich bin natürlich auch kein Garant für garantiertes Wissen auf dem Gebiet aber soweit mir bekannt wird der Algorithmus fortlaufend durch ihre KI trainiert und verbessert, allerdings auf generischer Ebene.

Am ende ist es dann eben genau wie FSR ein Algorithmus der von der Karte ausgeführt wird, nur dass der von DLSS eben komplexer ist, durch die Unterstützung der Tensor Cores aber z.B. auch mehr vergangene Frames verarbeiten kann ohne langsamer zu sein.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Ray519
Verangry schrieb:
Diese Abfrage muss CDRP (notfalls mit AMD zusammen) noch mal genauer untersuchen und genau darum geht es hier.

Vielleicht haben sie das längst getan und das Ergebnis dieser Untersuchung lautet: Wie lassen es so wie es ist.

Nur weil eine recht uninformierte Änderung im Programmablauf des Spiels auf einigen Systemen irgendeinen Effekt hat, muss das längst nicht zur Folge haben es offiziell zu ändern.
Oder kann hier jemand alle Seiteneffekte und Eventualitäten ohne Kenntnis des vollständigen Programmcodes abschätzen?
 
  • Gefällt mir
Reaktionen: RogueSix und MaLow17
Taxxor schrieb:
Ich bin natürlich auch kein Garant für garantiertes Wissen auf dem Gebiet aber soweit mir bekannt Wird der Algorithmus fortlaufend durch ihre KI trainiert und verbessert, allerdings auf generischer Ebene.
Hab mir das eben noch mal durchgelesen, was NV dazu schreibt.

DLSS2.xx ist im Vergleich zum DLSS1.xx imstande auch durch andere Games die Bilder zu generieren - schnellere integration durch ähnliche Bilder bei mehreren Spielen z.B. Zaungitter.. (bei 1.xx musste es speziell auf das Game angewendet werden, 2.xxx teilt sich die Daten von und mit anderen Spielen - wenn ich das richtig verstanden habe).
Ergänzung ()

DocWindows schrieb:
Vielleicht haben sie das längst getan und das Ergebnis dieser Untersuchung lautet: Wie lassen es so wie es ist.

Nur weil eine recht uninformierte Änderung im Programmablauf des Spiels auf einigen Systemen irgendeinen Effekt hat, muss das längst nicht zur Folge haben es offiziell zu ändern.
Oder kann hier jemand alle Seiteneffekte und Eventualitäten ohne Kenntnis des vollständigen Programmcodes abschätzen?
Dann frage ich mich aber wieso es dann soviel besser läuft, wenn die Abfrage - speziell für die 8 Kerner von AMD - nicht vorhanden ist?

Aus dem Grund werden ja die Daten hier gesammelt, denn laut Dave (CPU Tester bei PCGH) gab es bereits eine Antwort von CDPR "solange ihr die einzigen seid, die das melden, machen wir garnichts" - Nachzulesen hier:
https://extreme.pcgameshardware.de/...t-technische-probleme-an.636059/post-11335131
 
Zuletzt bearbeitet:
Hito360 schrieb:
seid immer vorsichtig: ein fanboy kann sich alles schoenreden...da schliesse ich mich nich aus
Wenn man das Setting/Genre mag und sowas in Ego-Perspektive spielen will, dann gibt's aber auch keine Alternative zu Cyberpunk 2077.
 
Mit aktiviertem SMT läuft es auf jeden Fall besser auf meinem Notebook mit AMD Ryzen 7 5800H und Nvidia RTX 3070 in 1440p mit Raytracing auf Medium und DLSS auf Balanced.
 
Zuletzt bearbeitet:
Mit 8/16 definitiv besser, ein höherer Threadcount oder auf CPUs mit 6 Kernen hat der Patch entweder kaum Auswirkungen oder wird etwas schlechter, ja.

Ist aber auch mehrmals schon erwähnt worden, dennoch einfach weiter machen, jede Einsendung hilft.

Und wenn sich CDPR am Ende dem nicht annehmen sollte kann jeder selbst entscheiden wie er weiter damit umgeht.

Ich werde bei dem 5800X3D den Fix weiterhin verwenden, läuft damit eindeutig besser, jeder andere muss dann selbst entscheiden.

Zukünftige Releases solcher beschissen programmierten Titel kann man dann ja auslassen oder selbst modden.

Ich habe jedenfalls keine Lust mehr irgendwas zu recherchieren und zu testen das am Ende als "Nimm es so hin wie es ist, wir machen nichts" abgetan wird und werde solche Spiele dann einfach nicht kaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jaffech und MaLow17
Verangry schrieb:
Und wenn sich CDPR am Ende dem nicht annehmen sollte kann jeder selbst entscheiden wie er weiter damit umgeht.
Ich werde bei dem 5800X3D den Fix weiterhin verwenden, läuft damit eindeutig besser, jeder andere muss dann selbst entscheiden.
Sehe ich auch so, ich werde den SMT-Fix auch weiterhin verwenden auf meinem AMD Ryzen 7 5800H. Läuft messbar geschmeidiger.

Vielen Dank, dass ihr dieses Thema nochmal aufgegriffen habt. Wäre an mir sonst vorbeigegangen. Ich freue mich auch irgendwie, dass ich bisher Cyberpunk 2077 nur angetestet habe und jetzt mit dem Fix es endlich richtig spielen werde.
 
Zurück
Oben