• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 Patch 1.2 im Test: Raytracing auf AMD Radeon RX kostet bis zu 75 Prozent FPS

Kann man das Spiel denn jetzt mit dem neuen Update weiterempfehlen oder sollte man auf das nächste große Update warten?
 
Na ja, hat sich schon viel getan. Zumindest läuft es auf dem PC stabil (schon seit den ersten Hotfixes) und je nach Hardware und Anforderungen performant, auch wenn es mit Raytracing keine FPS-Höhenflüge erreicht.

Viele Fehler wurden beseitigt, insbesondere auf der Quest-Ebene. Fahrzeugsteuerung wurde verbessert, Polizeikräfte (sofern man sie triggert) agieren auch etwas realistischer.

Es lässt sich (nicht nur seit 1.2) von vorne bis hinten durchspielen.

Die Arbeit ist aber mit 1.2 nicht abgeschlossen. Weitere Patches werden folgen.

Ob es Dir vom Gameplay her gefällt, musst Du selbst bewerten.
 
  • Gefällt mir
Reaktionen: pitu
@.Sentinel. Bin komplett auf deiner Seite. Fanboys bezichtigen andere als Fanboys. 😂 Wenn die Argumente ausgehen, wird beleidigt und diffamiert was das Zeug hält. Ist nur noch lächerlich.
pitu schrieb:
Kann man das Spiel denn jetzt mit dem neuen Update weiterempfehlen oder sollte man auf das nächste große Update warten?
Natürlich kann man es empfehlen. Auch schon vor dem Patch, aber seit dem Patch läuft es nochmal rund 10% schneller durch einige Optimierungen am Level of Detail. Außerdem hat es jetzt auch ne ganze Ecke weniger Bugs. Spaß macht es allemal. Man muss für sich eben gucken welche Framerate man anpeilt und entsprechend die Einstellungen wählen. Der nächste Patch in diesem Umfang wird jetzt sicherlich erstmal wieder eine Weile auf sich warten lassen.
 
  • Gefällt mir
Reaktionen: pitu
@.Sentinel.

Es geht hier nicht um Samariter. Die Features inklusive dem kommenden DLSS-Alternative die AMD entwickelt (hat) stehen allen zur Verfügung. Die Sachen die Nvidia entwickelt sind alle Closed. Das ist ein Fakt.

PhysX ist auf Nvidia-Hardware limitiert. Die CPU-only Version ist ne Krücke und ist selbst auf der CPU limitiert. Selbst wenn eine Nvidia-GPU für PhysX neben einer AMD-Karte verwendet werden soll, wird das von Nvidia geblockt. Vor dem Kauf von Ageia gab es diese Limitierungen nicht und standen ALLEN uneingeschränkt zur Verfügung. Es war nur eine Accelerator-Karte nötig die sowohl zusammen mit Nvidia als auch ATI/AMD-Karten lief.

Alle Spiele die auf Gameworks basierten liefen auf AMD-Karten deutlich schlechter als es die Leistungsfähigkeit der Grafikkarten erwarten lies. Es mussten erst aufwendig Anpassungen gemacht werden, damit die Spiele entsprechend liefen.

Gsync-Bildschirme hatten durchwegs kein Freesync. Somit konnten alle die Gsync-kompatible Monitore hatten nicht einfach auf AMD wechseln, ohne auf Features wie Gsync oder Freesync zu verzichten. Den Schritt Freesync jetzt auch ihren Karten zu unterstützen, machte Nvidia noch nicht vor sehr langer Zeit. Interesannter weise ging es aber in Notebooks sehr wohl auch schon vorher.

DXR ist in DX12 enthalten.

Es gab schon Spiele die RT auf AMD erlaubten. CP77 hat jetzt erst das Feature freigegeben.

DX11 lief auf Nvidia besser als bei AMD. AMD kommt mit DX12 besser zurecht. Klar macht dann schon sinn die neue eigentlich performantere Schnittstelle nicht zu puschen. Sonst könnte der Mitbewerber ja Vorteile haben.
Fortschritt immer nur dann wenn man selbst profitiert. Und was bei AMD für DX11 gilt gilt bei Nvidia für DX12. Es hat vergleichweise ewig gedauert, bis DX12 auf Nvidia ahnlich performant war wie DX11. Das Nvidia immer noch leichte Treiberproblem bei DX12 hat, zeigen auch die neuesten Artikel zu dem Thema. Sie scheinen im Moment nur das Glück zu haben, dass die CPUs mit ihrer Leistung mittlerweile das Problem ausgleichen können.

Um ihr RTX-Feature unter DX verwenden zu können, brauchen sie DX12 und eine Windows10-Version , die das unterstützt.

Cunhell
 
cunhell schrieb:
@.Sentinel.

Es geht hier nicht um Samariter. Die Features inklusive dem kommenden DLSS-Alternative die AMD entwickelt (hat) stehen allen zur Verfügung. Die Sachen die Nvidia entwickelt sind alle Closed. Das ist ein Fakt.
https://developer.nvidia.com/gameworks-open-source
cunhell schrieb:
PhysX ist auf Nvidia-Hardware limitiert.
Nein- Du schreibst selbst:
cunhell schrieb:
Die CPU-only Version ist ne Krücke und ist selbst auf der CPU limitiert.
Wo ist das eine Krücke?
cunhell schrieb:
Selbst wenn eine Nvidia-GPU für PhysX neben einer AMD-Karte verwendet werden soll, wird das von Nvidia geblockt.
Nein- Nur die GPU Beschleunigung, die sowieso nur in wenigen Titeln einzug fand
cunhell schrieb:
Vor dem Kauf von Ageia gab es diese Limitierungen nicht und standen ALLEN uneingeschränkt zur Verfügung.
Du musstest ihre Beschleuniger kaufen... Siehe:
cunhell schrieb:
Es war nur eine Accelerator-Karte nötig die sowohl zusammen mit Nvidia als auch ATI/AMD-Karten lief.
Also ein Hardwarelock, welches Du bei NVIDIA aber plötzlich anprangern willst? Widerspruch?

cunhell schrieb:
Alle Spiele die auf Gameworks basierten liefen auf AMD-Karten deutlich schlechter als es die Leistungsfähigkeit der Grafikkarten erwarten lies.
Mit Nichten. Siehe Fallout 4.
cunhell schrieb:
Es mussten erst aufwendig Anpassungen gemacht werden, damit die Spiele entsprechend liefen.
Tesselation- Faktoren festsetzen?

cunhell schrieb:
Gsync-Bildschirme hatten durchwegs kein Freesync. Somit konnten alle die Gsync-kompatible Monitore hatten nicht einfach auf AMD wechseln, ohne auf Features wie Gsync oder Freesync zu verzichten.
Das weiss ich vor dem Kauf. Dennoch ist die Technik überlegen und auch die Anforderungen an zertifizierte Bildschirme sind deutlich höher.

cunhell schrieb:
Den Schritt Freesync jetzt auch ihren Karten zu unterstützen, machte Nvidia noch nicht vor sehr langer Zeit. Interesannter weise ging es aber in Notebooks sehr wohl auch schon vorher.
Die können mit ihren Produkten doch machen, was sie wollen? Sie entwickeln und investieren und müssen wie AMD damit Geld verdienen.
cunhell schrieb:
DXR ist in DX12 enthalten.
Ja
cunhell schrieb:
Es gab schon Spiele die RT auf AMD erlaubten. CP77 hat jetzt erst das Feature freigegeben.
Steht wo?

cunhell schrieb:
DX11 lief auf Nvidia besser als bei AMD. AMD kommt mit DX12 besser zurecht. Klar macht dann schon sinn die neue eigentlich performantere Schnittstelle nicht zu puschen. Sonst könnte der Mitbewerber ja Vorteile haben.
Entwicklung von DX12 nicht mitverfolgt? Die ersten Ergebnisse und Renderer mit DX12 und deren Performance gesehen? Wirtschaftlichkeit und Nutzen müssen abgewägt werden.
cunhell schrieb:
Fortschritt immer nur dann wenn man selbst profitiert.
Bingo- Das Wesen bzw. die Triebfeder des Fortschritts. Du stellst es aber so dar, als ob das eine Besonderheit/etwas negatives wär?

cunhell schrieb:
Es hat vergleichweise ewig gedauert, bis DX12 auf Nvidia ahnlich performant war wie DX11.
Es war schlichtweg nicht notwendig, auf DX12 zu setzen. DX11 hatte alles an Bord, was man braucht.
cunhell schrieb:
Das Nvidia immer noch leichte Treiberproblem bei DX12 hat, zeigen auch die neuesten Artikel zu dem Thema.
Sie müssen halt auch mal alte Zöpfe abschneiden.... Aber die liebe Kompatibilität....
 
@.Sentinel.

1.)Das Feature läuft auf der CPU auf einem Kern und ist extrem lahm.
2.)Ich kann die PhysX-Karte sowohl mit AMD, Nvidia und Intel nutzen und nicht nur mit Nvidiahardware
3.)Die Tessellation-Werte waren absolut übertrieben und konnten nicht im Menü eingestellt werden.
4.) Kaufte ich mir einen Gsync-Monitor weil ich gerade eine Nvidia-Karte habe konnte man bei einem Grafikkartenwechsel das Feature nicht nutzen und was noch erheblicher ist, auch Freesync nicht nutzen.
Man hätte also einen neuen Monitor kaufen müssen. Freesync bzw Adaptive Sync steht allen offen.
5.) Klar können sie mit ihrem Zeug machen was sie wollen. Allerdings widerspricht das nicht meiner Aussage, dass Nvidia properitäres Zeug produziert. Sie erzeugen eine künstlich eine technische Markenbindung die nicht nötig wäre. Das es eben nicht nötig wäre zeigten die Notebooks.
6.) z.B World of Warcraft Shadowlands konnte von anfang an DXR auf AMD. Weitere Spiele suche ich jetzt nich noch raus, da alleine schon WoW SL zeigt, dass DXR schon von Anfang an (Nov 2020) mit AMD RT kann.
Das es erst jetzt mit AMD RT gibt wil sie es nicht gebacken bekommen haben, ist damit widerlegt.
7.) Und schön das Du immer brav Nvidias hang zu DX11 verteidigst. Nvidia hat so lange DX11 mit ihrer Marktmacht gepuscht, bis sie selbst DX12 für DXR, ach nein, für Dich heisst es vermutlich RTX, brauchten.

So und nun hab ich keinen Bock mehr. Für Dich ist Nvidia der heilige Gral der mit seinem Schein alles kritische überstrahlt. So soll es sein. Wenn Du Dir Nvidias Firmenphilosophie so verinnerlicht hast, macht es eh keinen Sinn weiter zu schreiben.

Ich bin raus

Cunhell
 
  • Gefällt mir
Reaktionen: Colindo und Denniss
cunhell schrieb:
wäre ich an deiner Stelle schon lange, Fanatikern auf allen Seiten kannst du mit vernünftigen Argument leider nicht kommen denn das prallt an denen ab wie bei einer Teflon-Pfanne
 
F4711 schrieb:
Der Typ, von dem ich meine 6900 gekauft hatte, hatte auch eine 3080Fe (zum gleichen Preis).. hab mich für Team Rot entschieden.. ausschlaggebend für mich waren die bessere Effizienz (NT konnte bleiben)
Wegen 20W Mehrverbrauch bei der 3080FE hättest du dein NT tauschen müssen?
 
Taxxor schrieb:
Wegen 20W Mehrverbrauch bei der 3080FE hättest du dein NT tauschen müssen?
Lastspitzen! Und sie ist in meiner Auflösung von 1440 einfach schneller. RT hatte und spielt bis dato keine Rolle bei mir.
 
F4711 schrieb:
Screenshot 2021-04-09 233450.png

Screenshot 2021-04-09 233443.png
 
  • Gefällt mir
Reaktionen: Klever
Taxxor schrieb:
Und was willst du uns jetzt damit sagen? Es gab etliche Berichte über Abschaltungen.. das lies sich nicht ignorieren und aufgrund dessen hatte Igor ja auch die test Reihen durchgeführt. Ich habe damit jedenfalls mit meiner 6900er zum Glück keine Probleme (und sie bringt bei weniger Verbrauch mehr FPS auf den Schirm.. Das siehst du auf den gezeigten Graphen eben auch nicht) . Vom Speicherausbau habe ich da noch gar nicht gesprochen.
 
F4711 schrieb:
Und was willst du uns jetzt damit sagen? Es gab etliche Berichte über Abschaltungen.. das lies sich nicht ignorieren und aufgrund dessen hatte Igor ja auch die test Reihen durchgeführt.
Ich dachte eigentlich die Diagramme würden als Aussage auch ohne text ausreichen.
Es ging nur darum, dass sich die beiden Karten in ihrem Verbrauch nichts nehmen, egal ob im Schnitt oder in Lastspitzen. Das misst Igor übrigens bei jedem GPU Test und hatte nichts mit Berichten über Abschaltungen zu tun.

Zu sagen, das ein Netzteil welches für die 6900XT ausreicht wäre für eine 3080 zu schwach, passt halt nicht und suggeriert, dass AMD hier massiv effizienter wäre und man dadurch beim NT Kauf sparen kann.
Die Spitzen der 6900XT sind relativ zur TBP genau so hoch wie die der 3080, eben immer 15-20W drunter in den jeweiligen Messintervallen.

Igor empfiehlt übrigens in den Tests für die 3080 mit 430-450W zu kalkulieren, wenn man die Karte auf 370W PowerLimit einstellt, also ohne OC kann man mit 375-390W rechnen.
Bei der 6900XT empfiehlt er, mit 420W zu kalkulieren, wenn man die Karte auf 350W PowerLimit einstellt, also hier ohne OC ca 370W.

Also sofern ein NT nicht mit der 6900XT komplett auf Anschlag läuft und beim Anheben des Power Limits um 5% bereits abschalten würde, dann kommt es auch mit einer 3080 klar.
 
Zuletzt bearbeitet:
Wieviele Abschaltungen wurden durch 3080 und 3090 hervorgerufen und wieviele durch 6800/6900? Das thema kam vornehmlich durch den früheren Ampere Release auf und die hier auftretenden Probleme, weswegen dieser Makel Ampere anhaftet und weniger Big Navi. NV hat dann ja später durch software gegen gesteuert.
Ich hatte hierzu bei release von BN nichts vernommen, daher war da mehr Vertrauen in BN als in Ampere. Das Thema ist aber durch und braucht nicht weiter diskutiert zu werden.
 
Bin etwas enttäuscht selbst jetzt mit 5900X statt 1600X erhält man keine flüssiges 4K Bild mit RTX on welches besser aussieht als ohne RTX. 40Fps sind einfach zu wenig, vllt bin ich auch nach > 20h reines Testen ohne echtes GamePlay einfach nur müde geworden die richtige Einstellung zu finden xD. Immerhin kann man sich jetzt mal durch die World ballern ohne das man direkt nach 2 Sekunden GameOver ist, eigentlich eine Selbstverständlichkeit. Ich denke dieses WE werde ich mich in CyberPunk mal richtig einspielen und nicht nur rumgaffen :)
Gestern hab ich in einer Stunde mein 5900X testen jedenfalls nur die üblichen Bugs angetroffen. Aufpoppende und explodierende Items find ich teilweise eher lustig, passt natürlich Null zum Setting, Aufn Patch 1.3 warte ich jedenfalls nicht mehr, Vertrauen das sich da noch grundlegend etwas verbessert habe ich nicht mehr.

Ich hoffe das Gameplay stimmt jetzt jedenfalls.
 
David_B schrieb:
82% Marktanteil in Q4 für Nvidia spricht nicht unbedingt für die Konkurrenzfähigkeit von AMD... zumindest hat AMD nichts davon...

Sind sie auch selber schuld dran "soviele" RDNA2 chips wie AMD ausliefert...
Der FFSR running gag ist auch nicht förderlich, vor allem nicht nach der TBR nummer bei Vega10.
Der schlechteste launch einer GPU und absolutes PR-BS gelaber haben woch auch dazu beigetragen, aber ist zu vernachlässigen da RDNA ja eigentlich zur UVP ganz gut taugt.
AMD kann gerade froh sein das ampere ausverkauft ist durch die miner, mit der stückzahl bekommt man keine marktanteile.

Die ganze leugner hier das man keinen unterschied sieht bei RT, lächerlich. :lol:
 
Zuletzt bearbeitet von einem Moderator:
Shrimpy schrieb:
Die ganze leugner hier das man keinen unterschied sieht bei RT, lächerlich. :lol:
Naja bei manchen spielen ist es der Augenporno schlecht hin und bei manchen kann man Rt einfach nicht wahrnehmen. Aber für die Zukunft ist es meiner Meinung nach unerlässlich
Lg
 
  • Gefällt mir
Reaktionen: David_B
122messi122 schrieb:
Ja wirklich schade, dass AMD nach vielen Jahren wieder konkurrenzfähig ist. Wie schön wäre doch die Welt, wenn Nvidia ein Monopol hätte
Ja dem deady1000 darfst nix glauben, man könnte meinen er bekommt Geld von Lederjacke für sein gebrabbel...

Warten wir erstmal FSR ab, es soll ja auch anders ablaufen als DLSS, die werden das schon machen. Wer hätte vor 3 Jahren geglaubt das eine RX 6900XT die schnellste Grafikkarte am Markt sein wird.
 
what's shaking night city?

habe mit patch 1.1 angefangen und ~80 stunden ohne kritische bugs bei passabler performance (max settings, 1080p) die mainquest sowie einige sidequests abgeschlossen, 45-65 fps, was sich dank gsync auch im ~45 fps bereich überraschend geschmeidig angefühlt hat.

patch 1.2 hat die performance verschlimmbessert, nicht unbedingt messbar, aber deutlich spürbar (frametimes, gefühltes input lag) - textur und lod glitches traten zusätzlich stark vermehrt auf...

hotfix 1.2.1 fixt dies scheinbar, läuft bei mir merklich runder als 1.2 ... o.g. glitches habe ich nun in 3-4 std auf 1.2.1 gar nicht mehr gehabt und läuft recht smooth, so wie es auf 1.1 war.

keine game breaking bugs, 2-3 crashes in ~100 std total, im rahmen wie ich finde... dass reihenweise perks nicht (bzw immernoch nicht!) funzen ist allerdings fail, die "fahrphysik" geht in richtung slapstick und nichtmals in den outlands im matsch wird das bike dreckig bzw. keinerlei partikel fliegen durch die gegend...

^ derartige schlamperei, die sich bestenfalls nach alpha version/placeholder anfühlt, 2021, im meistgehypten AAA game ever? kaum zu glauben...

spaßig isses dennoch, bin gespannt was patches/dlc/mods in den nächsten monaten (bzw. jahren) noch aufpolieren können ... ne modding community wie skyrim, ein paar jahre zeit und ne grafikkarte der über-über nächsten generation wär halt nicht schlecht^^
 
Zurück
Oben