• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Ratchet & Clank: Ersteindruck zum Start ohne Raytracing auf Radeon RX

Mcr-King schrieb:
Auf dem PC auch nicht
Der Test sagt was anderes. Offensichtlich :rolleyes:
Mcr-King schrieb:
und RTX IO ist wohl auf dem PC eine Lachnummer
In Ratchet and Clank - das nahezu 1:1 von der Konsole übernommen wurde.
Hier würde ich mich eher über eine höhere Renderauflösung + Bildwiederholrate freuen, als über eine vernünftige Integration von Features die nur am PC ausreichend schnell laufen.
Mcr-King schrieb:
wie gesagt Direct Storage ist noch weit weg von der Konsole.
Das machst du anhand der paar kleinen Ruckler fest, die hier ohne jeglichen Nachweis auf DirectStorage (mit einer PCIe 4.0 SSD) geschoben werden? :p Gibt es dafür auch eine vernünftige Quelle?
Mcr-King schrieb:
Ergänzung ()

Mcr-King schrieb:
Naja die meisten TV können nicht mehr und alles ab 35 FPS ist dank Freesync und LFC flüssig.
:lol:
Ergänzung ()

e_Lap schrieb:
Spiele es mit allem auf Max. Mit Frame Generation 144fps im Lock.

Auf PS5 bereits Platin geholt, aber das ist gerade nochmal ein neues Erlebnis. Unglaublich.
Wie kommt das dann zustande @Mcr-King? :p
Ergänzung ()

Flynn74 schrieb:
Jo, schon interessant dass die PS5 bei den Rifts einen HighEnd PC outperformed.
Die PS5 schafft es doch nicht einmal das Spiel nativ in 4K zu rendern :confused_alt: Dazu gibt es 40-60FPS …
Aber gut, jedem das Seine, dafür spart man natürlich Geld …
Ergänzung ()

Flynn74 schrieb:
Mmhh, sicher dass der Titel DirectStorage richtig nutzt? Also bei mir (5950X, WD SN850X, STRIX 4090) sind die Ladezeiten unerwartet lang. Das Spiel ist witzig, aber was die Ladezeiten angeht...hätte ich mehr erwartet. Bzw. halt weniger. Bei Portalsprüngen wird durchaus öfters mal ein paar Sekunden geladen. Nix mit instant-jump. Und das wo ich beim vor ein paar Tagen hier veröffentlichten DirectStorage Benchmark mit 8GB Texturen mit 0,3 Sekunden eigentlich im oberen Feld mitspiele.
Glaube eher der Entwickler muss hier nachbessern, in anderen Spielen gibt es so etwas ja auch nicht ;)
 
Zuletzt bearbeitet:
gustlegga schrieb:
@Taxxor Kann natürlich auch sein, ja. :D

Dreist fand ichs damals bei Tom Clancy´s HAWX , das mir DirectX 10.1 rauskam.
...
Wurde dann mehr oder weniger über Nacht, nach Intervention von Nvidia (natürlich inoffiziell) mit dem nächsten Update rausgepatcht mit der Begründung von Codemasters man könne die Stabilität nicht garantieren.
Ist das so? Meines Wissens war dort der letzte Patch die 1.02 in der der DX10.1 Pfad aber noch enthalten war.
Zudem wurde es nicht von Codemasters entwickelt - Das hattest Du ja korrigiert.
Somit wäre eine Quelle für diese Behauptung hilfreich.

Du lieferst nur Quellen für Asassins Creed. Und dort waren die Grafikfehler (fehlen eines Renderpasses im Post- Processing, weswegen die Radeons unter Anderem schneller waren) nachweisbar da. Kannst Du heute noch mit entsprechender Revision überprüfen.

Wenngleich ich auch dazu sagen muss, dass der Effekt meist minimal bis nicht vorhanden war und man somit die Option als nette Beschleunigung hätte integriert lassen können.

In die Statistik von Ubisoft wegen Meldungen über grafische Fehler wird leider keiner reinschauen können.
Insofern weiss man auch nicht, ob da nicht wirklich einfach eine Reissleine gezogen wurde, wenn der Zugriff auf den Depth- Buffer (eine der Haupt- Optimierungen dafür unter DX10.1) vielleicht nicht auf allen Karten gleich sauber lief.

Man hätte auch einfach einen Schalter einbauen können, der einem auch auf den NVIDIA Karten die Möglichkeit lässt, Teile des Post- Processings anzupassen.
 
Zuletzt bearbeitet:
Selbst auf einer 4090 haben die sehr hohen Texturen massive Auswirkungen auf die Frametimes:
1690532968931.jpeg

https://twitter.com/CapFrameX/status/1684600104064299008

Am Ende läuft es wahrscheinlich unter Linux ohne DirectStorage besser... 😂

Bildvergleich:
https://imgsli.com/MTk0NjEw
 
  • Gefällt mir
Reaktionen: Mcr-King, Jan, FLCL und eine weitere Person
Mcr-King schrieb:
Auf dem PC auch nicht und RTX IO ist wohl auf dem PC eine Lachnummer wie gesagt Direct Storage ist noch weit weg von der Konsole.
Das hat mir direct storage nicht so viel zu tun. Es ist nun einmal so, dass für I/O operationen der Unify- Speicher der Konsolen ERHEBLICHE Vorteile bietet, die Du derzeit auch mit noch so guter PC Hardware kaum erschlagen kannst:
1690536551236.png


Du hast für IO dedizierte und spezialisierte Einheiten, die auf Gaming Workloads ausgelegt sind.
Alles mit dem Ziel die Latenzen so niedrig wie möglich zu halten und den Durchsatz möglichst konstant.

Im Gegensatz zur PC Architektur schreibst Du die benötigten Daten zudem direkt in den Unified RAM, der zugleich auch als VRAM dienen kann. Mit beliebiger option Speicherseiten in beliebige Speicherbereiche einzublenden.

Direct Storage bzw. RTX IO ist in der aktuellen Version immernoch gezwungen den Weg erst über den RAM zu gehen und wird von dort erst dann Richtung Grafikkarte übertragen. Man legt also den doppelten Weg zurück, was man zwar bandbreitentechnisch durch erhöhten Durchsatz abfedern kann, an den so wichtigen Latenzen ändert das aber nichts.

1690536915589.png


Es hat einen guten Grund, warum die Speichertechnologien bei PS5 und der neuen XBOX in der Technikwelt gefeiert wurden...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: B.L. Swagger, Master_Chief_87, Dittsche und 5 andere
Ergänzend zu meinem Ersteindruck:
https://www.computerbase.de/forum/t...aytracing-auf-radeon-rx.2151651/post-28432098


RT Schatten und RTAO kann/sollte man aktuell eher deaktivieren.
RTAO ist zwar an einigen Stellen eine Verbesserung, allerdings gibts dann im Gras kaum noch Verschattung. Man merkt ganz deutlich dass die Optik auf das klassische SSAO abgestimmt ist.

RT Schatten sind technisch ganz nett, allerdings liegen dadurch dann oft große Bereiche komplett im Schatten, wodurch das Spiel dann stellenweise „langweilig“ aussieht, während ohne die RT Schatten die Szene komplett anders und mMn. deutlich stimmiger aussieht. Man merkt auch hier dass die Entwickler die Szenen ohne RT Schatten designed haben und die RT Schatten den gewollten Look zerstören können.

Zudem gibts einen Bug, bei dem die Spiegelungen auf Wasseroberflächen verschwinden, wenn was anderes als SSAO eingestellt ist oder wenn RT AO oder RT Schatten aktiv sind.
Anscheinend wurden die Probleme aber mit dem heutigen Hotfix bereits behoben (Hab ich noch nicht getestet)


Die Texturen laden stellenweise nicht vollständig. Das kann man kurzzeitig fixen wenn man die Texturen auf hoch und wieder zurück auf Sehr Hoch stellt. Allerdings hatte ich auf meiner 4080 nie so eine Matsche wie im Digital Foundry Video auf der 4090 gezeigt. Tatsächlich fällt es bei mir kaum auf, wenn die vollen Texturen nicht geladen werden, da die Texturen fast immer sehr gut, und praktisch perfekt aussehen selbst wenn sie nicht die volle Detailstufe zeigen, weil die vollen Texturen oft einfach nur irrsinnig hoch aufgelöst sind (oft so hochauflösend und so feine Details, dass man es selbst auf einem 4K Display eigentlich erst im Fotomodus richtig erkennen kann. Ich vermute, dass das Spiel bei mir oft einfach die High Texturen zeigt). Komischerweise ändert sich nichts an der VRAM Belegung wenn die vollen Texturdetails nach dem beschriebenen Workaround sichtbar sind. Ist also wohl wirklich ein Bug.


Anisotropische Filterung funktioniert nicht, lässt sich aber einfach mit erzwungenem 16x AF im Grafiktreiber korrigieren. (Wurde laut Patchnotes auch mit dem heutigen Hotfix schon behoben)


Frame Generation scheint auch etwas verbuggt zu sein und erzeugt ungewöhnlich viele Artefakte in Bewegung (wenn man die Kamera schnell links und rechts dreht). Ist mit Sicherheit ein Bug oder eine Unstimmigkeit bei der Implementierung, da ich das so in noch keinem Spiel gesehen habe. Mit Motion Blur auf Stufe 10 ist mir das aber anfangs überhaupt nicht aufgefallen. Mit deaktiviertem Motionblur sticht es aber deutlich ins Auge. Und ja, bei dem Spiel bleibt das Motion Blur bei mir an, sieht klasse aus. :p

Dafür sieht das DLSS Upscaling sehr gut aus. Selbst der Ultra Performance Modus sieht in 4K verblüffend gut aus, dafür dass es nur 720p intern sind. Ich dachte erst das die Einstellung nicht funktioniert, aber sie tut es... Irgendwie scheint die Qualität schon wieder besser geworden zu sein. Kann auch Einbildung sein, jedenfalls hätte ich tatsächlich kein Problem, das Spiel notfalls so durchzuspielen, wenn die Performance nicht reichen würde. FSR ist wie gewohnt schlechter als DLSS, man sieht wieder häufiges "grisseln". Da würde ich das spieleigene Temporal Upscaling von Insomniac Games sogar vorziehen, denn das sieht ziemlich sauber aus.


Zusammengefasst kann man also sagen, der Port ist an sich gelungen und läuft performancemäßig sehr gut. Mir sind weiterhin keine Nachladeruckler oder dergleichen aufgefallen bis auf ein paar Frametime Ausreißer bei den Portalsprüngen, die man auch in jedem PS5 Video sieht. Auch die GPU Performance ist sehr gut. Scheint also einwandfrei optimiert zu sein. Mit der 4080 war ich gestern ohne RT AO und ohne RT Schatten, jedoch mit RT Reflexionen in 4K nativ ohne Frame Gen schon im 120 FPS Limit. Ich denke das passt.

Wenn die genannten Kinderkrankheiten und die Abstürze von denen viele sprechen (hatte bisher noch keinen Absturz) behoben sind, dann wird das als gelungener Port im Gedächtnis bleiben.


Das einzige was vielen Bauchschmerzen machen dürfte ist die relativ hohe VRAM Nutzung selbst mit reduzierten (Textur)Details. 8 GB GPUs haben wohl ein Problem. Da bin ich wirklich auf die ersten Tests und Analysen gespannt. Vor allem auf das Digital Foundry Video, um zu sehen, wie sich eine RTX2070S mit 8 GB gegen die PS5 bei gleichen Settings schlägt. Ich fürchte, das geht nicht gut für die 2070 aus... Das wäre wirklich Mist...

Ach ja und unbedingt das Spiel neustarten, wenn man Grafikeinstellungen ändert. Sonst wird die Performance nach ein paar mal umstellen immer schlechter bis zur Unspielbarkeit.
Aber das war schon bei Spider-Man so. Manche Engines können das on-the fly wechseln halt leider nicht ab... Zumindest sieht man aber so sehr schön, was sich grafisch am Bild ändert, wenn man was umstellt.



@.Sentinel.
Hab gestern irgendwo einen Post gelesen, dass bei Ratchet and Clank nur 1,2 GB/s an Daten von der SSD gelesen werden. Hat wohl jemand mit HWinfo geprüft.

Digital Foundry konnte ja mit einer schnelleren SSD auch keine schnelleren Ladezeiten mehr erzielen. Als würde da irgend was anderes limitieren.
Ich bezweifle daher, dass es wirklich an Direct Storage liegt.

Kann natürlich sein, dass die PS5 trotzdem schneller ist, ich will der Konsole diesen Vorteil nicht absprechen und sehe auch, dass das eine sehr effiziente, maßgeschneiderte und clevere Lösung ist. Dass die Datenrate am PC aber angeblich so gering ist, deutet darauf hin, dass hier etwas nicht ganz optimal läuft.

So oder so ist es aber zumindest in diesem Spiel ja kaum bemerkbar. Die gesamte Testsequenz im Intro mit den vielen Portalsprüngen dauert halt insgesamt ein wenig länger. Subjektiv gibt es da kaum einen Unterschied, man sieht es nur im direktvergleich, dass es auf der PS5 schneller geht. Da die kurzen Ladepausen optisch gut kaschiert werden ist es in dem Spiel auf jeden Fall ein non-issue.

Trotzdem natürlich schade, dass wir am PC mit solcher Hardware nicht auch bessere Ergebnisse als auf PS5 erzielen und das macht natürlich gewissermaßen "sorgen" was da denn schief läuft und ob es vielleicht wirklich am PC nicht schneller geht. Warten wir mal die ersten Patches ab....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lurtz und Mcr-King
Stürzt mit der 4070 TI in 4k maximalen Details DLSS direkt ab. Schade Leistung wäre da. Also muss man wie bei the Last of US erstmal auf Patches warten. Ich bin nicht bereit auf wqhd runter zu gehen.

Will jemand seine 7900xtx gegen eine 4070 TI tauschen?
 
  • Gefällt mir
Reaktionen: Mcr-King
Experte18 schrieb:
Stürzt mit der 4070 TI in 4k maximalen Details DLSS direkt ab.
Muss am System liegen. Schwirren genügend Videos im Netz mit 4070ti rum (auch max, auch 4K). Sollte also nicht an der Grafikkarte liegen.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Experte18 schrieb:
Stürzt mit der 4070 TI in 4k maximalen Details DLSS direkt ab. Schade Leistung wäre da. Also muss man wie bei the Last of US erstmal auf Patches warten. Ich bin nicht bereit auf wqhd runter zu gehen.

Will jemand seine 7900xtx gegen eine 4070 TI tauschen?

Eine 12 GB vram Karte zu kaufen wenn du 4k spielen willst, ist eventuell auch ein bisschen falsch kalkuliert. :)
 
  • Gefällt mir
Reaktionen: WilloX1980, up.whatever, Mcr-King und 2 andere
.Sentinel. schrieb:
Muss am System liegen. Schwirren genügend Videos im Netz mit 4070ti rum (auch max, auch 4K). Sollte also nicht an der Grafikkarte liegen.
Interessiert mich jetzt mal selber und werds heute Abend testen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Czk666 schrieb:
Eine 12 GB vram Karte zu kaufen wenn du 4k spielen willst, ist eventuell auch ein bisschen falsch kalkuliert. :)
Gab für 900 Euro halt keine Alternative. Und mehr als 1000 Euro bezahle ich aus Prinzip nicht.
Ergänzung ()

.Sentinel. schrieb:
Muss am System liegen. Schwirren genügend Videos im Netz mit 4070ti rum (auch max, auch 4K). Sollte also nicht an der Grafikkarte liegen.

Bei ihn stürzt es zwar nicht ab, aber es ist eine reine ruckelorgie auf der 4070 TI. Traurig Nvidia. Und dann fleißig die Werbetrommel für DLSS 3 werben was auch nochmal extra vram frisst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Czk666 und Mcr-King
Experte18 schrieb:
Bei ihn stürzt es zwar nicht ab, aber es ist eine reine ruckelorgie auf der 4070 TI.
Ruckelorgie? Hier auf 4k (11.1GB VRAM):

Hier auf 1440P (10.6GB VRAM)

Wobei derzeit wahrscheinlich sogar noch ein VRAM Leak vorliegt, der alle Karten betrifft.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Ruckelorgie? Hier auf 4k:

Hier auf 1440P
Guck dir Mal die frametimes an. Smooth ist hier was anderes. Da wären auch noch mehr FPS drin wenn der vram nicht randvoll wäre. Hier gibt es nicht zu relativieren. Nvidia hat einfach versagt bei der vram Abzocke.
 
  • Gefällt mir
Reaktionen: Czk666, Dittsche und Mcr-King
Lurtz schrieb:
Selbst auf einer 4090 haben die sehr hohen Texturen massive Auswirkungen auf die Frametimes:

@Taxxor
Sind die Benches von dir?

Wurde das Spiel zwischen den Tests komplett neu gestartet?

Wie ja bekannt ist, verschlechtert sich die Performance beim wechseln von Settings. Selbst neu laden des Spielstandes hilft da nicht immer.


EDIT: Hätte ich auch selbst sehen können. Wenn man auf Datum und Uhrzeit der beiden Testläufe schaut, dann wurde das Spiel nicht neu gestartet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Experte18 schrieb:
Hier gibt es nicht zu beschönigen wenn man keine fanboy Brille auf hat.
Man muss kein Fanboy sein, um auf den von mir verlinkten Sequenzen erkennen zu können, dass es weit entfernt von einer "Ruckelorgie" ist.
Zumal man auch eindeutig erkennen kann, dass die CPU ab und zu ins Limit läuft.
 
  • Gefällt mir
Reaktionen: Experte18
Damit sind wir wieder beim Kaufen zum Lunche würde ich heute niemals wieder machen lieber im Sale mit allen Patches und gut ist es.
 
Mimir schrieb:
@Taxxor
Sind die Benches von dir?
Nein, ich poste nix auf dem Account. Wenn da Material von mir gepostet wird, wird das in den tweets explizit erwähnt
 
  • Gefällt mir
Reaktionen: Mimir
Mimir schrieb:
Zudem gibts einen Bug, bei dem die Spiegelungen auf Wasseroberflächen verschwinden, wenn was anderes als SSAO eingestellt ist oder wenn RT AO oder RT Schatten aktiv sind.
Anscheinend wurden die Probleme aber mit dem heutigen Hotfix bereits behoben (Hab ich noch nicht getestet)
Das hatte ich gerade auch mit dem Hotfix noch.
 
  • Gefällt mir
Reaktionen: FLCL und Mimir
FSR verpixelt die Grafik stellenweise ganz gerne, die letzten beiden dagegen neigen zum Schmieren – Intels DP4a-Version auf Non-Arc-Grafikkarten zum Teil sogar enorm.

Es gibt eine Schärfe und Filmkornstärke Option. Für XeSS dp4a bietet sich etwas im Bereich 2-5 an. Das nimmt die leichte Unschärfe dezent raus und sieht imho sehr gut aus. FSR habe ich auch getestet, das sieht schon im Original schärfer aus, ich würde sagen zu scharf/verpixelt. Es fällt wieder auf, dass die temporale Stabilität von FSR nicht mit der von XeSS mithalten kann, es wirkt insgesamt unruhiger. DLSR kann ich nicht testen auf einer GTX 1080. XeSS mit kleiner Schärfeanpassung ist für mich die beste Option.

NV Reflex soll auch diese Haker verursachen habe ich gelesen.
 
Rockstar85 schrieb:
Dann sollte Starfield ja ebenso wenig zur Debatte stehen ;)
Volkers Screenshot ist schon witzig... als hat das als 9 jähriger Fanboi geschrieben. Finde schon witzig, wie hier mit zweierlei Maß gemessen wird. Und immer sind es leider wieder die gleichen

Wie oft muss man Dir eigentlich etwas erklären?

Starfield - AMD-sponsored Titel- kein DLSS wie in vielen AMD-sponsored Titeln
Ratchet&Clank - KEIN Nvidia-sponsored Titel - hat DLSS, FSR, XeSS, RT für Intel und Nvidia und bald auch AMD wenn die Treiber Bugs gefixed sind

Man kann hier mit zweierlei Maß messen weil es zwei grundsätzlich verschiedene Titel sind, der eine mit Sponsor, der andere ohne...
 
  • Gefällt mir
Reaktionen: MarcoHatFragen
Zurück
Oben