Test Ratchet & Clank: Rift Apart im Test: Benchmarks mit AMD und Raytracing mit neuen Treibern

syfsyn schrieb:
Dlss oder besser eine bessere supersampling dll kann bis zu 75% mehr fps bereitstellen das fußt aber auf einen algo der die Texturen klein rechnet (Die Qualität ändert sich nicht) und diese dann größer auszugeben.
DLSS passt nur den Textur- Bias an. Grundsättlich lässt es die Texturen unberührt.
Es muss aber dem Renderer mitteilen, dass es die Auflösungsstufe der Zielauflösung nutzt und nicht die der Abtastauflösung der Szenengeometrie, die bei DLSS niedriger ausfällt.
syfsyn schrieb:
Allerdings ist nvidia algo besser.
Das betrifft aber nur Qualität Modus in perf und balanced Modus geben die sich nix
DLSS2.x ist in den letzteren Versionen gerade im perf und balanced Modus dramatisch besser geworden und hat sich von FSR und FSR2 qualitativ abgesetzt.

syfsyn schrieb:
Das native Bild eines spiels abhängig vom design ist hier entscheidend wenn ein spiel in 720p designt wurde kann man noch so viel aa dazufügen es wird nie ohne ecken sein in der schräge.
Da komm ich nicht mit... Computerspiele werden heutzutage grundsätzlich auflösungsunabhängig designt. Das allein schon aus Portabilitäsgründen. Man arbeitet dort mit Vektordaten.
Die Szenendaten liegen ja grundsätzlich in theoretisch unendlicher Auflösung vor. Das Rastern macht ja nichts anderes, als diese unendliche Auflösung in das Zielauflösungsraster zu quetschen.

syfsyn schrieb:
Im übrigen die tmu einer gpu berechnen die polygone die mit den pixel von den rop gefüllt werden.
Die TMU versieht die Polygone einer Szene perspektivisch korrekt verzerrt mit den Textur- Tapeten.
Die ROP ist die letzte Instanz, welche alle Daten vor dem Schreiben in den Ziel- Framebuffer berechnet/zusammenführt.

syfsyn schrieb:
Die shader berechnen lediglich die Effekte Reflexionen Spiegelungen Beleuchtung und schatten und genau das zieht die meiste perf.
Shader sind programmierbare Farbwertmanipulatoren. Da sind der Fantasie fast keine Grenzen gesetzt, was die alles berechnen sollen. Das beschränkt sich nicht nur auf Reflexionen, Beleuchtung und Schatten.
Aber ja- Das zieht die meiste Performance.
 
  • Gefällt mir
Reaktionen: JohnWickzer, incurable, ComputerJunge und eine weitere Person
Also wen es interessiert: Ich erhalte (in anderer Szene) nach neuestem Patch mit meinem Laptop
(Intel i9-11980HK, RTX 3080, 16GB VRAM, 140W, 32GB RAM) unter anderem folgende Werte:

Raytracing ist dabei immer auf Maximum eingestellt.

Max. Settings, DLSS OFF, 1080p --> +/-60 FPS (avg)
Max. Settings, DLSS Quality, 1080p --> +/-90 FPS (avg)
Max. Settings, DLSS OFF, 1440p --> +/-45 FPS (avg)
Max. Settings, DLSS Quality, 1440p --> +/-65 FPS (avg)

Hier das Video:

Gelegentlich reagiert plötzlich die GamePad Steuerung (Original Xbox Controller) nicht mehr. Nachdem ich dann kurz zum Desktop wechsle, funktioniert es dann auch gleich wieder. Das sollte eigentlich noch behoben werden..
 
Zuletzt bearbeitet:
domian schrieb:
Dieser Erklärungsversuch ist absolut hanebüchen. Dann lasst auch das Topmodell 7900XTX von AMD weg. Entweder ihr testet mit dem Topmodell jedes Herstellers oder nicht.

Sollte AMD mal die schnellste GPU liefern, nehme ich an, die wird dann auch aussen vor gelassen.
Ziemlich hanebüchen ist denke ich dein Argument.
Ein Top-Modell mit einem Top-Modell zu vergleichen, nur weil es eben "das Flaggschiff" ist, ist völliger Blödsinn. Konkurrierende Modelle werden schlussendlich über den Preis festgelegt, nicht die Geschwindigkeit. Ähnlich teure Modelle sind daher direkte Konkurrenzmodelle und im Interesse. Wenn einer ein Top-Modell hat, das deutlich besser ist, ist das schön und interessant, für den direkten Vergleich aber völlig egal. Nach deiner Logik müsste man auch 500 Euro Grafikkarten mit 5.000 Euro Grafikkarten vergleichen, solange beide das Flaggschiff sind. Das ergibt doch gar keinen Sinn.

Mit AMD und Nvidia hat das absolut nichts zu tun, das gilt für jeden.
 
  • Gefällt mir
Reaktionen: Redundanz, Pleasedontkill und Ghostfacekalle
Am besten immer nur 7900XTX, 4090 und A770 Vergleichen ;)

Man sollte schon immer im jeweiligen segment vergleichen, anders hat das doch keine Bedeutung und man sieht vorallem so Klasse wie viel Performance man für das Geld bekommt^^
 
  • Gefällt mir
Reaktionen: Redundanz
Wolfgang schrieb:
Ähnlich teure Modelle sind daher direkte Konkurrenzmodelle und im Interesse.
Zwischen 4080 und 7900 XTX liegen mehr als 20% Preisunterschied. Ist das noch "ähnlich teuer" genug, oder wird bald auch die 4080 aussortiert wenn die 7900 XTX weiter im Preis fällt?

Wolfgang schrieb:
Nach deiner Logik müsste man auch 500 Euro Grafikkarten mit 5.000 Euro Grafikkarten vergleichen, solange beide das Flaggschiff sind. Das ergibt doch gar keinen Sinn.
Warum nicht, wenn sie gleichzeitig auf dem Markt sind? Du hast doch selbst in diesem Test Intels und AMDs Flagschiff getestet, obwohl da +/- Faktor 3 im Preis dazwischen liegt. Was disqualifiziert demgegenüber das Flagschiff vom Marktführer?
 
Ich orientiere mich da eher an der UVP, solange diese nicht völlig frei erfunden sind. Einfach eben deswegen, damit sich die Verhältnisse nicht andauernd verschieben. Das ist natürlich auch nicht unendlich weiter fortzuführen, aktuell sehe ich da aber kein Problem drin. RTX 4080 und RX 7900 XTX konkurrieren direkt miteinander, wenn auch zu etwas anderen Preisen/Fähigkeiten. Die Karten stehen trotzdem direkt gegeneinander.

Zu deinem zweiten Zitat: Da der Informationsgehalt einfach viel geringer, bzw. der Informationsgehalt viel schwerer zu erfassen und begreifen ist, wenn ich 2 so unterschiedliche Grafikkarten wie die RTX 4090 und die RX 7900 XTX gegeneinander stelle. Das ist natürlich kein Problem wenn auch die RTX 4080 da wäre, aber die würde ja wegfallen.

Und dann hätte ich ein Problem. Die Karten haben halt absolut nichts miteinander zu tun, weder im Preis, noch der Performance, noch irgendwas anderes. Das wird dann richtig komplex, wenn man trotzdem korrekte Informationen daraus ziehen will (ich meine jetzt nicht, die 4090 ist x Prozent schneller als die 7900 XTX, sondern eher drauf, wie sich RDNA 3 und Lovelace zueinander verhalten). Darum ist das einfach kein sinnvoller Weg.
 
Wäre trotzdem nice eine 4090 dabeizuhaben damit man sieht ob sie eventuelle fps Limits noch packt. Je nach Game kann sie schon mal 4x% schneller sein als eine 4080, weiß man so halt nie.
 
Genau nehmt die 4090 mit rein.
Immerhin wollen die 4090 besitzer schließlich sehen das sie den längsten haben.
Für irgendwas muss die 2000€ investition schließlich gut gewesen sein.
 
Taxxor schrieb:
Noch ist RT der Zusatz, der Weg geht aber eben dahin, dass das Rastern irgendwann komplett wegfällt.
Die RT Entwicklung ist auch nur deshalb gerade so „langsam“, weil man die Karten weiter zusätzlich mit massig Hardware fürs Rastern vollstopfen muss
Intel hat mal über so eine RT Karte berichtet die da kommen sollte. Das aber zu einer Zeit weit bevor NVidia auch nur die Blueprints der RTX hatte.
2008 :
https://www.pcgameshardware.de/Far-...gt-Video-als-Beispiel-fuer-Raytracing-638713/
2011 :
https://www.intel.com/content/www/u...bree-photo-realistic-ray-tracing-kernels.html
Vielleicht wird die Idee nochmal aufgegriffen, aber da fehlt noch soviel an Standartisierung.
Und mit Alleingängen ala NV werden es sicher nicht die richten.
Aber, die sind jetzt sowieso eine KI Firma.
Ergänzung ()

JohnWickzer schrieb:
hä was laberst du da? Also wenn du das so interpretierst, brauch ich gar nicht darauf einzugehen^^
Bei der Performance kommt in erster Linie auf die Karte an.

Treiber und deren Features sind AMDs seit Jahren um längen besser, resp. muss man Zusatzsoftware installieren um mitreden zu können.

Hast du OBS, MSI Afterburner, Rivatuner, Experience, RTX Voice nachinstalliert, kommst du doch auf Augenhöhe.

Was braucht man um games vom PC zum streamen, geht das auch vom NV Treiber aus?
 
Zuletzt bearbeitet:
Taxxor schrieb:
Und dass es mind. 12GB braucht für 4K inkl Upsamling, wurde im regulären Test erwähnt.
ja aber da reichen auch die 10GB der 3080 noch, und sogar die 3060ti-8GB verliert nicht wirklich Leistung in UHD, mit RT fehlt der 3080 aber eindeutig Speicher, eine 12GB Nvidia Karte wäre daher schon interessant, ob die noch reichen oder eben auch schon zu wenig sind
Ergänzung ()

Grimba schrieb:
Vorteile und Nachteile gibt es mit beiden Einstellungen.
Ja sicher, aber gerade auch wegen dem VRam wäre natives 4k interessant.
mit DLSS reichen sogar die 8GB der 3060ti für 4K ohne RT.
mit RT aber reichen dann selbst die 10GB der 3080 nicht mehr.
würde CB nativ testen denk ich dürfte selbst der 3080 ohne RT schon der Speicher in 4K ohne RT knapp werden. was einem dann besser gefällt kann ja jeder selbst entscheiden, natives 4K gehört aber zumindest mit aufgeführt
 
Zuletzt bearbeitet:
Icke-ffm schrieb:
ja aber da reichen auch die 10GB der 3080 noch, und sogar die 3060ti-8GB verliert nicht wirklich Leistung in UHD, mit RT fehlt der 3080 aber eindeutig Speicher, eine 12GB Nvidia Karte wäre daher schon interessant, ob die noch reichen oder eben auch schon zu wenig sind
Mit RT, worum es in dem Test hier geht, reichen die 10GB eben nicht und das hat man halt im ersten Test schon gesehen und es wurde auch erwähnt dass es ab 12GB läuft. Sieht man ja an der 4070 im ersten Test
 
Zurück
Oben