Bericht Nvidia GeForce RTX 4000: Weitere Details zu Architektur, DLSS 3 und Founders Editions

Pisaro schrieb:
Einmal der Staat der nicht in der Lage ist einige Berufe besser/fairer zu bezahlen, aber auch die Arbeitnehmer die sich in ihrem Job weiter im Kreis drehen.
Wir haben in D Tarifautonomie, das heißt, der Staat hat sich bei der Höhe von Löhnen und Gehältern rauszuhalten, das machen Arbeitgeber und Arbeitnehmer unter sich aus, letztere durch eine Gewerkschaft.
Der Staat greift sich aber massenhaft Kohle bei den Arbeitnehmern in Form von Steuern ab und verringert so das Einkommen der Menschen um einen signifikanten Anteil.
 
Nolag schrieb:
Jensen sagt im Video, dass die berechneten Frames "intermediate" Frames sind, und damit also dazwischen liegen. Eine Extrapolation ist auch sehr unwahrscheinlich, weil es damit am Bildrand zu massiven Fehlern in der Vorhersage kommen kann.

Das mit den "intermediate frames" steht auch so bei nVidia auf der DLSS 3 Webseite...

For each pixel, the DLSS Frame Generation AI network decides how to use information from the game motion vectors, the optical flow field, and the sequential game frames to create intermediate frames. By using both engine motion vectors and optical flow to track motion, the DLSS Frame Generation network is able to accurately reconstruct both geometry and effects, as seen in the picture below.

With DLSS 3 enabled, AI is reconstructing three-fourths of the first frame with DLSS Super Resolution, and reconstructing the entire second frame using DLSS Frame Generation. In total, DLSS 3 reconstructs seven-eighths of the total displayed pixels, increasing performance significantly!
 
  • Gefällt mir
Reaktionen: ragnarok666, Mimir und leonM
Suspektan schrieb:
Das Problem ist auch nicht nur der Chip selbst, sondern die Grafiktreiber.
Da ich 4 Major Updates von Samsung bekomme und noch n 5. Jahr Sicherheitspatches juckt mich das wenig.
Bis dahin ist der Akku flach und dass Qualcomm 4 Jahre+ Treiber supportet würd ich auch bezweifeln.
 
@RogueSix

Also wen sie die aktuellen Engine-Motion-Vectoren und die Auswertungs-Motionvectoren der nachfolgenden Bilder für die Zwischenbilder verwenden, so ist das aktuell(zur Laufzeit) erzeugte Render-Bild auch Zeitversetzt, da dieses noch warten muss bis die Zwischenbilder erzeugt und ausgegeben wurden.
 
Chismon schrieb:
Eventuell kommt ab RTX 4070Ti (abwärts) ja kein 12-Pin Stecker mehr zum Einsatz,
Grundsätzlich wäre der Stecker quer durch alle GPU Kategorien wünschenswert, weil nur so schnell die alten Stecker verschwinden werden. Sonst bleiben uns die alten Netzteile noch viele Jahre lang erhalten und wir müssen uns noch weiter mit klobigen Steckern und Adaptern herumschlagen.
 
Nolag schrieb:
Es hätte auch eine Lösung mit Vorhersage geben können. Sowas wie:

Prüfe aktuelle Engine-Motion-Vectoren + Motion-Vectoren von zuvor erstellten Bildern(die Deutung des Verlaufs). Dann, wenn neue Engine-Vectoren im Vergleich zu ausgewerteten Bildverctoren vorhanden, dann warte auf Renderbild, sonst erzeuge neues Zukunftsbild. So könnte man Fehler bei der Vorhersage vermeiden. Ist jetzt ein ganz simple Erklärung wie man sowas vielleicht für die Vorhersage machen könnte
 
Ich sehe nicht, wie das das Problem löst, dass bei Kamerabewegung mit Extrapolation praktisch immer am Bildrand Informationen fehlen, die durch die AI kreativ gefüllt werden müssten. Eine solcher Ansatz würde immer zu einer sehr schlechten zeitlichen Stabilität an den Bildrändern führen.
 
Da hast du schon recht, vielleicht würde es gehen, wenn man zwei Bilder in verschieden FoV rendern würde(das reale mit original FoV-Einstellung und eins um ..% erhöhte) , dadurch würde man mehr Informationen aus den Bildrändern erhalten und somit eine bessere Vorhersage machen können. Oder sowas in der Art, wobei diese Informationen nicht auf dem original Renderbild sind und man somit es nicht rekonstruieren kann, da das um..% erhöhte nicht für ein neues Bild gedacht ist, da anderes FoV. Naja, meine Logik scheitert hier^^. Aber man muss irgendwie von den Rohrdaten irgendwie das ableiten können, doch ohne ein neues Bild zu rendern, gehts irgendwie nicht, hehe. Daher verwerfe ich meinen Ansatz^^
 
Zuletzt bearbeitet:
Warum fehlen denn am Bildrand Informationen? Laut nVidia (siehe mein Zitat von deren Erklärung oben) erfolgt die Berechnung doch pixelgenau (for each pixel).

Edit: Ok, mit einer Genauigkeit von 7/8, also nicht 100% pixelgenau, aber extrem nah dran :) .
 
Das Konzept ist ja das das Bild nicht gerendert sondern kopiert wird und die Bewegung interpoliert ist
Das entspricht genau dem was motion blur Reduktion bei tv's gemacht wird.
Das bedingt eine Latenz und wenn blöd läuft mit Fehlern bei Bewegung
je schneller die Ursprungs fps desto geringer die Fehler.
ich halte davon nix der eigentlich boost kommt vom höheren gpu coreclock den damit wird im sm die int32 Berechnung deaktiviert.
Das spart Wärme ein und die gpu Taktet sich bis 3,0ghz hoch eventuell höher.
Das blöde ist das dies nur bei dlss3 gemacht wird.
Die notwendige int32 werden dann in den tensor cores ausgelagert (int8 mal 8 operationen pro shader/4)
Das reicht für die wenige angaben aus nur blöd das dies bei raster ohne dlss3 nicht aktiv ist.
Und die shader höher belastet was die Wärme den Takt limitiert.
Man sehe sich die Bremsklötze mal an ohne Grund hat man nicht 4 slot kühler verbaut.
ich würde mal den Test abwarten und hoffen das doch fp64 Einheiten in ada sind wenn nicht wird das ne Katastrophe.
 
RogueSix schrieb:
Warum fehlen denn am Bildrand Informationen? Laut nVidia (siehe mein Zitat von deren Erklärung oben) erfolgt die Berechnung doch pixelgenau (for each pixel).

Edit: Ok, mit einer Genauigkeit von 7/8, also nicht 100% pixelgenau, aber extrem nah dran :) .
Nein, wir haben jetzt über ein Zukunftsbild/vorhergesagtes Bild geredet. Das was du meinst, das geht, weil es sich um Zwischenbilder handelt.
 
  • Gefällt mir
Reaktionen: RogueSix
Also auf die Indepth-Reviews von DLSS3 bin ich schon gespannt. Ich finde schon DLSS2/FSR2 ziemlich beeindruckend. Mehr FPS und gleichzeitig bessere Bildquali gefällt.

Nur wird meine nächste Grafikkarte nicht noch einmal so ein Speicherkrüppel sein wie die 3070. Und da es sinnvolle 16 GB bisher nur für die 4080 gibt ist das Lineup völlig uninteressant. Aktuell suche ich aber auch nix neues. 3070 passt gut zu 1440p. Erstmal n neuer Monitor im Laufe des Jahres oder Anfang nächstes.

Dennoch, rein technisch ist DLSS3 wirklich interessant.
 
  • Gefällt mir
Reaktionen: Humbertus und BGnom
RogueSix schrieb:
Edit: Ok, mit einer Genauigkeit von 7/8, also nicht 100% pixelgenau, aber extrem nah dran :) .

Ne, die 7/8 beziehen sich auf was völlig anders. Innerhalb 1 sec werden 7/8 aller Pixel durch AI bzw. DLSS erzeugt. Nur 1/8 muss tatsächlich von der GPU gerendert werden.

Beispiel: Die GPU rendert intern eine Szene in 1080p30.
DLSS2 macht daraus 4K (Performance Modus). Also 4x Pixel.
Dann macht DLSS3 aus diesem 4K30 Bild wiederum 60 FPS. Die Pixel die pro Sekunde sichtbar sind werden nochmal verdoppelt, macht Faktor 8.

1080p 30 geht rein, 4K 60 geht raus. Die Karte muss nur 1/8 berechnen, 7/8 kommen von DLSS.



Man stelle sich mal vor, man würde das auf eine PS4 anwenden. Die PS4 schafft in fast allen Spielen 1080p30. Für 4K 30 war schon die PS4 Pro notwendig und für 4K 60 bei gleicher Grafik die PS5.
Mit DLSS3 würde die Rechenleistung einer PS4 für ein ansehnliches 4K 60 Bild reichen. :freaky:

Solche Techniken sind schon ein ziemlicher Gamechanger, weil dinge wie Auflösung und Framerate fast schon zur Nebensache werden. Hab das ja selbst bei meiner 3060ti gesehen, die auf dem 4K TV mit DLSS performance Modus ein besseres Bild erzeugt, als in nativ 1440p auf dem 1440p Monitor. 4K DLSS ist da also ein no- brainer. Mehr Performance, besseres Bild. Von sowas hätte man vor 5 Jahren noch geträumt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RogueSix und theGoD
RogueSix schrieb:
Warum fehlen denn am Bildrand Informationen? Laut nVidia (siehe mein Zitat von deren Erklärung oben) erfolgt die Berechnung doch pixelgenau (for each pixel)
Er meinte fehlende Pixel der über den Bildrand hinausgehenden Bildinformationen, welche bei Bewegung (des Viewports) für die Zwischenbildberechnung benötigt werden.
Muss eben ein wenig über den Rand hinausgehend intern berechnet werden, warum nicht?
 
  • Gefällt mir
Reaktionen: RogueSix
leonM schrieb:
Sagt euch Black Frame Insertion etwas ? Ist die günstigste Art um Motion Blur etwas besser weg zu kriegen.

Ich habe einen LG CX OLED als Monitor der sogar besser bei BFI ist als die neuste Generation:

BFI erlaubt ein CRT ähnliches Motion Blur mit hohen Framerates, was es nicht macht ist eine starke Erhöhung der Smoothness. 90+ FPS fühlen sich für mich weiterhin deutlich besser an als 60 fps + BFI. Davon abgesehen zerstört BFI auf Grund des starken Helligkeitsverlustes einfach HDR und inzwischen haben fast alle halbwegs gut aussehenden Spiele eine native HDR Unterstützung die meiner Meinung nach im Durchschnitt auf einem Bildschirm mit guter (!) HDR Unterstützung ähnlich stark die Bildqualität erhöht wie Ray Tracing, mal ganz davon ab das sich HDR auch in nicht unterstützenden Spielen erzwingen lässt (Special K oder Win11 Auto HDR).

Davon abgesehen ist BFI auf den meisten Displays nicht mit VRR kompatible.
Ergänzung ()

Xoodo schrieb:
Was ich interessant finde, dass der englische Untertitel der RTX 40X0 Präsentation im offiziellen YT-Video besagt, dass der Gesamtzuwachs der Performance ohne Raytracing 25% beträgt, auch wenn die Lederjacke was ganz anderes zu der Zeit sagt xD.
Anhang anzeigen 1262973
Einfach Untertitel in dem Video auf Englisch stellen, dann sieht man es selbst.

Also mMn lohnen sich die beiden 4080 nicht, es scheint sich um eine Mischkalkulation zu handeln, denn trotz der Weltweiten Inflation finde ich den Aufpreis für die 4090 fair(+100$) und ich meine für den schlechten Eurokurs kann Nvidia ja nix.... Die kleinen 4080er (70TI) musste er so bepreisen, ansonsten bekommt er die Lagerbestände der 30er Reihe niemals leer ohne weitere Milliarden Abschreibungen.
Das war literally einfach nur über die eine Verbesserung der RT Rechenkerne, nicht über die komplette Architektur...
 
  • Gefällt mir
Reaktionen: Illithide
theGoD schrieb:
Ich habe einen LG CX OLED als Monitor der sogar besser bei BFI ist als die neuste Generation:
Nicht direkt, höhere Bewegtbildschärfe, da 75%, statt 50% Dunkelphase, damit einhergehend aber auch ein deutlich höherer Helligkeitsverlust.
Außerdem flimmert es bei 60fps/hz, in Kombination mit 120fps als 120hz (Stufe mittel -hoch) Bfi aber der ersehnte Heilsbringer, auch der Helligkeitsverlust fällt so geringer aus.
Das DUMME:
Alle aktuellen 2022 oleds, egal welchen Herstellers haben KEINE 120 hz bfi mehr, ja auch qd-oled nicht.
Ich glaube nicht an eine Rückkehr

Edit: bfi fûgt übrigens Lag von ca. 1 Frame hinzu, eigtl. technisch unnötig, aber ist dennoch so
 
Zuletzt bearbeitet:
W0dan schrieb:
Ne, die 7/8 beziehen sich auf was völlig anders. Innerhalb 1 sec werden 7/8 aller Pixel durch AI bzw. DLSS erzeugt. Nur 1/8 muss tatsächlich von der GPU gerendert werden.

Beispiel: Die GPU rendert intern eine Szene in 1080p30.
DLSS2 macht daraus 4K (Performance Modus). Also 4x Pixel.
Dann macht DLSS3 aus diesem 4K30 Bild wiederum 60 FPS. Die Pixel die pro Sekunde sichtbar sind werden nochmal verdoppelt, macht Faktor 8.

1080p 30 geht rein, 4K 60 geht raus. Die Karte muss nur 1/8 berechnen, 7/8 kommen von DLSS.
Die 7/8 ist auch der besagte Inputlag. Da im Vergleich zur nativen 1080@30 jetzt einmal die Umwandlung von DLSS2 auf 4K und dann nochmal die Bearbeitung von 30fps auf 60fps durch DLSS3 dazukommt.
Da man bei DLSS2 auf 4K skaliert und auch nicht auf das neuste Renderbild(DLSS3) warten muss, ist der Inputlag wohl minimal(liegt in der Natur eines TAAs^^). Zumal man hier eine höhere Auflösung für wenig Kompromiss+mehr Frames(da 4K nativ weniger Frames abgeben würde--> also besserer Inputlag als nativ 4K) oder besser als Original + mehr Frames erhält. Eine Win Win -Situation, wenn die Qualität stimmt. Bei den 30fps zu 60fps DLSS3 Umwandlung müssen die Tests es zeigen, wie der Inputlag bzw. das Spielgefühl sich im Vergleich zu (DLSS2 +Reflex) vs. (DLSS3 +Reflex) anfühlt.
 
Zuletzt bearbeitet:
Dlss hat rein gar nix mit Erfundene daten zutun
Es skaliert das Bild größer von dlss q bsp 1080p dann 900p auf 1080p
Das deep learning bezieht sich allein auf die alaising Reduktion die zwangsläufig entsteht.
Dlss3 ist sogar soweit das man Bilder generiert durch kopieren des vorherige frame zum nächsten dazwischen soll ein Bild erstellt werden das die fps erhöht.
Aber die Latenz vergrößert.
So gesehen ist dlss im Grunde ein upscaler mit dem Vorteil das es Relativ nah an nativ herankommt je größer die Ursprung Auflösung ist
Das Gegenteil wäre dlaa und auch zu empfehlen weil es weniger kostet als 32x supersampling was dem dlaa sehr nah kommt.
Nur stellt sich die frage Sieht man das überhaupt auf nen 110dpi (1440p 27) oder standard 96dpi (1080p 24) display

Das ist maßgeblich vom spieldesign abhängig und wie gut die engine die Texturen filtert.
mehr schärfe erreicht man nur mit mehr hz oder fps.
Das bedingt aber ein Ausgabegerät das dies auch unterstützt. Sprich va oder ips monitor mit min 144-240hz ab 110dpi
ideal sind also gsync oder adaptive sync displays nur blöd das dann die gpu min halbe hz ausgeben muss. /slow mo effec.
Da kann das featrure dlss3 helfen dass es besser aussieht aber die Eingabe wird durch die Ursprungs fps limitiert.
Im Bestenfalls merkt man das nicht, im Schlimmstenfalls ist sehr schwammige Steuerung und ab 144 ohne dlss3 muss man den Sinn dahinter bezweifeln.
Der nutzen den nvidia hier suggeriert das man mit 30fps dann 90fps hat und dann die gleiche inputlatenz täuscht.
Das wird sich steuern wie mit 30fps weil alles verzögert dargestellt wird.

Das überhaupt auf die fps geschaut wird liegt an den engines und wie diese eingaben Verarbeitet, nahezu alle engines haben zeitliche Verzögerungen die nicht abgekoppelt sind von den fps.
Das liegt am render Prozess. Gute engines können das trennen und die eingaben anpassen, schlechte skalieren mit den fps.

Und ja das feature wird nur auf ada laufen da es zwingend den vergrößerten L2 cache benötigt.
 
theGoD schrieb:
Ich habe einen LG CX OLED als Monitor der sogar besser bei BFI ist als die neuste Generation:

BFI erlaubt ein CRT ähnliches Motion Blur mit hohen Framerates, was es nicht macht ist eine starke Erhöhung der Smoothness. 90+ FPS fühlen sich für mich weiterhin deutlich besser an als 60 fps + BFI. Davon abgesehen zerstört BFI auf Grund des starken Helligkeitsverlustes einfach HDR und inzwischen haben fast alle halbwegs gut aussehenden Spiele eine native HDR Unterstützung die meiner Meinung nach im Durchschnitt auf einem Bildschirm mit guter (!) HDR Unterstützung ähnlich stark die Bildqualität erhöht wie Ray Tracing, mal ganz davon ab das sich HDR auch in nicht unterstützenden Spielen erzwingen lässt (Special K oder Win11 Auto HDR).

Davon abgesehen ist BFI auf den meisten Displays nicht mit VRR kompatible.
Ergänzung ()


Das war literally einfach nur über die eine Verbesserung der RT Rechenkerne, nicht über die komplette Architektur...
Ich habs probiert, fühle aber durch BFI dem Inputlag. Kenne aber Leute die damit klar kommen. Diese spielen aber auch auf sehr schlechter Eingabeempfindlichkeit. Glaube, Spieler die sehr oft sowas wie CoD, CS, Doom usw. auf hoher Empfindlichkeit spielen, die kommen damit nicht klar
 
Zuletzt bearbeitet:
Zurück
Oben