Genau das war auch mein Gefühl. Toll auf jeden Fall, aber irgendwie auch wieder so künstlich. Genau wie bei CGI nowadays.Fighter1993 schrieb:Auch diese Techdemo sieht gut aus aber irgendwas fehlt, ich kann aber auch nicht sagen was.
-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia Zorah: UE5-RTX-Techdemo als 108-GB-Download verfügbar
- Ersteller Jan
- Erstellt am
- Zur News: Nvidia Zorah: UE5-RTX-Techdemo als 108-GB-Download verfügbar
Manegarm schrieb:Die Mühe wird sich in einem Spiel aber keiner machen.
Wobei ich diese Demo nichts besonderes finde. Es gibt Spiele die sehen eigentlich fast genauso gut aus, natürlich nicht mit den detailierten Verzierungen.
Welches Spiel sieht denn so gut aus? Ich hab alle Pathtraced und viele UE5 games gespielt. Da kommt mMn nichts ran.
Und die Verzierungen sind ja nicht nur einfache Texturen mit Parallax Mapping. Das sind alles Metallgitter (auch mit entsprechenden materialeigenschaften und reflexionen) die aus echter Geometrie bestehen und diese Geometrie wirft dank RTX Mega Geometry auch dynamische Schatten mit genau dem selben Detailgrad. Das rendering kommt dadurch übrigens auch komplett ohne Ambient Occlusion aus, weil sich das alles aus der Berechnung automatisch ergibt.
Jedes noch so kleine Detail in dieser Szene wirft schatten und lenkt das Licht ab, weil die BHV Geometrie gegen die das Raytracing läuft so extrem detailliert sein kann.
Bisher war es so, dass man mit Nanite zwar extrem hohen Geometrie Detailgrad erzeugen konnte, aber aus Performancegründen musste die Geometrie auf die das Raytracing angewendet wird simpler sein.
Man hat also bei RT spielen immer zum einen die tatsächliche Geometrie, die man direkt sieht und dann nochmal die vereinfachte Geometrie in der BVH für das Raytracing, die man nicht direkt sehen kann. Dank RTX Mega Geometry kann jetzt beides gleich detailliert sein, was somit automatisch den Detailgrad der Schatten (die ja nur durch das Raytracing entstehen) und auch die Anzahl der Schatten extrem erhöht.
Oder anders ausgedrückt, das was Nanite für die sichtbare Geometrie war, ist RTX mega Geometry für die Geometrie in der BHV fürs Pathtracing und das wertet den Detailgrad, der alleine durch das Licht und Schatten Spiel erzeugt wird enorm auf. Hinter RTX Mega Geometry stecken übrigens Jahre an Forschung von einigen wenigen Nvidia Ingenieuren.
So richtig zur Geltung kommt das tatsächlich erst in dem anderen Level (Throne Room) das auf Reddit verlinkt ist. Dort bewegen sich mehre Lichtquellen durch den Raum und dort sieht man dann auch wie jedes noch so winzige Detail in Echtzeit seinen beweglichen Schatten wirft (oder sogar mehrere Schatten, da mehrere Lichtquellen).
Hier ein paar mehr Infos dazu:
https://www.reddit.com/r/nvidia/comments/1hxiqxj/rtx_mega_geometry_is_massively_underappreciated/
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Also eines kann man festhalten. Diese Demo ist was Echtzeitgrafik angeht, mit Abstand die absolute Referenz und technisch unglaublich beeindruckend.
Dass die Demo rein subjektiv jetzt nicht super fancy, bunt und einladend aussieht, kann ich ja verstehen. Aber wenn man weiß welche Limitierungen im Echtzeitrendering damit gesprengt werden, kann man nur beeindruckt sein.
Zuletzt bearbeitet:
Snoopy69
Commodore
- Registriert
- März 2004
- Beiträge
- 4.381
Dann wäre „Rome“ (Bodycam) eher deins (abgesehen vom Gameplay)HaZu schrieb:Genau das war auch mein Gefühl. Toll auf jeden Fall, aber irgendwie auch wieder so künstlich. Genau wie bei CGI nowadays.
frames p. joule
Captain
- Registriert
- Jan. 2023
- Beiträge
- 3.330
Wie beeindruckend realistisch damals schon Leberkäse-Texturen aussahen!t3chn0 schrieb:war einfach nur erstaunt, wie gut 3D-Grafik aussehen kann.
Snoopy69 schrieb:Gaming mit dieser Grafik ist definitiv schon mit der 4090 (und kleiner) möglich
Ergänzung ()
Könnte ich bei Gelegenheit mal testen…
FHD sollte möglich sein
Ergänzung ()
Gerne Bescheid geben falls es klappt. Ich bin gespannt.
sverebom
Vice Admiral
- Registriert
- Aug. 2004
- Beiträge
- 6.603
Das wird auch niemand abbauen. Und wenn, dann nur ein mal, um einer AI zu zeigen, was sie zu bauen hat.Manegarm schrieb:Die Mühe wird sich in einem Spiel aber keiner machen.
Für den Detailgrad der Zukunft braucht es prozedurale Werkzeuge, auf Dauer in Verbindung mit AI.
Wenn nur ausschließlich das was man gerade sieht im VRAM wäre dürfte er nicht mehrere GB schwanken, da ja immer der maximale Detailgrad gehalten wird.Mimir schrieb:Das ganze wird mit Nanite und Virtual Textures on the fly soweit reduziert, dass immer nur so viele dreiecke und Texturdaten aus den Assets geladen werden, wie notwendig sind, um entsprechend deiner Monitorauflösung den maximalen Detailgrad zu erreichen.
Das heißt, selbst wenn das level viel größer ist und mehr "inhalte" da wären, wäre die Speicherauslastung sehr wahrscheinlich nur marginal höher.
Objekte müssen auch von der Seite und von hinten dargestellt werden. Heißt du brauchst immer alle Daten eines Objektes im Speicher. Dazu kommen vorgerenderte Effekte die drübergelegt werden müssen. Nanite passt einfach nur den Detailgrad auf die Entfernung an.
Ich finde andere Demos mit weniger Details aber dafür mit Leben viel beeindruckender.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Bright0001
Captain
- Registriert
- Juli 2011
- Beiträge
- 3.231
Ist halt die Frage wie "streng" man Fotorealismus definiert. Ein Dear Esther, das in die Prognose fällt, sah trotz oller Source Engine stellenweise fotorealistisch aus. Also zumindest gut genug, dass man jemandem (der es nicht erwartet) einen Screenshot als Foto unterjubeln könnte.andi_sco schrieb:Wenn man bedenkt, das Mr. Kirk von Nvidia schon zu GeForce 3 oder 4 Zeiten davon sprach, das wir in 10 Jahren Fotorealistische Games haben werden, war es doch ein sehr langer Weg.
- Registriert
- Feb. 2009
- Beiträge
- 10.705
Willkommen bei der Unreal Engine....Quidproquo77 schrieb:Meine Güte ist das ein Gefrickel,
Das Wichtigste sind die Texturen! Niemand will einfach Graue Wände oder Böden mit unrealistischen Kratzern.S.Kara schrieb:Ich finde andere Demos mit weniger Details aber dafür mit Leben viel beeindruckender.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
IMHO das "schönste" Game ist immernoch "The Vanishing of Ethan Carter". Die haben es hinbekommen die Modelle dank Photogrammetrie so perfekt in die Welt einzubetten das es (damals) Wundervoll idyllisch ausgesehen hat.Bright0001 schrieb:Ein Dear Esther, das in die Prognose fällt,
- Registriert
- Okt. 2023
- Beiträge
- 4.321
Man muss nur idealerweise wissen oder kapieren was man tut. Letztendlich scheiterte es an der richtigen Version (UE 5.4 NVRTX Experimental) um auch alle Features und nicht nur Lumen so zum Laufen zu bekommen wie es Nvidia vorsieht.Haldi schrieb:Willkommen bei der Unreal Engine....
Zuletzt bearbeitet:
lol der UE Fanboy hat gesprochen... Bei dir ist doch alles scheiße, was kein UE5 ist, oder kein oder kaum RT nutzt. Als ob Beleuchtung das einzig wichtige bei der Grafik wäre.Quidproquo77 schrieb:Zudem diese harten Schatten bei den Gräsern, urgh. So etwas gibt es nicht. Ich fand KCD 2 optisch eines der schwächsten Spiele der letzten 3 Jahre.
Ich zock zurzeit KCD2 und für mich ist es eins der schönsten Spiele die ich bis jetzt gespielt hab. Ich bin aber auch keiner, der es sich zur Lebensaufgabe gemacht hat, in Spielen die Beleuchtung bis ins kleinste Detail zu analysieren. Ob die Schatten jetzt 100% realistisch sind, ist mir erstmal nicht wichtig.
Was KCD2 aber mMn extrem gut schafft, ist eine glaubwürdige Welt zu zeigen. Ich bin so oft schon einfach nur stehen geblieben und hab mir gedacht "boah das sieht einfach gut aus", weils einfach extrem stimmig ist.
Ich hab auch Indiana Jones gespielt und fand das auch sehr schön, aber KCD2 hat mich grafisch mehr beeindruckt.
Hätte eine realistischere Beleuchtung mit RT das spiel noch schöner gemacht? Bestimmt, aber ohne ist es nicht gleich hässlich und dein "optisch eines der schwächsten Spiele der letzten 3 Jahre" ist vollkommen übertrieben.
Dein Problem ist, dass du die ganze Grafik immer nur an der Beleuchtung misst. Sobald ein Spiel bei dir kein RT nutzt ist es hässlich. Für mich ist das beispielsweise nicht wichtig. Für mich sollte ein Spiel stimmig sein und KCD2 ist das für mich total. Ich hab glaub noch kein Spiel gespielt, wo so immersiv war. Das ist auch ein Grund, warum ich Witcher 3 immer noch sehr schön finde, obwohl es so alt ist und Beleuchtung etc. schon gut veraltet ist, aber die Open World ist stimmig und glaubwürdig und das ist mir deutlich wichtiger als irgendwelche Grafikfeatures, die man mit der Lupe suchen muss.
NeinG3cko schrieb:AMD auch Neural Shader?
https://www.pcgameshardware.de/Rayt...ews/AMD-Radeon-Neural-Shader-Patente-1469807/
Bright0001
Captain
- Registriert
- Juli 2011
- Beiträge
- 3.231
War auch mein erster Gedanke, war nur leider zu neu, um noch in die "in 10 Jahren" Prognose ausm Zitat zu passen.Haldi schrieb:IMHO das "schönste" Game ist immernoch "The Vanishing of Ethan Carter". Die haben es hinbekommen die Modelle dank Photogrammetrie so perfekt in die Welt einzubetten das es (damals) Wundervoll idyllisch ausgesehen hat.
- Registriert
- Feb. 2009
- Beiträge
- 10.705
Das Gebäude alleine ist 13GB!Haldi schrieb:Wie viel exakt? 3-5? 5-15?
Nur EIN Haus! Stell dir mal Warzone in dem Detailgrad vor.... dann ist es nicht mehr 80GB sondern 800GB oder noch mehr...
Was leider sehr sehr viele Entwickler/Nutzer der Unreal Engine eben nicht tun.Quidproquo77 schrieb:Man muss nur idealerweise wissen oder kapieren was man tut.
0xffffffff
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 2.034
Der Marketing-Spin seitens NVidia "klassisches" rendering als "Brute-Force-Rendering" zu bezeichnen ist echt unglaublich. Als sei das was schlechtes. Wenn irgendetwas "Brute-Force" ist dann prinzipbedingt Raytracing und das Herbeihalluzinieren von Bildinhalten.(...) Mit Neural Shaders sollen in Zukunft, oder wie in der Techdemo bereits zu sehen, noch viel realistischere Welten gerendert werden können, weil die GPU und der Grafikspeicher durch die Nutzung von AI statt Brute-Force-Rendering oder vorgehaltender Texturen entlastet werden. (...)
Aber ja, 108 GB für eine Techdemo von Technologien die den Speicherbedarf und das Vorhalten von Texturen etc. reduzieren sollen... Genau mein Humor.
- Registriert
- Okt. 2023
- Beiträge
- 4.321
Die Cryengine ist technisch gesehen ein veraltetes Durcheinander und das Lizenzgeschäft ist mangels Modernisierung und guter Dokumentation bzw. Entwicklercommunity zusammengebrochen. Es gibt seit Jahren keine bedeutenden Updates mehr, das hat gar nichts mit der UE5 zu tun.HAse_ONE schrieb:Bei dir ist doch alles scheiße, was kein UE5 ist, oder kein oder kaum RT nutzt. Als ob Beleuchtung das einzig wichtige bei der Grafik wäre.
Was ich meine ist die altbackene Beleuchtung, kein HDR, die extrem simple Geometrie auch was das Terrain betrifft, Reflektionen (starke SSR Artefakte), viele normal maps, hölzerne Animationen, harte Schatten. Old school rendering, so gesehen. Klar kann das als Gesamtwerk immer noch gut aussehen und hübsche Welten produzieren, aber dennoch veraltet. Die Nutzer sind diesen Grafikstil eben gewöhnt und reagieren dann so wie du, wenn man das kritisiert.
Und für mich eben mit eines der schwächsten. So unterschiedlich kann man das sehen.HAse_ONE schrieb:Ich zock zurzeit KCD2 und für mich ist es eins der schönsten Spiele die ich bis jetzt gespielt hab.
Die Landschaft ist schön, das ist unbestritten, der Rest gefällt mir weniger.
0xffffffff schrieb:Der Marketing-Spin seitens NVidia "klassisches" rendering als "Brute-Force-Rendering" zu bezeichnen ist echt unglaublich. Als sei das was schlechtes. Wenn irgendetwas "Brute-Force" ist dann prinzipbedingt Raytracing und das Herbeihalluzinieren von Bildinhalten.
Aber ja, 108 GB für eine Techdemo von Technologien die den Speicherbedarf und das Vorhalten von Texturen etc. reduzieren sollen... Genau mein Humor.
Falsch verstanden. Nvidia meint im Kontext von Pathtracing, dass es Bruteforce wäre, alle benötigen Strahlen zu berechnen. Denn das würde selbst auf aktuellen GPUs noch Stunden dauern, bis ein Bild fertig wäre. Das wäre der Brute Force Ansatz.
Die Anzahl der Rays weiter zu erhöhen ist also eine komplette Sackgasse, selbst mit vielfach gesteigerter Rechenleistung nicht machbar. Erstrecht wenn die Strahlen dann auch noch mehrfach in der Szene von objekten abprallen und reflektiert oder sogar diffus gestreut werden, steigt der Rechenaufwand exponenziell.
Die Alternative ist eben nur so viel Pathtracing zu machen, um gerade genug Daten zu haben, damit der Rest via Neural Rendering bzw. "AI" rekonstruiert werden kann.
Das sieht man in form von DLSS Upscaling und insbesondere DLSS Ray Reconstruction ja schon seit Jahren in Aktion. Und das ganze wird eben weiter ausgedehnt.
Bei den Neural materials ist es ähnlich. Will man sehr komplexe Materialeigenschaften erzielen, dann braucht es besonders viele Rays. Da auch RayReconstruction hier viel zu schnell an Grenzen kommt, versucht man mit einem kleinen neuronalen Netz die Materialeigenschaften einer Oberfläche zu simulieren. Und nicht nur "irgendwie" echt aussehen zu lassen, wie man das bisher bei rasterizing versucht hat, sondern eben so, dass das in der Szene einfallende Licht in echtzeit mit dem Material interagiert und dann entsprechende Spiegelungen, refraktionen etc. sichtbar sind. Auch wenn Neuronale Netzte eingesetzt werden, soll hier kein "Fake" Eindruck entstehen (bei Rasterizing hat man hier besonders viel gefaked, da die Möglichkeiten extrem limitiert waren) sondern eine glaubhafte Material und Lichtsimulation.
Soll also kurgefasst heißen: Wenn man sich klassisches offline rendering als Vorbild nimmt, um irgendwann Fotorealismus zu erreichen, dann wäre das der Brute Force Ansatz. Der ist aber in der Form nicht in echtzeit erreichbar. Zumindest nicht zu unseren Lebezeiten. Nvidia versucht Abkürzungen zu finden, um eine vergleichbare Qualität in Echtzeit zu erreichen. Und wie man sieht mit Erfolg.
Rasterizing ist für NV tot, darüber sprechen sie gar nicht.
Und von mir aus kannst du Neural Rendering als Halluzination verteufeln. Das ändert trotzdem nichts daran, dass man damit klassischem Rasterizing um Lichtjahre Voraus ist und dem ground truth offline Rendering schon extrem nahe kommt. Rasterizing ist im Vergleich dazu, als würde ich dir in Microsoft Paint ein Bild malen uns dir weiß machen wollen, dass das gut aussieht. Rasterizing ist im wahrsten Sinne nur ein "herummalen" der Entwickler am Bildschirm. Man setzt zahllose Fake lichter und schreibt irgendwelche Shader um das Bild so zu manipulieren, damit es irgendwie ein glaubhaftes Gesamtbild ergibt. Bei Rasterizing wird sehr viel künstlerische Arbeit von Menschen verrichtet, die versuchen mit stark limitierten Mitteln etwas zu erzeugen, das irgendwie realistisch wirkt.
Mit Pathtracing hingegen wird alles tatsächlich simuliert. Auch wenn dann vieles via KI rekonstruiert/ergänzt werden muss, basiert die Ausgangslage trotzdem auf einer tatäschlichen Simulation von Strahlen und ist damit um Welten näher an ground truth als irgendwelches rasterizing gepinsel.
Zu deinem zweiten Absatz:
Nochmal, die 108 GB sind die reinen Projektdaten für die Unreal Engine.
Als fertiger Build sind es für die beiden Demo Level immerhin noch 12,8 bzw. 26,9 GB.
Das ist natürlich immernoch verdammt viel für so kleine Abschnitte, weil es so absurd detaillierte Assets und Texturen sind.
Dennoch ist der VRAM Verbrauch sehr gering.
In 4K mit DLSS Performance Ray Reconstruction und mit Frame Generation werden rund 12 GB VRAM mit der RTX Pathtraced Version belegt. Mit der Lumen Version sind es rund 8 GB.
Man sieht also, dass trotz der enormen Datenmenge die da in eine einzelne Szene gebuttert wird (andere Entwickler machen mit der Datenmenge ein ganzes Spiel) der VRAM Verbrauch extrem gering ist, da eben mit Nanite, Virtual Textures und RTX Mega Geometry alles virtualisiert und on the fly nur die nötigen Teile der Assets und Texturen in den VRAM gestreamt werden.
Man braucht für den Detailgrad also viel SSD Speicher (was wohl dazu führen wird, dass wir sowas auf absehbare zeit in der Form nicht in Spielen sehen werden), aber das RAM/VRAM Problem ist damit quasi gelöst. Man kann absurd detaillierte Texturen und Geometrie darstellen, sogar Pathtracing mit gleichem Geometrie Detailgrad in der BVH darauf anwenden und das VRAM Budget wird noch lange nicht gesprengt.
PS: Und auch wenn ich mich wie ein Nvidia pressesprecher anhöre, ich finds trotzdem Schade, dass so wenige die Fortschritte hier verstehen. Jeder der die Entwicklung von rendering Technologien verfolgt, sollte hiervon beeindruckt sein. Daher Ehre wem Ehre gebührt.
Zuletzt bearbeitet:
Snoopy69
Commodore
- Registriert
- März 2004
- Beiträge
- 4.381
Sicher?Haldi schrieb:Das Gebäude alleine ist 13GB!
Nur EIN Haus! Stell dir mal Warzone in dem Detailgrad vor.... dann ist es nicht mehr 80GB sondern 800GB oder noch mehr...
Oder hat Warzone so wenig Gebäude?