Fragger911 schrieb:
Ray-/Pathtracing hin oder her ^^ solange die Physik in den Games sich anfühlt wie die Stop-Motion-Animation aus Filmen des letzten Jahrhundert, kann es mir gestohlen bleiben. Ein paar Lichteffekte tragen weit weniger zu realistischer Immersion bei als eine glaubhafte Physik.
Raytracing oder Pathtracing sind aber voraussetzung dafür, dass wir künftig wieder mehr Physik in Spielen sehen.
Denn in den letzten 10 Jahren haben Entwickler stark auf baked lighting gesetzt. Also Lightmaps die vorgerendertes Licht enthalten und quasi auf die Texturen gepinselt wird. Das Licht ist dann statisch bzw. bei Tag/Nacht wechsel muss zwischen verschiedenen Lightmaps überblendet werden, der Nachteil ist aber, dass alle Objekte dessen Beleuchtung von der Lightmap berücksichtigt werden nicht mehr in der Spielwelt verändert werden dürfen. Tut man es doch, würde z.B. der Schatten eines Objekts weiterhin am Boden sichtbar sein, obwohl das Objekt gar nicht an der Position ist.
Das heißt also wenn man ohne Raytracing den grafischen Stand beibehalten will, den wir ohne Raytracing erreicht haben, dann muss auf Physik und sich verändernde Geometrie weitestgehend verzichtet werden.
Will man viel Physik hast du folglich zwei Optionen. Zurück zur Grafik von ~2010.
Oder man nutzt Raytraced Global Illumination.
mibbio schrieb:
Etwas bedenklich finde ich es aber schon, wenn Witcher IV auf Mega Geometry setzt. Es mag sicherlich gut aussehen, aber für die Spieler erzeugt es halt eine Herstellerabhängigkeit.
Mit einer Radeon oder Arc bekommt man dann ein Fallback, das entweder schlechter aussieht, mehr für ähnliche Qualität mehr VRAM braucht und/oder schlechter performt.
Denn anders als Ray- oder Pathtracing, was die anderen Hersteller prinzipiell auch können, geht Mega Geometry technisch eben nur mit (aktuellen) Nvidia-Karten und hat kein Gegenstück bei AMD oder Intel.
RTX Mega Geometry selbst sieht nicht "gut aus", das ist der falsche Begriff. RTX Mega Geometry kann dafür sorgen, dass Raytracing und Pathtracing besser aussieht.
Hintergrund ist, dass für die echte Geometrie in einem Spiel auch eine virtuelle Repräsentation dieser Geometrie (die BVH - Bound Volume Hierarchy) für das Raytracing benötigt wird (warum das so ist sprengt jetzt den Rahmen) aber man muss einfach wissen, dass es in Raytraced Spielen immer eine meist vereinfachte geometrie in der BVH gibt, die unsichtbar für den Spieler ist, auf die jedoch das Raytracing angewendet wird. Deshalb sieht z.B. die Spiewelt in Raytraced Reflexionen meistens weniger detailliert aus. Aber es wirkt sich eben auch auf schatten aus, die z.B. weniger zahlreich oder weniger detailliert sind als die tatsächliche Geometrie im Spiel. Eben weil die Geometrie auf die RT angewendet wird stark vereinfacht ist.
Bisher war es so, dass ein höherer Detailgrad der BHV, die im Idealfall 1:1 dem Detailgrad der echten Geometrie entspricht extrem teuer war. Also extrem Speicherintensiv und extrem CPU lastig.
Und genau da kommt jetzt eben RTX Mega Geometry ins Spiel. Es ermöglicht den Detailgrad der Geometrie in der BHV extrem zu erhöhen. Praktisch kann die Geometrie in der BVH damit jetzt genauso hochdetailliert sein, wie die Nanite Geometrie in der Unreal Engine 5. Nvidia hat sogar schon beworben, dass man mit RTX Mega Geometry quasi das "Nanite" für die BHV erschaffen hat und es auch zusammen mit UE5 Nanite funktioniert. Der Ansatz ist sogar der gleiche, Nanite ist Cluster Basiert, Mega Geoemtry auch. Aber wie gesagt, man muss an der Stelle nochmal betonen, dass diese Technologien sich ergänzen, aber nicht ersetzen. Nanite in UE5 ist für die sichtbare Geometrie verantwortlich, RTX Mega Geometry nur für die "unsichtbare" Reüräsentation dieser Geometrie in der BHV für das Raytracing.
Praktisch heißt das, dass künftig jedes noch so kleine Geometriedetail, praktisch auch jeder Ast, jedes einzelne Blatt, jedes Microdetail - einfach alles - ohne große Performanceverluste in der BHV repräsentiert werden kann und somit auch Raytracing darauf angewendet wird. So würde das dann aussehen.
Hier ein Video dazu
https://www.tiktok.com/@thegameawards/video/7457377686722284842
Und klar, du kannst jetzt verlangen dass das auf jeder GPU eines jeden Herstelles laufen soll.
Aber man muss auch verstehen, dass ein kleines Entwicklerteam bei Nvidia einige Jahre an dieser Lösung geforscht hat. Und irgendwo muss ja dann auch ein return of invest dabei rum kommen.
Ganz allgemein kann ich mir aber gut vorstellen, dass das früher oder später in der DirectX Spec. landen wird. Nur muss man dann eben auch entsprechend abwarten, bis AMD und Intel damit einverstanden sind und ihre Hardware und Treiber ebenfalls auf den Stand gebracht haben.
Natürlich könnte man es immer so machen, dass zum Release einer neuen Technologie diese direkt bei allen Herstellern läuft. Das wäre theoretisch denkbar. Aber dann halt mit 5+ Jahren Verzögerung.
Man muss einfach verstehen, dass das was Nvidia und AMD uns an Featureas anbieten meist Technologien sind, die häufig firsch aus der Forschung sind. Wo es vielleicht vor 1-2 Jahren noch irgend ein wissenschaftliches whitepaper gab und die Hersteller das dann morgen direkt in die ersten Spiele bringen wollen. Es ist schon beeindruckend, dass in den letzten Jahren so schnell solche großen Fortschritte möglich waren. Zu warten, bis das standardisiert ist und alle Hersteller es unterstützen wäre einfach nur vergeudete Zeit und ein Minusgeschäft für denjenigen der die Zeit und Kosten in Kauf genommen hat. In dem Fall Nvidia.
Sorry für die Textwall, aber es wird mMn. immer massiv unterschätzt, was für ein enormer Aufwand hinter solchen Technologien steckt.
Ich finde es ehrlich gesagt absolut peinlich, wenn dann die erste Reaktion in irgendwelchen Threads ist "jooouuu, sieht bissl anders aus, ne.... warum läuft das nicht auf meiner AMD???!!!"
Ist jetzt nicht unbedingt auf dich bezogen, aber viele andere hier. Come on... entweder man ist technik begeister oder man ist es nicht. Scheinbar sind es die meisten hier im Forum nicht.