News Nvidia RTX: Witcher IV nutzt Mega Geometry, 007 First Light Pathtracing

Return2Burn schrieb:
Mal sehen wann die AMDler von den angekündigten RedStoneFeatures mal realistisch InGame was zu sehen bekommen und ob sichs dann lohnt.
Kannst ja mal bei AMD anklopfen ob die auch noch was für Gamer machen bezüglich PT. Wahrscheinlich siehts aber dann blöd aus wenn schon die Entry Level Geforces die Radeons abziehen
Ergänzung ()

Chismon schrieb:
Diese "Herstellerabhängigkeit" gibt es spätestens seit Einführung von RTX und DLSS durch nVidia
Glide von 3dfx verschlafen? 🙃
Ergänzung ()

mibbio schrieb:
Etwas bedenklich finde ich es aber schon, wenn Witcher IV auf Mega Geometry setzt. Es mag sicherlich gut aussehen, aber für die Spieler erzeugt es halt eine Herstellerabhängigkeit.
Anders geht halt kein Fortschritt, siehe allein wie lange man auf SM6.9 in DX gewartet hat.
 
Dank Mega Geometry, oder was auch immer, vermutlich wieder nix für Radeon Besitzer. Bleibt das Geld eben bei mir. Jedenfalls werde ich mir kein Spiele kaufen, wenn die Spieleschmieden meine Hardware nicht vernünftig unterstützen wollen.
Damit meine ich natürlich nicht, wenn AMD das ein oder andere Feature noch nicht auf die Reihe bekommen hat. Dann geht's halt logischerweise nicht, klar.
Aber diese absichtliche schlechte FSR FG integration in Cyberpunk trage ich CDPR nach. Ebenso RT Spiegelungen, die sehen in GTA5E "interessanterweise" auch besser aus.
 
Fragger911 schrieb:
Solltest Du dringend nachholen, spötestens seit dem Phantom Liberty DLC einfach ein tiefschürfendes Erlebnis (erst recht, wenn man die diversen Storypfade verfolgt).
Vielleicht werde ich Cyberpunk mal antesten, aber wirklich nur ganz vielleicht und vorausgesetzt es gibt das irgendwann mal in einem sehr billigen Sale. Ist halt irgendwie nicht mein Setting, obwohl ich z. B. die "Mass Effect Saga" in allen Teilen gerne gespielt habe. Sogar einschließlich Andromeda, worüber sich ja etliche echauffierten, von wegen es sei kein richtiges Mass Effect. Mir hat es trotzdem gefallen.

Aber so von wegen "Pile of Shame" liegt da ohnehin noch so viel auf Halde bei mir, welches ich noch testen muss. Spiele habe ich genug, nur leider mangelt es mir an der Zeit dafür...😉
 
  • Gefällt mir
Reaktionen: Cleanor und Fragger911
Fragger911 schrieb:
Ray-/Pathtracing hin oder her ^^ solange die Physik in den Games sich anfühlt wie die Stop-Motion-Animation aus Filmen des letzten Jahrhundert, kann es mir gestohlen bleiben. Ein paar Lichteffekte tragen weit weniger zu realistischer Immersion bei als eine glaubhafte Physik.

Da musst noch auf GTA 6 warten bis die Ä....e wackeln ^^
 
@appleJuice1337 Not my cup of cake... piece of tea... also bei so (Spiel)figuren, wo der BMI höher als der IQ ist.
 
Ich bin sehr gespannt auf 007, die Hitman-Serie setzt meine Erwartungen hoch. 🙂
Ergänzung ()

Fragger911 schrieb:
solange die Physik in den Games sich anfühlt wie die Stop-Motion-Animation aus Filmen des letzten Jahrhundert,
Grundsätzlich geb ich Dir Recht, aber so schlimm sieht es den Trailern nach doch nicht aus?!
 
Sorry, aber das James Bond Videomaterial sieht absolut beschissen aus. Das sieht gefühlt aus wie vor 10 Jahren Selbst in 2160p. Alles verwaschen/unscharf und allgemein auch wenig detailreich.

Auf Control (fand den ersten Teil eine sehr immersive und eindrückliche Erfahrung..Athi...das "Metal-Level" :evillol:
) sowie Witcher IV freu ich mich richtig.

MfG, R++
 
Return2Burn schrieb:
Bisher haben die Ray- und Pathtracingvergleiche bei mir immer nur den Eindruck hinterlassen...ja sieht irgendwie anders aus... nicht entscheidend besser.
Es ist halt die Frage wie du Spiele siehst, ist es ein Kunstprodukt, dann ist besser nicht besser, sondern nur anders.
Oder siehst du Spiele als ein Produkt was grafisch die Realität einfängt, dann ist etwas wie Pathtracing sowas von besser, da brauch man auch nicht diskutieren.
Ein echtes Licht mit Schattenwurf ist dann höher zu bewerten als ein Licht was der nächste digitale Picasso aus einem künstlerischen Anfall in Position setzt.
 
Fragger911 schrieb:
Ray-/Pathtracing hin oder her ^^ solange die Physik in den Games sich anfühlt wie die Stop-Motion-Animation aus Filmen des letzten Jahrhundert, kann es mir gestohlen bleiben. Ein paar Lichteffekte tragen weit weniger zu realistischer Immersion bei als eine glaubhafte Physik.
Naja physikalisch halbwegs korrekte Beleuchtung ist ja auch Physik ;-)
Ergänzung ()

Haldi schrieb:
Früher hat Microsoft mit DirectX neue Features raus gebracht.
Aber da ist seit Jahren Funkstille...
Es fehlt die Konkurrenz.
Was mir auch fehlt: ich hatte heute meine Sound Blaster Audigy 2 ZS in der Hand. Sie leistet seit 2004(!) treue Dienste.
Die Einstellungsmöglichkeiten übertreffen noch heute den von Windows mitgelieferten
 
Cool ich bin gespannt.
 
BAR86 schrieb:
Es fehlt die Konkurrenz.
Naja, da gibt es noch sowas wie OpenGL und OpenAL. Aber das ist wohl nur noch eine Randnotiz. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: BAR86
Was ist mit 007 passiert ist der aus versehen vom Wickeltisch runter geflogen.
 
  • Gefällt mir
Reaktionen: fox40phil
Fragger911 schrieb:
Ray-/Pathtracing hin oder her ^^ solange die Physik in den Games sich anfühlt wie die Stop-Motion-Animation aus Filmen des letzten Jahrhundert, kann es mir gestohlen bleiben. Ein paar Lichteffekte tragen weit weniger zu realistischer Immersion bei als eine glaubhafte Physik.

Raytracing oder Pathtracing sind aber voraussetzung dafür, dass wir künftig wieder mehr Physik in Spielen sehen.

Denn in den letzten 10 Jahren haben Entwickler stark auf baked lighting gesetzt. Also Lightmaps die vorgerendertes Licht enthalten und quasi auf die Texturen gepinselt wird. Das Licht ist dann statisch bzw. bei Tag/Nacht wechsel muss zwischen verschiedenen Lightmaps überblendet werden, der Nachteil ist aber, dass alle Objekte dessen Beleuchtung von der Lightmap berücksichtigt werden nicht mehr in der Spielwelt verändert werden dürfen. Tut man es doch, würde z.B. der Schatten eines Objekts weiterhin am Boden sichtbar sein, obwohl das Objekt gar nicht an der Position ist.

Das heißt also wenn man ohne Raytracing den grafischen Stand beibehalten will, den wir ohne Raytracing erreicht haben, dann muss auf Physik und sich verändernde Geometrie weitestgehend verzichtet werden.

Will man viel Physik hast du folglich zwei Optionen. Zurück zur Grafik von ~2010.
Oder man nutzt Raytraced Global Illumination.

mibbio schrieb:
Etwas bedenklich finde ich es aber schon, wenn Witcher IV auf Mega Geometry setzt. Es mag sicherlich gut aussehen, aber für die Spieler erzeugt es halt eine Herstellerabhängigkeit.

Mit einer Radeon oder Arc bekommt man dann ein Fallback, das entweder schlechter aussieht, mehr für ähnliche Qualität mehr VRAM braucht und/oder schlechter performt.

Denn anders als Ray- oder Pathtracing, was die anderen Hersteller prinzipiell auch können, geht Mega Geometry technisch eben nur mit (aktuellen) Nvidia-Karten und hat kein Gegenstück bei AMD oder Intel.

RTX Mega Geometry selbst sieht nicht "gut aus", das ist der falsche Begriff. RTX Mega Geometry kann dafür sorgen, dass Raytracing und Pathtracing besser aussieht.

Hintergrund ist, dass für die echte Geometrie in einem Spiel auch eine virtuelle Repräsentation dieser Geometrie (die BVH - Bound Volume Hierarchy) für das Raytracing benötigt wird (warum das so ist sprengt jetzt den Rahmen) aber man muss einfach wissen, dass es in Raytraced Spielen immer eine meist vereinfachte geometrie in der BVH gibt, die unsichtbar für den Spieler ist, auf die jedoch das Raytracing angewendet wird. Deshalb sieht z.B. die Spiewelt in Raytraced Reflexionen meistens weniger detailliert aus. Aber es wirkt sich eben auch auf schatten aus, die z.B. weniger zahlreich oder weniger detailliert sind als die tatsächliche Geometrie im Spiel. Eben weil die Geometrie auf die RT angewendet wird stark vereinfacht ist.

Bisher war es so, dass ein höherer Detailgrad der BHV, die im Idealfall 1:1 dem Detailgrad der echten Geometrie entspricht extrem teuer war. Also extrem Speicherintensiv und extrem CPU lastig.

Und genau da kommt jetzt eben RTX Mega Geometry ins Spiel. Es ermöglicht den Detailgrad der Geometrie in der BHV extrem zu erhöhen. Praktisch kann die Geometrie in der BVH damit jetzt genauso hochdetailliert sein, wie die Nanite Geometrie in der Unreal Engine 5. Nvidia hat sogar schon beworben, dass man mit RTX Mega Geometry quasi das "Nanite" für die BHV erschaffen hat und es auch zusammen mit UE5 Nanite funktioniert. Der Ansatz ist sogar der gleiche, Nanite ist Cluster Basiert, Mega Geoemtry auch. Aber wie gesagt, man muss an der Stelle nochmal betonen, dass diese Technologien sich ergänzen, aber nicht ersetzen. Nanite in UE5 ist für die sichtbare Geometrie verantwortlich, RTX Mega Geometry nur für die "unsichtbare" Reüräsentation dieser Geometrie in der BHV für das Raytracing.

Praktisch heißt das, dass künftig jedes noch so kleine Geometriedetail, praktisch auch jeder Ast, jedes einzelne Blatt, jedes Microdetail - einfach alles - ohne große Performanceverluste in der BHV repräsentiert werden kann und somit auch Raytracing darauf angewendet wird. So würde das dann aussehen.

Screenshot 2026-03-10 203714.jpg


Hier ein Video dazu https://www.tiktok.com/@thegameawards/video/7457377686722284842



Und klar, du kannst jetzt verlangen dass das auf jeder GPU eines jeden Herstelles laufen soll.
Aber man muss auch verstehen, dass ein kleines Entwicklerteam bei Nvidia einige Jahre an dieser Lösung geforscht hat. Und irgendwo muss ja dann auch ein return of invest dabei rum kommen.
Ganz allgemein kann ich mir aber gut vorstellen, dass das früher oder später in der DirectX Spec. landen wird. Nur muss man dann eben auch entsprechend abwarten, bis AMD und Intel damit einverstanden sind und ihre Hardware und Treiber ebenfalls auf den Stand gebracht haben.

Natürlich könnte man es immer so machen, dass zum Release einer neuen Technologie diese direkt bei allen Herstellern läuft. Das wäre theoretisch denkbar. Aber dann halt mit 5+ Jahren Verzögerung.

Man muss einfach verstehen, dass das was Nvidia und AMD uns an Featureas anbieten meist Technologien sind, die häufig firsch aus der Forschung sind. Wo es vielleicht vor 1-2 Jahren noch irgend ein wissenschaftliches whitepaper gab und die Hersteller das dann morgen direkt in die ersten Spiele bringen wollen. Es ist schon beeindruckend, dass in den letzten Jahren so schnell solche großen Fortschritte möglich waren. Zu warten, bis das standardisiert ist und alle Hersteller es unterstützen wäre einfach nur vergeudete Zeit und ein Minusgeschäft für denjenigen der die Zeit und Kosten in Kauf genommen hat. In dem Fall Nvidia.


Sorry für die Textwall, aber es wird mMn. immer massiv unterschätzt, was für ein enormer Aufwand hinter solchen Technologien steckt.
Ich finde es ehrlich gesagt absolut peinlich, wenn dann die erste Reaktion in irgendwelchen Threads ist "jooouuu, sieht bissl anders aus, ne.... warum läuft das nicht auf meiner AMD???!!!"
Ist jetzt nicht unbedingt auf dich bezogen, aber viele andere hier. Come on... entweder man ist technik begeister oder man ist es nicht. Scheinbar sind es die meisten hier im Forum nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: hans_meiser
Fragger911 schrieb:
solange die Physik in den Games sich anfühlt wie die Stop-Motion-Animation aus Filmen des letzten Jahrhundert, kann es mir gestohlen bleiben.
dass stimmt leider da sind andere Engine viel besser als die UE5. TLoU 1-2 und Tomb Raider Trilogie. Metro und HL2 . ;)
Ergänzung ()

Mimir schrieb:
Raytracing oder Pathtracing sind aber voraussetzung dafür, dass wir künftig wieder mehr Physik in Spielen sehen.
Echt also nie cool also HL2 und Portalbrauchten dafür kein RTX. ;)
 
  • Gefällt mir
Reaktionen: Fragger911
@Mcr-King Die sehen aber auch nicht aus wie ein modernes Spiel mit baked lighting. Hast du überhaupt gelesen, was ich geschrieben habe?
 
ja schon aber du vermischt Grafikeffekte mit echtem Physik Elementen die der Spieler nutzen kann, oder noch besser die Gegner auch dass wäre mal was, oder Gute Story da ist mir zum Teil Nintendo lieber.
 
Mimir schrieb:
Sorry für die Textwall, aber es wird mMn. immer massiv unterschätzt, was für ein enormer Aufwand hinter solchen Technologien steckt.
Ich finde es ehrlich gesagt absolut peinlich, wenn dann die erste Reaktion in irgendwelchen Threads ist "jooouuu, sieht bissl anders aus, ne.... warum läuft das nicht auf meiner AMD???!!!"
Ist jetzt nicht unbedingt auf dich bezogen, aber viele andere hier. Come on... entweder man ist technik begeister oder man ist es nicht. Scheinbar sind es die meisten hier im Forum nicht.
Muss ich stark zustimmen.
Es geht nicht um A gegen B. Jeder kann ja seine Technologien entwickeln und vermarkten. Wenn NV das konsistent früher und oft besser hinbekommt, kriegen die halt mein Geld.
Das heißt ja nicht, ich fände AMD GPUs Mist.
Wer zuerst kommt, malt zuerst.
 
  • Gefällt mir
Reaktionen: Mimir
@Mcr-King

Nochmal: Wenn ein Entwickler ein modernes Triple-A Spiel entwickelt. Nehmen wir mal Horizon Forbidden West mit praktisch dem besten Rasterizing was realisierbar ist, dann sind die Entwickler darauf angewiesen viel mit Lightmaps bzw. pre baked Lighting zu arbeiten.

Wenn sie das tun, dann sind die Möglichkeiten, Physik im Spiel zu nutzen stark limitiert, da sämtliche Objekte die vom pre baked lighting berücksichtigt werden dann nicht mehr verändert oder bewegt werden dürfen.


Natürlich kann ein Entwickler auch heute viel Physik und Zerstörung nutzen. Dann kann er aber kein prebaked lighting via lightmaps nutzen, sondern muss mit 10 Jahre älterer Grafik leben oder er setzt auf Raytraced Global Illumination.

Jetzt verstanden? Gut effektiv hab ich jetzt nochmal das gleiche geschrieben, aber ist das jetzt wirklich so schwer zu verstehen? Was willst du mit dem Nintendo vergleich? Nintendo Spiele sehen aus wie PC Spiele vor 20 Jahren. Wenn dir diese Spiele lieber sind, okay. Gibt ja auch viele Indie Games, die mit simpler Grafik viel erreichen. Aber das typische Triple-A Spiel mit guter Grafik das auf Lightmaps setzt kann eben nicht viel Physik nutzen. Das hat die Spielelandschaft der letzten 10-15 Jahre eben sehr stark geprägt.
 
Zurück
Oben