Nvidia Iray VR : Interaktiver Fotorealismus für VR-Anwendungen

, 20 Kommentare
Nvidia Iray VR: Interaktiver Fotorealismus für VR-Anwendungen

Nvidias Rendertechnologie Iray soll ab Juni auch in VR-Anwendungen interaktiven Fotorealismus ermöglichen. Dabei geht es aber nicht um Spiele, sondern insbesondere um Anwendungsmöglichkeiten im Bereich Design, in denen eine physikalisch korrekte und realistische Darstellung von Materialien und Lichtverhältnissen benötigt wird.

Im Rahmen seiner GTC-Keynote demonstrierte Nvidias CEO Jen-Hsun Huang den Anwesenden als Beispiel die fotorealistisch für eine VR-Brille aufbereitete Innenansicht des neuen Campus von Nvidia in Santa Clara. Diese Innenansichten von Gebäuden in der Planung und im Bau sind einer der Anwendungsfälle von Iray VR.

YouTube-Video: GTC 2016: Photorealistic Virtual Reality with Iray VR (part 3)

Die realistische Simulation des physikalischen Verhaltens von Materialien und Körpern und ihrer Interaktion mit Licht mittels Raytracing sollen dabei helfen, Schwachstellen in Entwürfen aufzuspüren und möglichst schnell überarbeiten zu können, noch bevor der erste Spatenstich gefallen ist.

Als eine weitere Anwendungsmöglichkeit führt Nvidia die Innenraumausstattung von Autos an. Diese könnten potenzielle Käufer mit Iray VR vor der Bestellung in allen Ausstattungsvarianten und aus jedem Winkel begutachten, bevor sie eine Entscheidung fällen.

Großer Rechenaufwand

Der Rechenaufwand, der hinter einem in Iray VR berechneten Raum steckt, ist allerdings enorm und in Echtzeit in absehbarer Zeit nicht zu bewältigen. Um die Ansicht eines Raumes fotorealistisch für den Blick durch die VR-Brille vorzubereiten, werden in dem Areal, mit dem der Betrachter interagieren soll, zunächst mittels Raytracing 100 sogenannte Light Probes berechnet. Dabei handelt es sich letztlich um komplette Lichtfelder, von den jeweiligen Punkten ausgehende.

Für die fotorealistischen 4k-Renderings, die für jede Light Probe erstellt werden, benötigt ein Server mit acht GPUs jeweils rund eine Stunde. Auf den gesamten Raum bezogen wird mit diesem Hardwaresetup also eine Rechenzeit von rund 100 Stunden benötigt, alternativ ist aber auch eine schnellere Berechnung mit einem leistungsstärkeren Hardwaresetup möglich. Damit ist es allerdings noch nicht getan.

Um den Raum mit einer VR-Brille erkunden zu können, ist im zweiten Schritt für die Rasterisierung und Komposition des Bildes eine Workstation mit sehr großem Framebuffer notwendig, in den die berechneten Light Probes alle hinein passen. Huang sprach in diesem Zusammenhang von einer Workstation mit Quadro M6000.

Dazu wird die Szene vom Punkt des Auges aus rasterisiert, um die Tiefen zu berechnen und herauszufinden, an welchem Punkt welche Light Probe am besten passt. Die gesammelten Daten aus den 100 Light Probes werden dann im letzten Schritt zu einem Bild zusammengesetzt, gefiltert und bearbeitet, um ein optimales Ergebnis zu erreichen.

Iray VR Lite

Da nicht jeder die Rechenleistung eines Supercomputers zur Verfügung hat, wird Nvidia im Juni auch noch Iray VR Lite veröffentlichen. Das Plugin für 3ds Max und andere Anwendungen ist weitaus weniger mächtig, erlaubt es aber, mit einem Tastendruck eine komplett mittels Raytracing berechnete Fotosphäre zu erstellen.

Am Monitor dient Iray bereits der Simulation von Beleuchtungseinflüssen

Von Architekten und Lichtdesigner wird Iray bereits jetzt eingesetzt, um das Zusammenspiel von Entwürfen mit den Lichtbedingungen zu verschiedenen Tages- und Jahreszeiten vorab nachzustellen. Die Möglichkeiten, die Simulationen interaktiv mit einer VR-Brille zu betrachten, sind so gesehen also nur die nächste Evolutionsstufe von Iray.