Unreal Engine: Pläne für native Mixed-Reality-Aufnahmen

Andreas Schnäpp
7 Kommentare
Unreal Engine: Pläne für native Mixed-Reality-Aufnahmen
Bild: Valve

Für Entwickler stellt sich spätestens zur Veröffentlichung ihrer VR-Anwendung ein grundlegendes Kommunikationsproblem: Wie lässt sich auf Film bannen, was der zukünftige Nutzer in der virtuellen Realität wahrnimmt? Ein technisch kompliziertes, aber bewährtes Mittel sind „Mixed Reality“-Videos. Epic Games möchte das vereinfachen.

Seit wenigen Tagen ist Version 4.12 der Unreal Engine offiziell verfügbar, die unter anderem die Erstellung von 3D-Welten im „VR-Editor“ ermöglicht und erstmalig Googles mobile VR-Plattform „Daydream“ sowie OSVR unterstützt. Eine Twitter-Nachricht von James Golding, Lead Programmer bei Epic Games für die Unreal Engine und das dazugehörige Framework, verrät nun Pläne zur nativen Unterstützung von Mixed Reality Aufnahmen direkt in der Spiel-Engine.

Win-Win-Situation für Entwickler und Spieler

Was zunächst den Arbeitsalltag von Entwicklern erleichtern wird, hat auch direkte Folgen für Spieler: Klassisches Gameplay-Material in Form von Trailern oder Spielaufnahmen, wie sie am Monitor abgebildet werden, können nur unzureichend ein Gefühl dafür vermitteln, wie sich ein VR-Titel für den Nutzer anfühlt. Die Entwickler von Fantastic Contraption setzten deswegen schon frühzeitig auf ein kompliziertes Greenscreen-Verfahren, um VR-Spielaufnahmen perspektivisch korrekt mit der Realität verschmelzen zu lassen. Der Ansatz findet in der Entwicklergemeinde viel Zuspruch, sodass sogar Valve im Werbematerial zu SteamVR und der HTC Vive auf eine weiterentwickelte Form des Prinzips setzte (YouTube-Video).

Das bisherige Problem: Für jede einzelne VR-Anwendung, unabhängig von der verwendeten Engine, muss seitens der Entwickler ein „Mixed Reality“-Modus bedacht werden, um die Position und Ausrichtung der Kamera beim Verschmelzen von Spiel- und Umgebungsaufnahmen korrekt abzubilden. Neben einer mindestens vierstelligen Investition in „Do-It-Yourself“-Greenscreen-Technik bedeutet der Ansatz auch einen Software-seitigen Mehraufwand für Entwickler. Letzterem Problem will Epic Games sich zumindest in der hauseigenen Engine annehmen, indem sowohl stationäre als auch im Raum getrackte Kameras ihre Filmaufnahmen in die Szenenkomposition einfließen lassen können. Mixed-Reality-Videos sollen sich auf diese Weise direkt in der Unreal Engine verarbeiten lassen.

Wann genau das Feature allen VR-Entwicklern zur Verfügung gestellt werden soll, wurde nicht genannt. Die Präsentationsfolie von der „Unreal Summit 2016“-Entwicklerkonferenz in Korea, auf die sich Golding beruft, stammt vom 28. Mai und floss dementsprechend noch nicht in die neueste Version 4.12 der Spiel-Engine mit ein.

Nvidia GTC 2024 (18.–21. März 2024): ComputerBase ist vor Ort!