Oculus Rift vs. HTC Vive: VR-Entwickler erklären den FOV-Unterschied

Andreas Schnäpp
68 Kommentare
Oculus Rift vs. HTC Vive: VR-Entwickler erklären den FOV-Unterschied

Einleitung

Wie kommt es, dass Oculus Rift und HTC Vive trotz identischer Auflösung ein wahrnehmbar unterschiedliches Bild abliefern? Im Testbericht der Oculus Rift sorgte dieser Umstand für eine echte Überraschung. ComputerBase attestierte der Oculus Rift eine „sichtbar schärfere“ Bilddarstellung mit unauffälligeren Subpixeln. Im Gegenzug dazu konnte die HTC Vive mit einem höheren Sichtfeld (FOV, engl.: Field of View) punkten.

Den meisten Nutzern werden diese Merkmale der ersten Consumer-VR-Brillen, wenn überhaupt, nur beim direkten Vergleich auffallen. Dennoch lohnt es sich, dem Phänomen auf den Grund zu gehen. Entwickler klären über die technischen Hintergründe auf.

Die „Taucherbrille“ als Tor zur virtuellen Welt

Egal ob High-End-Lösung auf dem PC oder mobil per Smartphone: Die virtuelle Realität bleibt auf absehbare Zeit „Taucherbrillen“-Territorium. Der gleichnamige Effekt entsteht in VR-Brillen durch die künstliche Einschränkung des menschlichen Sichtfelds. Auf horizontaler Ebene liegt der von beiden Augen kombiniert erfasste visuelle Bereich schätzungsweise bei 200 Grad, auf vertikaler Ebene bei 130 bis 135 Grad.

Die technische Imitation des natürlichen 3D-Sehens in Form von vor ein Display gespannter Fresnel-Linsen, die mit optischer Verzerrung das „Mittendrin“-Gefühl hervorrufen, ist insofern nur eine erste Annäherung an den hochkomplexen Sehapparat des Menschen. Zudem ist das Sichtfeld von mehreren individuellen Faktoren abhängig. Dazu zählen unter anderem der Abstand zwischen dem Auge des Nutzers und der Linse der VR-Brille sowie die Kopfform. Kommt eine Sehhilfe zum Einsatz, wirkt sich dies ebenfalls auf das effektiv wahrgenommene Sichtfeld aus.

Ein objektiver Vergleich anhand „nackter Zahlen“ wird dadurch schwer bis unmöglich. Während HTC das Sichtfeld der Vive auf 110 Grad beziffert, hat sich Oculus bis zum Schluss zu dem Thema ausgeschwiegen. Dies hielt findige Tüftler und VR-Entwickler jedoch nicht davon ab, ihre eigenen Nachforschungen anzustellen. Allen voran Oliver Kreylos, Forscher und 3D-Entwickler an der University of California, Davis, der mit einer ausführlichen Foto-Testreihe hervor stach. Die unterschiedlich geformten VR-Sichtfelder wurden in einem weiteren Bildvergleich ersichtlich, welcher auch im ComputerBase Testbericht herangezogen wurde. Diesen lieferte Brandon Laatsch, einer der Entwickler hinter dem VR-Mehrspieler-Shooter Hover Junkers.

VR-Programmierer sprechen Klartext

ComputerBase suchte folglich das Gespräch mit VR-Entwicklern, die mit beiden Virtual-Reality-Plattformen auf dem PC vertraut sind. Im Gegenzug für die gewährten Einblicke versprach die Redaktion, die Quellen der Zitate vertraulich zu behandeln: In einem PC-Ökosystem, bei dem beide VR-Systeme unterschiedliche, funktionierende Lösungen bieten, wolle man sich nicht auf eine der beiden Seiten schlagen. Diesem nachvollziehbaren Wunsch kommt ComputerBase selbstverständlich nach.

Obwohl die Auflösungen der beiden VR-Systeme von Oculus sowie HTC und Valve auf dem Papier dieselben sind, machen sich die unterschiedlichen Lösungsansätze und verwendeten Linsen besonders im fovealen Sichtbereich bemerkbar: Die höhere Bild-Klarheit und einfachere Lesbarkeit im „sweet spot“ der Oculus Rift ist laut einem befragten VR-Programmierer durch das „signifikant größere“ Sichtfeld der HTC Vive zu erklären. Oder mit anderen Worten ausgedrückt: Das Sichtfeld der Rift ist, verglichen mit der Vive, deutlich gestaucht. In Folge dessen erscheinen VR-Inhalte, die in der Nähe des zentralen Sichtbereichs für ein einzelnes Auge abgebildet werden, vor der optischen Verzerrung durch die Fresnel-Linsenungefähr 30 Prozent größer auf der Rift“, so der Entwickler.

Im Umkehrschluss bedeutet das, dass die für ein einzelnes Auge auf der Vive gerenderten Bilder „auf jeder Achse ungefähr 6 Prozent größer“ ausfallen. Nach der optischen Verzerrung durch die Fresnel-Linse liegt der Größenunterschied von Objekten im Zentrum des nun verzerrten Bildes bei immerhin „ungefähr 25 Prozent“ zu Gunsten der Rift.

Typische Aliasing-Effekte wie Treppenbildung bei Kanten und Übergängen sind aufgrund des größeren Sichtfelds auf der Vive „auffallender“: Angekommen auf der Netzhaut des Nutzers ist das abgegebene Licht eines einzelnen Display-Pixels schlichtweg für mehr Fläche verantwortlich als bei der Rift. Um Aliasing-Effekten entgegen zu wirken, setzen VR-Entwickler auf Supersampling.

What you're noticing is that Rift and Vive are using slightly different techniques. Vive offers a larger field of view at the expense of clarity, and Rift favours clarity over the wide FOV.

anonymer VR-Programmierer

Zwei Lösungen, ein Ergebnis: Immersion

Für welche VR-Lösung sich Käufer der ersten Stunde auch entscheiden, unterm Strich bleibt es bei der Erkenntnis: „Die perfekte VR-Brille für alle Einsatzzwecke gibt es zurzeit noch nicht.“ Da die menschliche Wahrnehmung nicht wie ein absolutes Messinstrument funktioniert, können sich Unterschiede wie das in diesem Artikel beschriebene Sichtfeld-Merkmal, je nach VR-Nutzer und -Anwendung erst bei genauerer Betrachtung – oder eben gar nicht – bemerkbar machen. Der Immersion stehen technische Details zumindest aktuell nicht mehr im Weg.

Konkrete Lösungsansätze am VR-Horizont wie das von Alex Vlachos auf der GDC 2016 vorgestellte „Adaptive Quality“-Plugin für die Unity-Engine oder Rendertricks wie Multi-Resolution-Shading in Nvidias VRWorks SDK sowie AMDs Asynchronous Shaders-Technik versprechen einen Zuwachs an effizient genutzter GPU-Leistung. Hält die Technik, was sie verspricht, werden die aktuell verfügbaren VR-Brillen von dem Mehr an Leistung doppelt profitieren: So bleibt auch Luft nach oben für das die Bildqualität steigernde Post-Processing.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.