News Cardboard Camera für iOS: Virtual-Reality-Panoramen mit dem iPhone aufnehmen

Klingt ja ganz interessant. Später mal ausprobieren.
 
Nur, dass man mit der lächerlichen Displayauflösung bei den iphones mehr fliegengitter sieht als Bildinhalt. Ich habe so eine Cardboard-ähnliche Brille mit dem iphone 6 getestet, welches die gleiche auflösung wie 7 hat und bei der PPI kann man nicht wirklich VR Inhalte geniessen.

Deshalb wirds dieses Jahr ein Gerät mit einem OLED Display und einer 1440p Auflösung werden (oder vllt. sogar 4k- kommt drauf an ob Samsung da schon was entwickelt hat).

Sobald Apple ebenfalls ein OLED Display verbaut mit mind. 1440p beim 4.7 zoll Iphone- dann wird wieder zurückgewechselt.

In sachen VR sind die iphones aktuell leider sogut wie unbrauchbar. Zwar sind die displays für die normale benutzung sehr gut, aber bei VR Inhalten ist die heutzutage eher durchshnittliche Auflösung ein riesen "Flaschenhals".
 
Zuletzt bearbeitet:
Ich kann mich 8-BaLL nur anschließen: die Auflösung des iPhone ist einfach viel zu gering für VR-Erfahrungen.
Die Kamera mag zwar ganz gut sein, nur sieht man ja selbst bei deutlich mehr Pixeln deutlich ein Fliegengitter, wie wird da erst das iPhone aussehen...?
 
Irgendwie verstehe ich das nicht. Wie wird den daraus ein 3D-Bild für VR? Wird das simuliert wie es auch 3D Fernseher können. Den ich kann mir nicht vorstellen, dass mit einem Objektiv nur durch die leichte Drehung und dadurch minimal anderen Blickwinkel die Software und Hardware daraus ein wirkliches 3D Bild erstellen können.
 
Nix Neues. Mein Note 3 hatte vor ein paar Monaten auch diese Funktion erhalten um solche Aufnahmen zu machen.
 
@wunschiwunsch

Das geht z.B. indem man erst die Bilder "ausrichtet" (rektifiziert) und dann die Disparitäten von jedem Pixel zweier Aufnahmen gegeneinander vergleicht. Gegenstände, die sich nah an der Kamera befinden, werden sich in den zwei Bildern an deutlich anderen Positionen befinden als Gegenstände am Horizont, deren relative Position im Bild sich kaum bis gar nicht verändert. Ist vergleichbar mit dem Blick aus dem Auto- oder Zugfenster: Bäume direkt am Rand der Fahrbahn rasen vorbei, während sich weit entfernte Häuser o.ä. kaum bewegen. Über diese Verschiebung (Disparität), die man aus dem Vergleich zweier Fotos aus leicht unterschiedlichen Perspektiven gewinnt, kann man dann auch umgekehrt die Tiefe des Objekts im Bild (sprich: die Entfernung von der Kamera) bestimmen.

Ein kleiner räumlicher Versatz der Kamera zwischen den Aufnahmen reicht dafür schon aus und das ist mit der Drehung um die eigene Achse mit Kamera in der Hand ja gegeben. Würde man das Telefon wirklich exakt um den Mittelpunkt der Kamera rotieren, würde das nicht funktionieren (glaube ich. Kann's jemand testen? :p )

Ein anderer Ansatz ist optical flow, was auch in facebooks Surround 360 Projekt verwendet wird. Sieht dann so aus:
13679810_1559336451039884_661011434_n.jpg

Quelle vom Bild und eine ausführliche Erklärung zum Algorithmus (ist open source) gibt's hier: https://code.facebook.com/posts/265413023819735/surround-360-is-now-open-source/
 
Zuletzt bearbeitet:
Zurück
Oben