News 3D-Camcorder von Sony?

Es gibt eine übschaubare Anzahl an Techniken, wie man aus zwei Kameras eine Tiefeninformation berechnen kann.

Es handelt sich bei den meisten Kameras eher um eine 2.5D Technik, die zu jedem X,Y Tupel nur einen Z Wert berechnet, daher 2.5D und kein echtes 3D.

Der Z Wert wird anhand der Kamerakonstante (c), Abstand beider Kameras (B) und identischen Punkten (x1,y1),(x2,y2) in beiden Bildern berechnet. Am einfachsten ist es wenn die Kameras nicht verschwenkt sind.

(Stereonormalfall)
Koordinatenursprung ist hierbei der jeweilige Bildmittelpunkt. Koordinatensystem mathematisch.
Z=-c*B/(x1-x2)
Y=-Z*y1/c
X=-Z*x1/c

Man sieht, dass B in der Theorie willkürlich (nicht Null, da sonst x1-x2 auch Null wird) gewählt werden kann um Z zu berechnen. In der Praxis sollte man jedoch für eine gut messbare Strecke sorgen, da die Kamerasysteme auch so schon von Haus aus Fertigungsfehler (Linsenfehler,CCD Fertigungsfehler) mitbringen, welche die Bildqualität mindern. Genau genommen stehen die beiden Kameras auch nicht exakt Parallel, sie haben Parallaxen.

Man sieht auch, dass nur dann eine Tiefeninformation berechnet werden kann, wenn man identische Punkte in beiden Bildern hat (Überlappung). Daraus folgt das beide Kameras auch nicht zu großen Abstand haben dürfen da sonst der Überlappungsbereich und das daraus resultierende 2.5D Bild kleiner wird.

Ein Buchtipp:
Karl Kraus - Photogrammetrie Band 1 (Geometische Informationen aus Photographien und Laserscanneraufnahmen).
ISBN: 3110177080
http://www.amazon.de/Photogrammetrie-Geometrische-Informationen-Photographien-Laserscanneraufnahmen/dp/3110177080/
 
Naja .. aber es geht ja hier nicht in erster Linie darum, die 3D-Informationen aus den Bildern per Algorithmus berechnen zu können, sondern darum, daß unser Gehirn das beim Betrachten der Stereo-Bilder (möglichst gut) selbst tut.

Und wäre es dafür nicht das beste, wenn der Linsen-Abstand in etwa dem von menschlichen Augen entsprechen würde?
 
Konti schrieb:
Naja .. aber es geht ja hier nicht in erster Linie darum, die 3D-Informationen aus den Bildern per Algorithmus berechnen zu können, sondern darum, daß unser Gehirn das beim Betrachten der Stereo-Bilder (möglichst gut) selbst tut.

Eigentlich habe ich die Formeln mit angegeben, damit man nachvollziehen kann warum der Abstand irrelevant ist.

Konti schrieb:
Und wäre es dafür nicht das beste, wenn der Linsen-Abstand in etwa dem von menschlichen Augen entsprechen würde?

Nein. Du bekommst sicherlich nicht die Bilder der linken und der rechten Linse zu sehen sondern zwei umgerechnete Bilder.
 
Konti schrieb:
Achso .. und das geht so ohne weiteres und (relativ) artefaktfrei?
Bin tatsächlich davon ausgegangen, man würde einfach zwei Bilder aufnehmen und diese dann auch wieder zeigen.

Ist natürlich auch möglich, jedoch eine Suboptimale Lösung weil man gleich zwei Videos speichern muss. Das heisst 2*Länge*Breite*Farbtiefe.

Auf der anderen Seite ist es auch denkbar das man doch beide Videos abspeichert.. so weit vom Augenabstand ist hier der Linsenabstand bestimmt auch nicht.

Man müsste einfach mal die Patente durchwühlen die im Handbuch angegeben sind um näheres zu Erfahren.
 
Naja, man kann auch die Teile des Bildes die sich überlappen einmal und den Rest extra speichern.
Der Zuschauer bekommt dann stumpf die beiden Bilder vorgesetzt, für jedes Auge eins.
 
Zurück
Oben