News Lytro Cinema: Lichtfeld-Kamera mit 755 RAW Megapixel und 300 FPS

Ehhh wie handlen die diese Riesen Datenmengen direkt ans CERN angebunden oder wie??? Someone help... :?
 
Der Knackpunkt ist das Ende des Artikels. Dies ist vermutlich die einzige Technik, mit der man nativ VR-Videos mit nur "einer" Kamera aufnehmen könnte. Das feiert und bewirbt Lytro hier. Dabei könnten es genauso gut 27,5 Sensoren nebeneinander mit einer Auflösung von 27,5 Millionen Pixeln sein. Das wäre eine technische Neuheit, aber keine revolutionäre Erfindung.
27,5 Perspektiven * 27,5 Millionen Pixel ohne Komprimierung. Das wäre wohl auch ein 756 Megapixel RAW Foto. Natürlich nur darstellbar mit einem Plugin, welches aus den Bildinformationen auch einzelne Layer mit 27,5 Megapixeln machen kann.
 
Die Sache mit 300 fps und der Perspektive: oben/unten/Mitte/links/rechts. 300/5=60 :D
 
MichiLH schrieb:
Hätte auch gerne mehr Infos. Ich mein gerade zu der Bandbreite von 400GB/s das ist fast
unmöglich (praktisch)

Im Artikel steht nichts vom speichern oder übertragen.
wobei im Extremfall 400 GByte Daten pro Sekunde anfallen.
Das interpretiere ich so, das die Daten eine längere Zeit (mehr als eine Sekunde) benötigen um aus dem Sensor ausgelesen zu werden. Dieser Effekt ist alt, gab es AFAIK nur noch nicht in diesem Maßstab.
Informier dich mal darüber wie ein CMOS Sensor funktioniert.

Rickmer schrieb:
Warum kann ich das Video nicht maximieren?
Ich kann im Interface die Option einfach nicht finden

Das und die Tatsache das HD in auf einFensterchen mit weniger als einem viertel der Bildschirmgröße zu beschränken ziemlich dumm ist, lässt mich über solche 'Supertechnik' Artikel schmunzeln.

@CB Echt tolle Show
 
Thorin schrieb:
Ich glaub du hast recht.

natürlich hat er recht :)

Man bekommt einen Bild mit Tiefeninformation. Auch auf den Bildern täuscht es, die Cam ist riesig.

Die 400GB/s beziehen sich wohl nur auf einen Burst aus 300FPS und das wird vielleicht max 1 Sekunde lang gehen. Das ist ja nicht die Regel. Eine Zahl fürs Marketing.

In so einem Klopfer landet das immer erstmal in einem flüchtigen Ram und wird dann vermutlich in Hardware oder via FPGAs weiter verarbeitet und komprimiert.
 
Zuletzt bearbeitet:
M1ch1 schrieb:
kann es sein dass es sich ein Fehler in den Text eingeschlichen hat?

Zwar ist es mit der KAmera möglich ein "3D-Bild" zu erzeugen, aber nur aus einer ansicht. Denn wie soll bspw die rückseite eines schauspielers von der kamera aufgenommen werden, wenn die vorderseite im weg ist?
Somit wäre es auch im nachhinein nicht möglich, die Perspektive zu wechseln, da dafür keinerlei daten vorliegen.

Oder hab ich einen denkfehler?
Das mit den Kamerafahrten ist auch so eine Sache. Die Kamera kann Lichtsituationen hinter Gegenständen nicht kennen, wenn irgendwo ein Schatten dahinter ist, dann sieht man den bei der virtuellen Kamerafahrt dann nicht. Zum Filmen also ziemlich ungeeignet.
 
Wenn ich das System richtig verstanden habe, liegt der große Vorteil darin, in der Nachbearbeitung Fokus und Freistellung frei zu wählen - auch unabhängig von der Belichtung.

Stereoskopie mit nur einer Kamera ist auch jetzt schon gut möglich, wie Star Wars Episode 7 gezeigt hat.

lg Kinman
 
olmo schrieb:
interessant...was technisch machbar ist....


aber für einen Tarantino...bedarf es keiner solchen Kamera,...
wie auch sonstigem 2D-Kram.
3D Kino interessiert mich nicht die Bohne...

Sehe ich genauso für VR bestimmt gut für den normalen Film halte ich das eher für unnütz, aber das wissen Profis bestimmt besser für mich ist 3D eh schon tot bzw am absteigenden Ast Film bleibt einfach Film.
 
dem endverbraucher ist das eh wurscht, weil er deswegen auch nicht ins kino geht^^. die filmeprofis müssen halt erstmal mehr bezahlen für die technik, die sich dann in kinos nicht wieder einspielt:D.
Ergänzung ()

warum sollte das für vr besser sein wie für den film? vr ist ein nischenprodukt, das die breite masse noch nicht oder niemals nutzen wird. dadurch sind die kosten höher als der nutzen, im gegensatz zur filmindustrie;)
 
37000x20000? Das ist in dem Fall wohl zu zweidimensional gedacht. Man füge die dritte Dimension hinzu und der Wert kollabiert auf ein Endergebnis im 4K Bereich mit etwas Tiefe.
 
Strothy schrieb:
Ehhh wie handlen die diese Riesen Datenmengen direkt ans CERN angebunden oder wie??? Someone help... :?

Das wird etwas anders gemacht. Durch verschiedene hardware- und softwarebasierende Filter wird die Datenmenge enorm reduziert.

Von 40 Millionen Ereignissen pro Sekunde werden nur noch 200 pro Sekunde gespeichert, was eine Datenrate von bis zu 320 Megabyte pro Sekunde ergibt.

Pro Jahr sind es dann 15 Petabytes.

Quelle


Oh ich glaube, ich habe deine Frage falsch verstanden. Aber Ergebnis ist, dass beim CERN pro Sekunde deutlich weniger gespeichert wird, als bei der Lytro Kamera.
 
Zuletzt bearbeitet:
winni71 schrieb:
Das mit den Kamerafahrten ist auch so eine Sache. Die Kamera kann Lichtsituationen hinter Gegenständen nicht kennen, wenn irgendwo ein Schatten dahinter ist, dann sieht man den bei der virtuellen Kamerafahrt dann nicht. Zum Filmen also ziemlich ungeeignet.

Mit 3D- Bild ist nur der Zusatz der Tiefeninformation gemeint, was dann für nachträgliche Fokussierung und ein Absetzen von Objekten verwendet werden kann. Mit denen ist es dann möglich den Hintergrund nachträglich so gut zu Ändern, als hätten sie vor einem Greenscreen gedreht (oder besser und einfacher) und den Fokus erst in der Nachbearbeitung zu wählen, anstatt es am Set zu tun. Perspektive Ändern ist natürlich nur in einem eingeschränkten Rahmen möglich, welche sich grob durch die Sensorgröße und den einfallenden Licht ergibt. Das ist ausreichend für Perspektivenunterschiede für linkes und rechtes Auge und vielleicht ein bisschen mehr, zusätzlich dann auch noch in der Vertikale. Unterschied zu den herkömmlichen 3D-Kameras kann man diese Perspektiven dann frei wählen und im nachhinein mehr oder weniger Tiefe beim 3D-Endprodukt einbringen. Natürlich kann sie nicht um Objekte herum oder hindurch sehen, das ist physikalisch Unmöglich, also nichts mit von der anderen Seite betrachten, wenn's nur von der einen Seite aufgenommen wurde. Betrachtet die digitale 3D-Aufnahme eher wie ein Relief-Bild, nur das da noch Bewegung hinzukommt.
 
Zuletzt bearbeitet:
feidl74 schrieb:
Ergänzung ()

warum sollte das für vr besser sein wie für den film? vr ist ein nischenprodukt, das die breite masse noch nicht oder niemals nutzen wird. dadurch sind die kosten höher als der nutzen, im gegensatz zur filmindustrie;)

Tablet war auch mal ein Nischenprodukt da wo die Meisten glaubten das wird nichts und wo sind sie jetzt.
Warum das für VR besser sein soll kannste dir selber beantworten da liegt schon an den anderen Möglichkeiten, nicht nur auf Film sondern interaktive Anwendungen die vorher damit gefilmt wurden.
Beim Film habe ich den besten Genuss wenn es ohne Firlefanz wie "3D" ist.
Ob sich solch eine Kamera lohnt nur um den Greenscreen einzuspaaren oder aufgrund des nachträglich änderebaren Winkels ich weis es nicht würde gerne dazu eine Meinung eines Nolab, Emmerich, Snyder oder J.J. Abrams hören.
 
Und in 15 Jahren haben wir sowas in den Smartphones ^^ Ob die kamera den Preis wert ist und wirklich den großen Mehrwert bietet? Die 400GB/s fallen eh nur bei voller Auflösung und 300fps an (kann die Kamera überhaupt 300fps in maximal Auflösung?) Und was ist denn hier die maximale Auflösung überhaupt?

Highspeed Kameras machen das mit einem riesigen Arbeitsspeicher. Die Aufnahmedauer ist stark begrenzt. Bei einer kamera, die 100000 FPS aufnehmen kannentspricht eine Sekunde Aufnahme halt am ende auch über eine Stunde Abspieldauer. Ähnlich ist es dann auch bei der oben genannten Kamera. Die 400GB/s werden nur kurz anliegen und durch reichlich Ram Cache gepuffert und dann schschließend entweder über 10 oder 40Gig Netzwerk ausgegeben oder halt direkt auf ein PCI Expressbasierendes Flashmedium gespeichert.

Für den Zuschauer ist es letztlich egal. Ob der Film mit einer Lytro oder Red Epic oder sonstwas gedreht wird, sieht der der normale Zuschaur eh nicht. Besonders nicht im Kino, wo es qualitativ eh meistens eher mittelmäßig wirkt, gegenüber einem hochwertigen Display. Das ist mehr der feuchte Traum von Filmemachern.

Ansonsten muss man echt sehen, was am ende bei dem Ding rauskommt. Ne Red Dragon 6K nimmt auch 300fps auf, wenn auch nicht in 6K und kostet dabei nur einen Bruchteil der Mietkosten der Lytro.
 
H3rby schrieb:
Wie bekommt man denn (den Extremfall von) 400 GB pro Sekunde an Daten gespeichert?

Ein Grid bzw. Cluster aus RAM Speicher Server ( Ramdisk ) z.B. Wenn jemand Server mit 60 Cores u. 1TB RAM dafür in so einen einzigen 3 o 4 U Rack bauen kann, stell dir vor, was möglich ist, wenn Server Extra für solche Datenmengen konzipiert werden.

Referenz System auf das ich anspreche-> https://www.youtube.com/watch?v=ry5A5Qvs3Qg
 
Zuletzt bearbeitet:
Candy_Cloud schrieb:
Solche Bandbreiten decken im Moment nur flüchtige GDDR5 oder HBM Bausteine ab. Die schnellsten SSD Controller hängen bei 2-3GB/s (Konsumer) ab. Davon müßte man also ca. 200 Stück parallel Betreiben zum direkten Speichern.

Mit dem passenden Storage System kein Problem. Muss ja nicht auf einem Medium gespeichert werden, sondern wie üblich immer nur ein paar Datenblöcke auf einem Medium. Aus diesem Grund gibt es verteilte Storage-Systeme. Wird halt das Storage System auf 40 Server mit entsprechenden Disk Arrays aufgeteilt. Jedes System bekommt dann ein 100G Uplink und fertig.

Hat halt nicht jeder, aber möglich, deshalb gibt es alles zur Miete.
Benzolium schrieb:
Wenn jemand Server mit 60 Cores u. 1TB RAM dafür in so einen einzigen 3 o 4 U Rack bauen kann, stell dir vor, was möglich ist, wenn Server Extra für solche Datenmengen konzipiert werden.

Für das System wird nichts extra konstruiert. Wäre viel zu teuer, wenn HP oder sonst wer extra für zwei drei Systeme extra Hardware entwickeln müsste. Es wird Standard-Hardware von der Stange genommen, eben in einem etwas größeren Umfang.
 
Zuletzt bearbeitet:
Zumal in der in dem bereich, wo man sich Kameras für einige Tausend Dollar pro Tag mietet auch ein entsprechendes Budget gegeben ist. Solchen Datenmengen werden später dann auf Serverfarmen weiterverarbeitet, auch Cloudcomputing wird hier zukünftig eine rolle spielen.
 
Zurück
Oben