News Plug-and-Play-Lösung: Samsungs Bildsensor S5K3P9 vereint vier Pixel zu einem

„Für die Stabilisierung von Fotoaufnahmen und Videos ohne OIS ist ein sogenannter Gyro-Synchronisator zuständig, der über das Gyroskop des Endgeräts ermittelte Bewegungsinformationen abgreift, um daraufhin über SoC-Berechnungen die Aufnahme zu stabilisieren.“

Das nennt man doch EIS, oder was ist daran besonders?
 
Der Sensor ist im Prinzip nichts neues. Die Technik ist von Nokia und Huawei bekannt, und erst gestern hat LG mit dem G7 ein Gerät vorgestellt, dass das auch kann. Mit dem allseits bekannten Sony IMX 351.
 
"Der S5K3P9 bietet 16 Megapixel und erreicht damit im 4:3-Format eine Auflösung von 4.640 × 3.488 Bildpunkten. Die Kantenlänge der Pixel des mit 1/3,1 Zoll relativ kleinen Sensors liegt bei 1,0 µm"

Also exakt das gleiche wie der Sony IMX351 in meinem LG V30 :D
 
Sie müssen aufholen, sonst kommen sie nicht mehr mit. Bin der Meinung, sie haben sich zu lange auf ihren Lorbeeren ausgeruht.
 
Macht das denn einen Unterschied, ob ich die Pixel erst zusammenfasse und dann auslese oder ob ich einfach das Bild mit voller Auflösung auslese und hinterher bei Bedarf herunterskaliere?
 
Binning kann ich unter anderem dazu benutzen, um die Empfindlichkeit zur Erhöhen und/oder einen besseren SNR Wert zu erzielen. Die Bildrate kann sich durch die geringere Auflösung dann ebenfalls erhöhen.
 
jusaca schrieb:
Macht das denn einen Unterschied, ob ich die Pixel erst zusammenfasse und dann auslese oder ob ich einfach das Bild mit voller Auflösung auslese und hinterher bei Bedarf herunterskaliere?

Ja, der Qualitätsunterschied bei Lichtempfindlichkeit und Rauschen ist extrem.
 
Der neue Sensor dürfte auf dem im Xiami Redmi Note 3 Pro verwendeten Sensor basieren und sogar größtenteils der Gleiche sein. Nun ergänzt um Pixel-Binning auf Harwdware-Ebene.
 
estros schrieb:
„Für die Stabilisierung von Fotoaufnahmen und Videos ohne OIS ist ein sogenannter Gyro-Synchronisator zuständig, der über das Gyroskop des Endgeräts ermittelte Bewegungsinformationen abgreift, um daraufhin über SoC-Berechnungen die Aufnahme zu stabilisieren.“

Das nennt man doch EIS, oder was ist daran besonders?

Jaein. Eigentlich schon aber bei manchen Geräten wird das Bild einfach via Plugin stabilisiert. Dies erzeugt zwar schön sanfte Kameraschwenks aber bei schnell bewegenden Objekten springt die Kamera plötzlich hinterher. Also das kann jeder mit Deshaker, Youtube, Google Fotos oder Adobe Premiere machen ggf andere Videobearbeitungsprogramme.
Beim Gyro-basierten EIS weiß die Kamera dass das ein schnelles Objekt ist und kein Wackeln der Kamera. Bei schnell vorbei fahrenden Autos bleibt die Kamera ruhig.
Noch besser ist, wenn der EIS noch den Rolling Shutter entfernen kann. Bei nicht allzu guten Filtern wackelt das Bild und wirkt als würde man durch Wasser schauen (Whobbling) Huwei kann das z.B. nicht entfernen. Apple hingegen schon.

Ich bin gespannt was da noch Alles auf uns zu kommen wird.
 
AAS schrieb:
Ja, der Qualitätsunterschied bei Lichtempfindlichkeit und Rauschen ist extrem.
Aber wie kommt das? Wenn man den Mittelwert der vier Pixel bildet, dann sollte das zusätzliche Rauschen doch auf eine ähnliche Größe reduziert werden, oder nicht? Das gesammelte Licht und damit die gesammelte Information ist ja in beiden Fällen gleich groß.
Also naja, offensichtlich nicht, wenn es einen sichtbaren Unterschiede macht, aber ich versteh nicht warum xD
 
jusaca schrieb:
Aber wie kommt das? Wenn man den Mittelwert der vier Pixel bildet, dann sollte das zusätzliche Rauschen doch auf eine ähnliche Größe reduziert werden, oder nicht? Das gesammelte Licht und damit die gesammelte Information ist ja in beiden Fällen gleich groß.
Also naja, offensichtlich nicht, wenn es einen sichtbaren Unterschiede macht, aber ich versteh nicht warum xD

Ein Teil des Effekts beruht darauf aus dem Downsampling, ja - weniger Detail (Megapixel) aber dafür auch weniger Rauschen. Ein weiterer Teil soll aber offenbar darauf beruhen dass eine Ebene weiter unten, Bayer-Matrix Pixel zusammengefasst werden. Ganz klar ist mir aber auch nicht, ob dieser Effekt tatsächlich so groß ist. Nach meinem Eindruck ist es eigentlich eher das Oversampling, das zur Verbesserung der Low-Light-Performance beiträgt. Grundsätzlich entscheidend ist also die Sensorgröße. Das Gute an vielen MP + Binning ist halt, dass man bei guten Lichtverhältnissen nach wie vor auf die native Megapixelzahl zurückschalten kann und mehr Details bekommt ("Das beste aus beiden Welten")

Pixel-Binning: Findet vor dem Demosaicing statt
Oversampling: Findet nach dem Demosaicing statt

Pixel-Binning hat einen Edge, weil mit dem Demosaicing ein Teil der Entropie verloren zu gehen scheint.



(Oversampling: Ergebnisbild wird durch Downsampling von einem höher aufgelösten Bild errechnet)
 
Zuletzt bearbeitet:
Binning gibt es schon ne Weile in der Astrofotografie. Gutes Feature.
 
jusaca schrieb:
Aber wie kommt das? Wenn man den Mittelwert der vier Pixel bildet, dann sollte das zusätzliche Rauschen doch auf eine ähnliche Größe reduziert werden, oder nicht? Das gesammelte Licht und damit die gesammelte Information ist ja in beiden Fällen gleich groß.

AAS schrieb:
Ja, der Qualitätsunterschied bei Lichtempfindlichkeit und Rauschen ist extrem.

Es gibt quasi keinen Unterschied was das reine Bildrauschen angeht zwischen Downsampling und "Hardware"-Pixelbinning, der über die Messtoleranz hinausgeht. Bei Langzeitbelichtung im Minutenbereich können ggf. andere Effekte zu tage treten, das hat aber nichts mit dem Einsatzgebiet von Handysensoren zutun.

Das Nokia 808 hat es vorgemacht. Wenn man sich das ganze verdeutlichen will kann man mal die A7S2 mit der A7R2 bei dpreview vergleichen, das Pixelverhältnis ist ca. 1 zu 3,5. Die Sensoren kommt von gleichen Unternehmen in ca. der gleichen Zeitspanne sollte also abgesehen von der Auflösung sehr ähnlich agieren. Und so ist es auch schaut man sich die RAWs im High-ISO bereich an und aktiviert das Downsampling (der COMP-Button oben rechts) dann ist das Rauschverhalten quasi identisch.

Zum Demosaicing, ob das vor dem Downsampling gemacht wird oder ob ich es dank Pixelbinning eigentlich weglassen kann macht qualitativ ganz selten bei Grenzfällen (Aliasing, etc.) einen leichten Unterschied. Auch hier sind das keine Szenarien, die bei einem Handysensor eine Rolle spielen.

Pixelbinning bringt, wie oben schon erwähnt, aber andere Vorteile. Bildwiederholrate ist hier das Stichwort ein Fullsensorreadout mit weniger Pixeln geht schlicht schneller und wenn ich die Auflösung reicht oder ich sowieso zur Rauschreduktion Downsampling einsetze dann ist Pixelbinning erheblich schneller als alle Pixel auslesen und dann noch kubisch (oder schlimmer :)) herunterzurechnen.
 
Ähm, also Pixelbinning sollte in höherem Rauschen resultieren als Downsampling. Kommt halt auf das Verhältnis an, wie stark der Unterschied ist. Gut kann man das an der Video ISO Performance sehen bei der A6300 und A7RII. Die A6300 sieht bei high ISO besser aus als die A7RII im fullframe mode, da die A6300 downsampling von 6K macht und die A7RII pixelbinning macht. Lustigerweise ist bei der A7RII sogar der APS-C Modus etwas rauschfreier, aus dem selben Grund.
 
Fuji hatte ja schon vor fast 10 Jahren mit ihren "exr" Sensoren Pixel binning in Digitalkameras benutzt. Habe hier auch noch eine Kamera mit exr aber bei 1/2" Sensorgröße ist der Vorteil dieser Technik in der Praxis nur minimal. Bei einem 1/3,1 Sensor dürfte diese Technik noch weniger sichtbare Vorteile bringen.
 
AAS schrieb:
Ja, der Qualitätsunterschied bei Lichtempfindlichkeit und Rauschen ist extrem.

So recht glaube ich nicht daran. Wie soll auf diese Weise eine viel bessere Lichtempfindlichkeit ermöglicht werden? Physisch sind die Pixel immer noch winzig und es wird im Vergleich zu einem großen Pixel Fläche durch Verdrahtung verschwendet. Also nein, bis ich Beispielbilder gesehen habe, die das Gegenteil beweisen, gehe ich davon aus, dass das kaum etwas bringt.
 
Zurück
Oben