News Plug-and-Play-Lösung: Samsungs Bildsensor S5K3P9 vereint vier Pixel zu einem

nlr

Redakteur
Teammitglied
Dabei seit
Sep. 2005
Beiträge
5.406
#1

estros

Vice Admiral
Dabei seit
Sep. 2009
Beiträge
6.346
#2
„Für die Stabilisierung von Fotoaufnahmen und Videos ohne OIS ist ein sogenannter Gyro-Synchronisator zuständig, der über das Gyroskop des Endgeräts ermittelte Bewegungsinformationen abgreift, um daraufhin über SoC-Berechnungen die Aufnahme zu stabilisieren.“

Das nennt man doch EIS, oder was ist daran besonders?
 

W4RO_DE

Lieutenant
Dabei seit
Dez. 2012
Beiträge
654
#3
Der Sensor ist im Prinzip nichts neues. Die Technik ist von Nokia und Huawei bekannt, und erst gestern hat LG mit dem G7 ein Gerät vorgestellt, dass das auch kann. Mit dem allseits bekannten Sony IMX 351.
 

BTICronox

Lt. Junior Grade
Dabei seit
Dez. 2016
Beiträge
455
#4
"Der S5K3P9 bietet 16 Megapixel und erreicht damit im 4:3-Format eine Auflösung von 4.640 × 3.488 Bildpunkten. Die Kantenlänge der Pixel des mit 1/3,1 Zoll relativ kleinen Sensors liegt bei 1,0 µm"

Also exakt das gleiche wie der Sony IMX351 in meinem LG V30 :D
 

jabberwalky

Lt. Junior Grade
Dabei seit
März 2004
Beiträge
343
#5
Sie müssen aufholen, sonst kommen sie nicht mehr mit. Bin der Meinung, sie haben sich zu lange auf ihren Lorbeeren ausgeruht.
 

jusaca

Lt. Commander
Dabei seit
Apr. 2008
Beiträge
1.845
#6
Macht das denn einen Unterschied, ob ich die Pixel erst zusammenfasse und dann auslese oder ob ich einfach das Bild mit voller Auflösung auslese und hinterher bei Bedarf herunterskaliere?
 

T00L

Ensign
Dabei seit
Juni 2015
Beiträge
166
#7
Binning kann ich unter anderem dazu benutzen, um die Empfindlichkeit zur Erhöhen und/oder einen besseren SNR Wert zu erzielen. Die Bildrate kann sich durch die geringere Auflösung dann ebenfalls erhöhen.
 

R4Z3R

Lieutenant
Dabei seit
Dez. 2006
Beiträge
604
#9
Der neue Sensor dürfte auf dem im Xiami Redmi Note 3 Pro verwendeten Sensor basieren und sogar größtenteils der Gleiche sein. Nun ergänzt um Pixel-Binning auf Harwdware-Ebene.
 
Dabei seit
Jan. 2008
Beiträge
3.344
#10
„Für die Stabilisierung von Fotoaufnahmen und Videos ohne OIS ist ein sogenannter Gyro-Synchronisator zuständig, der über das Gyroskop des Endgeräts ermittelte Bewegungsinformationen abgreift, um daraufhin über SoC-Berechnungen die Aufnahme zu stabilisieren.“

Das nennt man doch EIS, oder was ist daran besonders?
Jaein. Eigentlich schon aber bei manchen Geräten wird das Bild einfach via Plugin stabilisiert. Dies erzeugt zwar schön sanfte Kameraschwenks aber bei schnell bewegenden Objekten springt die Kamera plötzlich hinterher. Also das kann jeder mit Deshaker, Youtube, Google Fotos oder Adobe Premiere machen ggf andere Videobearbeitungsprogramme.
Beim Gyro-basierten EIS weiß die Kamera dass das ein schnelles Objekt ist und kein Wackeln der Kamera. Bei schnell vorbei fahrenden Autos bleibt die Kamera ruhig.
Noch besser ist, wenn der EIS noch den Rolling Shutter entfernen kann. Bei nicht allzu guten Filtern wackelt das Bild und wirkt als würde man durch Wasser schauen (Whobbling) Huwei kann das z.B. nicht entfernen. Apple hingegen schon.

Ich bin gespannt was da noch Alles auf uns zu kommen wird.
 

jusaca

Lt. Commander
Dabei seit
Apr. 2008
Beiträge
1.845
#11
Ja, der Qualitätsunterschied bei Lichtempfindlichkeit und Rauschen ist extrem.
Aber wie kommt das? Wenn man den Mittelwert der vier Pixel bildet, dann sollte das zusätzliche Rauschen doch auf eine ähnliche Größe reduziert werden, oder nicht? Das gesammelte Licht und damit die gesammelte Information ist ja in beiden Fällen gleich groß.
Also naja, offensichtlich nicht, wenn es einen sichtbaren Unterschiede macht, aber ich versteh nicht warum xD
 

R4Z3R

Lieutenant
Dabei seit
Dez. 2006
Beiträge
604
#12
Aber wie kommt das? Wenn man den Mittelwert der vier Pixel bildet, dann sollte das zusätzliche Rauschen doch auf eine ähnliche Größe reduziert werden, oder nicht? Das gesammelte Licht und damit die gesammelte Information ist ja in beiden Fällen gleich groß.
Also naja, offensichtlich nicht, wenn es einen sichtbaren Unterschiede macht, aber ich versteh nicht warum xD
Ein Teil des Effekts beruht darauf aus dem Downsampling, ja - weniger Detail (Megapixel) aber dafür auch weniger Rauschen. Ein weiterer Teil soll aber offenbar darauf beruhen dass eine Ebene weiter unten, Bayer-Matrix Pixel zusammengefasst werden. Ganz klar ist mir aber auch nicht, ob dieser Effekt tatsächlich so groß ist. Nach meinem Eindruck ist es eigentlich eher das Oversampling, das zur Verbesserung der Low-Light-Performance beiträgt. Grundsätzlich entscheidend ist also die Sensorgröße. Das Gute an vielen MP + Binning ist halt, dass man bei guten Lichtverhältnissen nach wie vor auf die native Megapixelzahl zurückschalten kann und mehr Details bekommt ("Das beste aus beiden Welten")

Pixel-Binning: Findet vor dem Demosaicing statt
Oversampling: Findet nach dem Demosaicing statt

Pixel-Binning hat einen Edge, weil mit dem Demosaicing ein Teil der Entropie verloren zu gehen scheint.



(Oversampling: Ergebnisbild wird durch Downsampling von einem höher aufgelösten Bild errechnet)
 
Zuletzt bearbeitet:

Lübke82

Lieutenant
Dabei seit
Dez. 2007
Beiträge
992
#13
Binning gibt es schon ne Weile in der Astrofotografie. Gutes Feature.
 

ix.tank

Lieutenant
Dabei seit
Sep. 2010
Beiträge
872
#15
Zitat von jusaca:
Aber wie kommt das? Wenn man den Mittelwert der vier Pixel bildet, dann sollte das zusätzliche Rauschen doch auf eine ähnliche Größe reduziert werden, oder nicht? Das gesammelte Licht und damit die gesammelte Information ist ja in beiden Fällen gleich groß.
Zitat von AAS:
Ja, der Qualitätsunterschied bei Lichtempfindlichkeit und Rauschen ist extrem.
Es gibt quasi keinen Unterschied was das reine Bildrauschen angeht zwischen Downsampling und "Hardware"-Pixelbinning, der über die Messtoleranz hinausgeht. Bei Langzeitbelichtung im Minutenbereich können ggf. andere Effekte zu tage treten, das hat aber nichts mit dem Einsatzgebiet von Handysensoren zutun.

Das Nokia 808 hat es vorgemacht. Wenn man sich das ganze verdeutlichen will kann man mal die A7S2 mit der A7R2 bei dpreview vergleichen, das Pixelverhältnis ist ca. 1 zu 3,5. Die Sensoren kommt von gleichen Unternehmen in ca. der gleichen Zeitspanne sollte also abgesehen von der Auflösung sehr ähnlich agieren. Und so ist es auch schaut man sich die RAWs im High-ISO bereich an und aktiviert das Downsampling (der COMP-Button oben rechts) dann ist das Rauschverhalten quasi identisch.

Zum Demosaicing, ob das vor dem Downsampling gemacht wird oder ob ich es dank Pixelbinning eigentlich weglassen kann macht qualitativ ganz selten bei Grenzfällen (Aliasing, etc.) einen leichten Unterschied. Auch hier sind das keine Szenarien, die bei einem Handysensor eine Rolle spielen.

Pixelbinning bringt, wie oben schon erwähnt, aber andere Vorteile. Bildwiederholrate ist hier das Stichwort ein Fullsensorreadout mit weniger Pixeln geht schlicht schneller und wenn ich die Auflösung reicht oder ich sowieso zur Rauschreduktion Downsampling einsetze dann ist Pixelbinning erheblich schneller als alle Pixel auslesen und dann noch kubisch (oder schlimmer :)) herunterzurechnen.
 

Pittiplatsch4

Lt. Commander
Dabei seit
Mai 2001
Beiträge
1.841
#16
Ähm, also Pixelbinning sollte in höherem Rauschen resultieren als Downsampling. Kommt halt auf das Verhältnis an, wie stark der Unterschied ist. Gut kann man das an der Video ISO Performance sehen bei der A6300 und A7RII. Die A6300 sieht bei high ISO besser aus als die A7RII im fullframe mode, da die A6300 downsampling von 6K macht und die A7RII pixelbinning macht. Lustigerweise ist bei der A7RII sogar der APS-C Modus etwas rauschfreier, aus dem selben Grund.
 

reobase

Lt. Junior Grade
Dabei seit
Feb. 2014
Beiträge
283
#17
Fuji hatte ja schon vor fast 10 Jahren mit ihren "exr" Sensoren Pixel binning in Digitalkameras benutzt. Habe hier auch noch eine Kamera mit exr aber bei 1/2" Sensorgröße ist der Vorteil dieser Technik in der Praxis nur minimal. Bei einem 1/3,1 Sensor dürfte diese Technik noch weniger sichtbare Vorteile bringen.
 
Dabei seit
Sep. 2013
Beiträge
129
#18
Ja, der Qualitätsunterschied bei Lichtempfindlichkeit und Rauschen ist extrem.
So recht glaube ich nicht daran. Wie soll auf diese Weise eine viel bessere Lichtempfindlichkeit ermöglicht werden? Physisch sind die Pixel immer noch winzig und es wird im Vergleich zu einem großen Pixel Fläche durch Verdrahtung verschwendet. Also nein, bis ich Beispielbilder gesehen habe, die das Gegenteil beweisen, gehe ich davon aus, dass das kaum etwas bringt.
 
Top