News Smartphone-Sensor mit 21 MP und schnellem Fokus

Was auch noch interessant wäre: Wird der neue ony-Sensor bei niedriger eingestellter AUflösung die Pixel größer machen, oder nutzt er dann bei gleicher Pixelgröße schlicht nur noch einen Teil des Sensors?

Weiss nicht mehr wie man das entsprechende Feature nennt, aber glaube mal gelesen zu haben, dass die Z3 Compact es eben nicht hat, weshalb dann angeblich bei niedrigerer Foto-Auflösung nur noch ein Teil des Sensors verwendet wird.

@ Weyoun

Danke für die gute Erklärung!
 
Die Sony Smartphone Kameras sind schon ganz nett, aber nur solange das Licht wirklich Top ist. Sobald das licht nicht mehr so optimal ist, verrauschen die Bilder echt extrem. Für ne Smartphone Knipse ganz nett, aber die beste Smartphone Kamera, die ich bisher hatte, war die des Nokia N8 (das waren noch Zeiten :D) Ich habe zur Zeit das Z 1 und man merkt wirklich sehr stark, dass Sony Softwaremäßig trickst, um die Fotos im nachhinein zu entrauschen. Dabei gehen leider viele Details verloren, womit die hohe Auflösung auch wieder für die Katz ist.

Eine hohe megapixel Zahl ist in meinen Augen heute kein starkes Argument mehr. In einer Zeit, als Handys (Keine Smartphones) alle im grunde das gleiche konnten, waren die Kameras noch ein Hauptunterscheidungsmerkmal. Ich weiß noch, mein letztes "Nicht-Smartphone" war ein Sony Ericsson K800i mit damalig wahnwitzigen 8 Megapixel (Damals waren 1,3, 2 und bei wirklich hochauflösenden auch mal 3,2MP das höchste der gefühle)

Wenn wir mal ehrlich sind, keiner wird ein Smartphone als Kameraersatz nehmen, wenn er wirklich Fotografieren als Hobby betreibt. Auch beim gemeinsammen betrachen der letzten Urlaubsschnappschüsse von Malle auf dem fernseher stört sich keiner so wirklich an irgentwelchen kleineren Artefakten etc. Seit einigen Jahren reichen die Smartphonekameras zun knipsen für zwischendurch aus. Es ist zwar immer schön, etwas "Besseres" zu haben, aber diesen megapixel Wahn wie beim Aufkommen der ersten Digitalkameras braucht heute keiner mehr und es bleibt halt ein SMartphone be begrenztem Platzumfang, ohne die Möglichkeiten für ein ordentliches Objektiv etc.

Für das, wofür die Kameras gedacht sind, sind sie ganz okay, aber als Kameraersatz sieht sie wohl kaum jemand, der nicht nur Schnappschüsse und Selfies macht. (Das K800i hatte sogar noch einen kleinen Spiegel neben der Kamera für Selfies, da hat aber jemand der Trend früh erkannt XD)
 
Krautmaster schrieb:
ich rede auch nicht vom D800 Sensor gegen ein Smartphone Sensor ^^ ich rede von vielen Pixeln auf selber Fläche wie wenige, zb der FX mit 36MP(D800) vs der FX mit 24 MP (A99) oder den Canon der Mark III.
Du kannst nicht sensoren unterschiedlicher hersteller, und unterschiedlicher kamerasysteme vergleichen. Canon hat einen massiven rückstand in sensortechnologie, die sony dagegen ist nichmal eine SLR Kamera. Bei einer SLT kamera fällt nur ein Teil des Lichts auf den Hauptsensor, der Rest auf das zweite Display welches für den live-view verwendet wird. Der Vergleich hinkt also massiv.
BTW, die D5200 ist rauschtechnisch nicht schlechter als eine D800 und das trotz APS-C!

Wie sieht denn das D800 High Iso Bild auf 24MP runtergerechnet aus? Rauscht es massiv mehr als die 24MP? Mit nichten...
Doch!
Das störendste Rauschen ist nicht das Kontrastrauschen, also helldunkel, welches an Filmkorn erinnert und leicht geglättet werden kann, sondern das Farbrauschen. Farbrauschen bzw. Fehlfarben kommen von mangelnder Dynamik der photodiode und lassen sich nicht so einfach durch runterrechnen korrigieren.
Mangelnde Dynamik, Falschfarben haben alle Kameras auf hohen Isostufen und sind nicht durch Reduktion der Auflösung korrigierbar. Korrigiert man die falschen Farben im RAW wird meistens colorbanding sichtbar und das Rauschen nur noch schlimmer.

Nur empfindlichere (=größere) Photodioden (pixel) haben mehr Dynamik.
Die maximale Empfindlichkeit (ISO) ist heute in erster Linie von der Dynamik beschränkt, nicht vom Rauschen allgemein.

Das Lumia 808 ist davon wohl der bekannteste Vertreter. Gezielt hohe Auflösung die dann auf eine geringere heruntergerechnet wird. Das muss nicht zwingend das Low Light Resultat verbessern, aber es ermöglich hohe MP Sensoren mit viel Auflösungsvermögen bei viel Licht und akzeptablen Resultaten bei wenig Licht zur Zusammenschaltung von Pixeln.

Wie du schon sagst verbessert sich die low-light capability nicht.
Komischerweise ist man bei anspruchsvollen Kameras auch fast gänzlich von diesem Konzept davon weg, aus einer Reihe von Gründen:
- Die Auslesegeschwindigkeit ist schlechter, damit auch der Kontrastautofokus und liveview sowie serienbildrate
- Bei 4K Video wird gerne 1:1 ausgelesen - bei zuvielen Pixeln entsteht enormer berechnungsoverhead
- Hohe Dateigröße der Fotos ohne wirklichlichen Qualitätsgewinn
- Größere Photodioden skalieren beim Rauschen immer besser als ein einfahc nur größerer sensor mit gleichgroßen aber mehr Pixeln
- Digitale Moiree-Entfernung ist bei sovielen pixeln zu rechenintensiv, daher muss man eine blurscheibe verwenden (FSAA filter), die Lichtstärke und Details kostet und die effektive Auflösung senkt.
- Das Auflösungsvermögen der Optiken von Handycameras liegt eher im bereich 4-6MP - wegen der kompakten Konstruktion und durch diffraktion. Selbst die besten mft und aps-c systemkamera Objektive erreichen selten Werte über 12MP.

und... ich denke dass es nicht nur Marketinggag ist. Es ist ja nicht so dass die Sensorfläche perfekt in Pixel unterteilt ist. Dazwischen sind Leitungen, Abstände, ähnlich der Packagedichte von Transistoren im selben Fertigungsverfahren. Man hat die Density geringfügig erhöhen können, die Photozellen dichter gepackt. So "einfach" ist das. Ist ja kein riesen Unterschied.

Da beides schon BSI Sensoren ohne "Leitungen" zwischen den Photodioden sind, kann ich das kaum glauben.

BTW, ich fotografiere neben meiner MFT Ausrüstung mit einem Sony IMX214 @F2.0 RAW (im oneplusone). Nix für dunkel, aber durch RAW kann man die Bilder beider systeme durchaus manchmal mischen, wenn es bloß um onscreen verwertung geht.
 
Zuletzt bearbeitet:
SSJ schrieb:
Die Kamerabilder der Z3 /Z3 Compact sind einfach schlecht.

Was ein Unsinn. Die Kamera ist hervorragend: http://www.dxomark.com/Phones/Sony-Xperia-Z3-New-Sony-flagship-Smartphone-tested

boncha schrieb:
Wenn die Hersteller dieses "wir sind erst zufrieden, wenn das Handy ein einziges Atom dick ist" lassen würde
und auf anständige Maße von ~1cm setzen würde, könnte man auch physisch vernünftig bemessene Sensoren + Objektive verbauen.

Also ich will keinen 1cm dicken Klopper mit mir rumtragen.
 
Zuletzt bearbeitet:
Weyoun schrieb:
Denkfehler!
Bei größerem Sensor ist auch die Maximalbelnde dementsprechend größer, sodass automatisch mehr Photonen auf den größeren Sensor fallen. Was gleich bleibt, ist die Dichte des Lichtstromes. Und bei gleicher Lichtstromdichte und gleichzeitig größeren Pixeln wird ein einzelnes dieser Pixel somit von mehr Photonen "getroffen" und somit "angeregt", sodass man den ISO-Wert reduzieren kann. Das Rauschen sinkt infolge dessen.

Ich rede nicht von der Blende, sondern von der Objektivöffnung. Das ist die Öffnung, in die das Licht einfällt. Bei gleichem Blickwinkel gibt es hier keine Unterschiede zwischen den Sensorgrößen! Anders ausgedrückt, wenn beide Objektive gleich viel Licht einfangen, ist der größere Sensor nicht im Vorteil!
Also erstmal selber nachdenken, bevor hier Denkfehler unterstellt werden ;)

Und die Maximalblende hat mit dem Sensor mal rein gar nichts zu tun.

Und auch der ISO Wert hängt nicht von der Anzahl der Pixel ab.

Sorry, aber überdenk das doch nochmal.

ix.tank schrieb:
Diese Aussage ist genau so falsch wie, zu behaupten mehr Pixel auf gleicher Fläche würde zu per se mehr Rauschen führen. Bei gleicher Technologie ist eine einfache Möglichkeit das Rauschen zu reduzieren den Abstand zwischen 2 Pixeln zu erhöhen oder ihre Fläche zu vergrößern wichtig dabei ist, dass es hier keines Wegs einen linearen Zusammenhang gibt, will heißen simples Downsampling bringt tatsächlich nicht das gleiche Ergebnis.

In der Theorie und in der Praxis ist es so, wie ich geschrieben habe. Denn wenn ich zwei Kameras mit 10 und 40MP vergleiche, kann ich bei den 40MP einfach 4 Pixel zusammenschalten und habe das gleiche Ergebnis. Das kann ich in der Kamera oder mit einem Programm im Nachhinein machen. Anders ausgedrückt kannst du mit 4 1l Eimern genauso viel Wasser auffangen, wie mit einem 4l Eimer, wenn die Fläche die gleiche ist.
Schau einfach mal bei DXO vorbei, da siehst du dann auch die Ergebnisse in der Praxis.

davidzo schrieb:
@laderio: Das stimmt so nicht, gleiche Blende, größerer Sensor heißt mehr Licht das insgesamt eingefangen wird. Wenn der größere Sensor aber auch im selben Umfang mehr pixel hat, kann es sein, dass das Rauschverhalten bei 1:1 Vergrößerung ähnlich ist. Auf das ganze Bild gesehen ist aber auch ein großer Sensor mit mehr Pixeln überlegen, da das rauschen einen verkleinerten Maßstab hat gegenüber einem kleineren sensor mit derselben Pixelgröße.
Dann bin ich ja froh, dass ich nicht von der Blende gesprochen habe ;)
 
Zuletzt bearbeitet:
In der Theorie und in der Praxis ist es so, wie ich geschrieben habe. Denn wenn ich zwei Kameras mit 10 und 40MP vergleiche, kann ich bei den 40MP einfach 4 Pixel zusammenschalten und habe das gleiche Ergebnis.

Na zum Glück kann man ja immer vom Einzelfall auf die Regel schließen ;). Es gibt sicher Kamera-Paarungen bei denen dies stimmt, aber der Vergleich RX100 gegen 808 zeigt recht klar, dass es eben nicht so ist. Ein 20 MP Bild vom 808 ist bei ISO 1600 extrem verrauscht und bei der RX100 ist es immer noch richtig gut und dabei ist die Technik in beiden Geräten Top.

Es gibt definitiv Rauscharten die nicht linear mit der Pixelfläche skalieren. Das thermische Rauschen zum Beispiel ist unabhängig von der Pixelfläche, überlagert also permanent das Signal, dass das einfallende Licht erzeugt. Verringert sich jetzt die Pixelfläche auf ein Viertel ist die Stärke des Signals des Lichtes nur noch bei 25% aber das thermische Rauschen überlagert nach wie vor in gleicher Höhe dieses Signal. Das heißt der Anteil des thermischen Rauschens gegenüber dem Signal nimmt pro Pixel zu, wenn ich jetzt die 4 Pixel zusammenschalte, addieren sich die Fehler. Das heißt der Anteil bleibt also höher.

Warum sieht es in bestimmten Konstellationen so aus als können man doch einfach das Bild herunterrechen und erhält die gleiche Qualität? Das ist recht einfach erklärt solange wir uns in ISO-Bereichen befinden in denen die Empfindlichkeit bei beiden zu vergleichenden Sensoren so hoch ist, dass zum Beispiel das thermische Rauschen keine Rolle spielt, kann man die Pixel natürlich zusammenschalten und erhält ein Bild gleicher Qualität (oder sogar besserer). Aber bei einem ISO-Wert X knickt dieses Prinzip in der Regel ein, dann spielt für den einen Sensor die Größenordnung des thermischen Rauschens plötzlich eine Rolle (da sich die Fehler addieren) und für den anderen eben noch nicht (wie oben beschrieben) und plötzlich erreicht man durch Downsampling nicht mehr die gleiche Qualität. (Ist es doch so, ist der Sensor mit den kleineren Pixeln dem mit den größeren Pixeln technologisch überlegen!)

Praxis: Auch beim 808 vs. der RX100 lässt sich dies super beobachten. ISO 50 die Fehlereinflüsse spielen bei beiden Sensoren keine Rolle, das 808 hat also klar den Auflösungsvorteil, ISO 100 der Vorteil wird vom Rauschen beim 808 aufgefressen die beiden Sensoren liegen im Ergebnis nach dem Downsampling auf 20 MP gleich auf. Ab ISO 200 liegt die RX100 vorne bis hin zu maximal ISO 1600 (mehr kann das 808 nicht) wo der Unterschied am gravierendsten ist. Das 808 Bild auf 20MP heruntergerechnet, hält nicht mal ganz mit einem ISO 6400 Bild der RX100 mit!

Auch das Ausleserauschen (also, dass des Verstärkers) muss nicht linear mit der Fläche skalieren, ein Gegenbeispiel wäre das Quantisierungsrauschen.

Über Bildrauschen kann man ganze Arbeiten verfasssen, daher liegt man mit pauschalen Aussagen meistens falsch, ich hoffe ich konnte das jetzt ein wenig näher bringen.
 
Zuletzt bearbeitet:
ix.tank schrieb:
Na zum Glück kann man ja immer vom Einzelfall auf die Regel schließen ;)
Dito ;-)

Also zunächst einmal gehst du fälschlicherweise davon aus, dass der größere Sensor mehr Licht bekommt. Bei gleichen Bildern (z.B. Schärfentiefe) ist dem aber nicht so. Das Objektiv fängt das Licht ein und unter gleichen Voraussetzungen (Blickwinkel, Objektivgröße, Objektivöffnung) kommt nicht mehr Licht an! Du bist aber nicht der einzige, der diesen Fehler macht ;-)

Allerdings hat sich damit der Rest deiner Ausführungen auch schon erledigt.

Und die Praxis kann man mal wieder schön auf DXOmark nachvollziehen. Dort profitieren die Vollformat Sensoren genau von dem Umstand, dass scheinbar bei gleicher F Zahl getestet wird. Dadurch fängt ein Vollformat Sensor eben auch mehr Licht ein, allerdings ist ein 35/1,8 DX nicht wirklich mit einem 50/1,8 FX vergleichbar, sondern eher mit einem 50/2,8 FX. Dann fangen die Objektive ähnlich viel Licht ein, die Dimensionen der Objektive sind ähnlich und auch das Bild was heraus kommt bezüglich Schärfentiefe und Rauschen ist vergleichbar.

Deinem letzten Absatz kann ich mich dann wieder anschließen.

Und ansonsten ging es ursprünglich um MP Vergleich bei gleich großem Sensor. Da sind mehr MP eigentlich kein Nachteil für die Bildqualität.

Bezüglich MX100 vs. 808 Pureview:
1/1" vs 1/1,2"
F1,8 vs. F2,4
Macht wohl etwa einen Unterschied um den Faktor 3 (1,5 Sensor * 2 Blende).
 
Zuletzt bearbeitet:

Ich habe dir einen physikalischen Zusammenhang erklärt und ein Beispiel angeführt, die Ausführungen zum Thema Rauschen, gelten auch ohne Beispiel. Das ist ein kleiner aber feiner unterschied ;).

Also zunächst einmal gehst du fälschlicherweise davon aus, dass der größere Sensor mehr Licht bekommt.

Du scheinst es nicht verstehen zu wollen und wiederholst immer wieder das gleiche, ich hab nicht von größeren Sensoren gesprochen ... 2 Sensoren, gleiche Größe der eine hat allerdings größere Pixel als der andere, und da bekommt der mit den größeren Pixeln natürlich mehr Licht pro Pixel ab und bevor du wieder irgendetwas vom Objektiv erzählst, dieses Spielt überhaupt keine Rolle bei meiner Betrachtung.

Allerdings hat sich damit der Rest deiner Ausführungen auch schon erledigt.

Ganz offensichtlich nicht, du hast sie schlicht nur nicht verstanden. Ich werde mir sicher nicht die Mühe machen es dir noch mal anders klar zu machen, aber es ging ausschließlich darum zu erläutern, warum man nicht zwingend die Werte von 4 kleineren Pixeln zusammenführen kann um die gleiche Qualität eines gleich großen einzelnen Pixels zu erreichen. Falls dich interessiert warum dies so ist, lies bitte meinen Beitrag unter diesem Gesichtspunkt nochmal und bei einer gegenteiligen Behauptung versuch sie zu begründen könnte allerdings etwas tricky werden, da ich mir den Inhalt nicht aus den Fingern gezogen habe ;). Und bevor du wieder mit Brennweite, Blendzahlen und fotografischer Lichtstärke um dich wirfst sie spielt in diesem Kontext keine Rolle, es geht ausschließlich um das Rauschverhalten von Sensoren bzw. Fotodioden.
 
Ich habe dir einen physikalischen Zusammenhang erklärt und ein Beispiel angeführt, die Ausführungen zum Thema Rauschen, gelten auch ohne Beispiel. Das ist ein kleiner aber feiner unterschied .
Komisch, habe ich nicht das gleiche gemacht? Lies doch nochmal nach ;)
Und bezüglich deinem Beispiel müsstest du ISO 400 mit ISO 1200 vergleichen, wie gesagt, Faktor 3 Unterschied.

ich hab nicht von größeren Sensoren gesprochen
Sorry, mein Fehler. Dann beschränken wir uns mal auf:

2 Sensoren, gleiche Größe der eine hat allerdings größere Pixel als der andere, und da bekommt der mit den größeren Pixeln natürlich mehr Licht pro Pixel ab
Also 2 Sensoren, gleiche Größe, einmal 10MP, einmal 40MP (macht es einfacher zu rechnen). Deine Aussage war:

Es gibt definitiv Rauscharten die nicht linear mit der Pixelfläche skalieren. Das thermische Rauschen zum Beispiel ist unabhängig von der Pixelfläche, überlagert also permanent das Signal, dass das einfallende Licht erzeugt. Verringert sich jetzt die Pixelfläche auf ein Viertel ist die Stärke des Signals des Lichtes nur noch bei 25% aber das thermische Rauschen überlagert nach wie vor in gleicher Höhe dieses Signal.
Kann man so stehen lassen. Dies sorgt dann auch dafür, dass in der 1:1 Ansicht der Sensor mit mehr MP das Nachsehen hat.

Das heißt der Anteil des thermischen Rauschens gegenüber dem Signal nimmt pro Pixel zu, wenn ich jetzt die 4 Pixel zusammenschalte, addieren sich die Fehler. Das heißt der Anteil bleibt also höher.
Hier liegt wohl dein Fehler. Man kann das Rauschen bei den kleineren Pixeln nicht einfach addieren, wie z.B. 1 "Rauschen" + 1 "Rauschen" + 1 "Rauschen" + 1 "Rauschen" = 4 "Rauschen" und dann sagen 1 "Rauschen" beim großen Pixel stehen 4 "Rauschen" beim kleinen Pixel gegenüber.
Letztlich ist Rauschen eine Abweichung und auch Abweichungen können sich sogar aufheben. Z.B. kann das Rauschen der 4 Pixel bei -1, +1,5, -0,5 und +0,5 liegen. Am Ende bleiben dann aber +0,5, nicht +3,5. Der große Pixel rauscht vielleicht auch um 0,5. Am Ende egalisiert sich das also wieder.

Denk nochmal über das Beispiel mit den Wassereimern nach. Es gibt viele Gemeinsamkeiten ;)
Und was die Praxis angeht, einfach mal gleich große Sensoren im Sports Benchmark bei DXOmark vergleichen. Hier wird geprüft, wie hoch die ISO Setting gewählt werden kann für beim Rauschen vergleichbare Bilder. Du wirst sehen, weniger Pixel bringen hier nichts und das bei ISO Werten um 3.200.
 
Hier liegt wohl dein Fehler. Man kann das Rauschen bei den kleineren Pixeln nicht einfach addieren, wie z.B. 1 "Rauschen" + 1 "Rauschen" + 1 "Rauschen" + 1 "Rauschen" = 4 "Rauschen" und dann sagen 1 "Rauschen" beim großen Pixel stehen 4 "Rauschen" beim kleinen Pixel gegenüber.
Letztlich ist Rauschen eine Abweichung und auch Abweichungen können sich sogar aufheben. Z.B. kann das Rauschen der 4 Pixel bei -1, +1,5, -0,5 und +0,5 liegen. Am Ende bleiben dann aber +0,5, nicht +3,5. Der große Pixel rauscht vielleicht auch um 0,5. Am Ende egalisiert sich das also wieder.

Gut jetzt Reden wir über das gleiche, aber hier liegst du leider völlig daneben. Der Teil mit dem "1 "Rauschen" + 1 "Rauschen" + 1 "Rauschen" + 1 "Rauschen" = 4 "Rauschen"" von dem du denkst, dass ich das so verstehe, ist leider auch ganz weit an dem vorbei was ich erklären wollte.

Daher noch mal die Erklärung mal völlig ohne Einheiten nur mit Zahlen, da das Problem rein mathematisch erklärbar ist außerdem betrachten wir das Rauschen als absolute Abweichung also nicht von -1 bis +1 oder ähnliches sondern als "Fehler" der immer positiv ist.

Wenn jetzt bei ISO 100 der Fehler durch thermisches Rauschen im Mittel bei 0,05% des einfallenden Lichtes beim großen Pixel liegt läge er beim kleinen Pixel, da die thermische Erregung ja gleich ist bei 0,2%. Beides würde im Bild nicht auffallen. Benötigen wir jetzt aber ISO3200 um ein gleich helles Bild zu erzeugen, hat sich die Lichtmenge um den Faktor 32 reduziert, das thermische Rauschen ist aber weiterhin konstant. Es nimmt als nun einen Anteil von 1,6% beim großen Pixel und von 6,4% bei die kleinen Pixeln ein. Während die 1,6% immer noch gut verkraftbar sind wären 6,4% Abweichung im schon mit erheblichen Bildstörungen verbunden. Wenn ich jetzt die Pixel zusammenaddiere und durch 4 Teile addieren sich die Fehler genauso wie das Signal, es gibt hier kein besonderes stochastisches Verhalten.

So und jetzt wirst du sicher sagen, doch gibt es, denn wenn wir von einer Normalverteilung ausgehen müssten sich die Fehler ja aufheben, je mehr man von ihnen aufsummiert. Das stimmt auch, aber leider nur bei unabhängigen Zufallsvariablen. Wenn ich den Median über den ganzen Sensor bilden würden sich die Fehler tatsächlich extrem stark reduzieren, aber das wäre dann die Summe von 10 bzw. 40 Millionen Werten.

Warum stimmt es in der Realität nicht? Die Fehler benachbarter Pixel durch thermisches Rauschen sind nicht unabhängig von einander, wenn die Atome eines Pixels angeregt sind, ist es extrem unwahrscheinlich, dass diese beim Nachbarpixel in Ruhe verharren. Daher die Werte für diesen Fehler lokal auch nicht Normalverteilt.


Und genau deswegen gibt es diese Schwelle, ab der das Rauschen eines Sensor deutlich zum Vorschein kommt. Und diese ist bei identischer Technologie, Sensorgröße und Optik, nun mal bei dem Sensor mit der vierfachen Pixelanzahl in Bezug auf thermisches Rauschen 2 ISO Stufen ehr.

Es ist übrigens auch so, dass sich bei Langzeitbelichtung der Sensor erwärmt (das thermische Rauschen nimmt "künstlich" zu), da spielt die Anzahl der Pixel auch negativ mit hinein, es gibt also auch noch viel andere Rauschquellen.

Nimmst du das Quantisierungsrauschen, hast du zum Beispiel wirklich eine Normalverteilung und es würde sich ausgleichen wenn du 4 Pixel zusammenaddierst.

Ich hoffe ich konnte es so verständlich machen.

Um mal kurz auf das DXOmark-Chart Bezug zu nehmen, dort führt relativ deutlich eine 12 MP Kamera (Sony A7S) und mit spürbarem Abstand kommen dann die D800 etc. (aber nicht mit der von mir vorgerechneten Abweichung, wie gesagt thermisches Rauschen ist nur eine Fehlerquelle, es gibt noch andere, die sich wirklich ausgleichen). Außerdem liegt D800 auch vor der 5DMIII aber das liegt nicht an irgendwelchen Gesetzmäßigkeiten, sondern daran das Canon lange nicht wirklich was neues gebracht hat und der MIII Sensor der x-te Aufguß eines früheren Top-Sensors ist.

Und mal völlig Offtopic, die A7S ist echt ein Lowlight-Monster (4K-Video und 600€ weniger und ich wär dabei): http://www.dpreview.com/previews/panasonic-dmc-gh4-sony-alpha-7s/7
 
Zuletzt bearbeitet:
Das mit der Addition der "1 Rauschen" war ja nur ein Beispiel, welches du ja gerade eigentlich recht ähnlich wiedergegeben hast, indem du bei den vielen Pixeln einfach einen 4fach höheren Wert gewählt hast.

Was das thermische Rauschen angeht und die Anfälligkeit der kleineren Pixel, wie wäre mal eine Quelle? Ich gehe nämlich nach wie vor davon aus, dass es sich nicht so verhält, wie du es beschreibst. Denn warum sollte eine kleine Fläche absolut genauso viel Rauschen aufweisen wie eine große Fläche? Es sind doch weniger Atome in der kleineren Fläche, die angeregt werden, um mal bei deiner Erklärung zu bleiben. Das macht daher für mich keinen Sinn. Und warum sollten bei den kleinen Pixeln die Nachbarzellen mit angeregt werden, aber bei den großen Zellen nicht? Würde also auch dafür sprechen, dass der große Sensor absolut mehr Fehler produziert.
Da also hier scheinbar schon der Dissens begraben liegt, verlink doch mal eine Quelle für deine Erklärung.

Dass das thermische Rauschen Temperaturabhängig ist und deswegen auch thermisches Rauschen heißt, ist mir übrigens klar. Und je länger ich belichte, desto eher erwärmt sich auch der Chip.

Und bezüglich DXOmark, der deutliche Vorsprung sind ISO 3702 zu ISO 2853, also nur 23% weniger. Und in diesen ISO Bereichen sollte dein Rauschen ja auch schon eine Rolle spielen.
Aber ob genau diese Kamera vergleichbar ist, weiß ich nicht. Sie sticht schon sehr deutlich heraus. Vielleicht eine neue Technologie und alle anderen folgen nun auch. Denn ansonsten sind die anderen Kameras (z.B. Nikon) mit Full Frame doch sehr nah beieinander, unabhängig von Pixel Anzahl. Und da sind Kameras mit 16, 24 und 36 MP dabei.
 
Ich gehe nämlich nach wie vor davon aus, dass es sich nicht so verhält, wie du es beschreibst. Denn warum sollte eine kleine Fläche absolut genauso viel Rauschen aufweisen wie eine große Fläche? Es sind doch weniger Atome in der kleineren Fläche, die angeregt werden, um mal bei deiner Erklärung zu bleiben.

Es ist dein gutes Recht das zu glauben :). Allerdings geht es hier nicht um eine Anregung von außen, es geht um den Dunkelstrom und dessen "Amplitude" bei einer spontanen Messung, die Atome haben alle eine Temperatur, diese ist nicht konstant sondern variiert, die Wahrscheinlichkeit höherer Variationen nimmt mit größerer Entfernung zu. Der Dunkelstrom kommt durch diese Atom-Bewegungen zustande, da es durch Kollisionen mit der "fließenden" Elektronen mit den den Atomen zu Impulsübertragungen (vereinfacht) kommt, die Geschwindigkeit (Spannung) steigt also mal und mal sinkt sie (ganz leicht natürlich nur).

Das macht daher für mich keinen Sinn. Und warum sollten bei den kleinen Pixeln die Nachbarzellen mit angeregt werden, aber bei den großen Zellen nicht?

Wie gesagt du hast immer eine Wahrscheinlichkeitsverteilung auch in Bezug auf unterschiedliche Bewegungsrichtungen und Entfernungen.

Jetzt kommt der Teil der tricky ist. Nehmen wir an wir haben doppelt soviel Atome, die daran beteiligt sind den Dunkelstrom zu erzeugen bei einer Photodiode in Bezug auf eine andere. Zeige jetzt, dass die Chance auf eine höhere Amplitude bei der größeren Photodiode nicht in Proportion zum erzeugten Fotostrom steht. Und das kann ich nicht so einfach. Ich halte es nur für sehr Wahrscheinlich, da solche Relationen ehr atypisch für die Physik sind :).

Diesen Nachweis bis zum Ende durch zuziehen um zu zeigen ob ich recht habe oder du wäre extrem aufwändig (bei der Betrachtung wie eine solche Diode im Detail funktioniert, wie Dunkelstrom funktioniert und welche stochastischen Zusammenhänge es gibt. Das würde inhaltlich schnell den Umfang einer MA oder BA erreichen (da hab ich schon Sachen mit deutlich weniger Substanz vorgelegt bekommen)).

Letztlich war meine Annahme intuitiv und der Nachweis, dass sie falsch ist dürfte dir auch ausgesprochen schwer fallen, womit wir bei folgendem Punkt wären:

Da also hier scheinbar schon der Dissens begraben liegt, verlink doch mal eine Quelle für deine Erklärung.

Du hinterfragst meine Erklärung bis auf ein Quanten-physisches Level, begründest deine aber auch nicht. Ein Link zu ein paar DXOmark-Ergebnissen ist keine wissenschaftliche Begründung, eine Theorie muss man schon beweisen können, was du ja von mir auch forderst. (Schließlich gibt es bei DXOmark genug Kamera-Paarungen die für meine These sprechen und auch genug die für deine Sprechen, es fehlen viel zu viele Informationen um hier eine Schlussfolgerung zu ziehen.)

Und damit gebe ich den Ball ab, wenn du dich meiner Argumentation nicht anschließen willst, ist das nicht tragisch. Allerdings hast du auch noch nichts getan um mich vom Gegenteil zu überzeugen außer mir zu widersprechen.

Noch einen Link zum Sports-Score (low-ISO) der zum Nachdenken, bezüglich sein nicht ganz transparenten Bildung, anregen sollte:
http://www.dpreview.com/forums/post/41265241
Bei unter ISO 3000 ist die SNR dieser Kameras übrigens noch durchaus im Rahmen, es handelt sich also keines Wegs um ein grenzwertiges Rauschen a'la 808@ISO1600 oder RX100@ISO6400

Meine Quellen sind bisher die Quellen der Wikipedia-Artikel der Schlagworte die ich verwendet habe gewesen, was mich auch zu dem Ergebnis geführt hat dies nicht mehr ausbauen zu wollen, weil es einfach zu aufwändig wird (auch wenn es sicher interessant wäre) + mein bisher auf den verschiedenen Bildungswegen erworbenes Wissen :).
 
Zuletzt bearbeitet:
Das sehe ich anders. Mehr Masse hat auch mehr Gewicht. Ist doch eine typische Relation in der Physik.

Okay, so leid mir das tut, du hast offensichtlich nicht das nötige Grundverständnis für die Materie. Denn was du hier schreibst ist Haarsträubend falsch. Die kinetische Energie die Teilchen eines in Ruhe befindlichen Objekts haben, bestimmt sich ausschließlich aus der Temperatur (und umgekehrt die Temperatur aus der kin. Energie der Teilchen), es ist also völlig egal wie groß oder schwer das Objekt ist.

Nunja, ich kann meine Annahme zumindest stochastisch begründen, DXOmark ist ja nur eine Beobachtung der Realität.

Du betreibst Empirie und versuchst induktiv von einer Beobachtung zu einer allgemeinen Aussage zu kommen, dass hat so erstmal überhaupt nichts mit Stochastik zutun und ist ausgesprochen schwierig, mit deiner Analyse der Grafik von DXOmark bist du zuweilen meilenweit davon entfernt.

Allerdings behauptest du ja, dass es da einen weiteren Effekt gibt, der sich nicht stochastisch verhält, den bisher aber scheinbar niemand nachgewiesen hat?

Nein, dies behaupte ich nicht aber es gibt abertausende Publikationen in der Physik, irgendwer hat sich sicher damit beschäftigt und vielleicht sogar wiederlegt was ich behaupte, vielleicht auch bestätigt, allerdings ist es ausgesprochen tricky Belege für solche komplexen Aussagen zu finden.

Ich bin der Meinung, dass du hier in der Nachweispflicht bist. Ansonsten können wir die Physik ja gleich beiseite lassen und wir versuchen erst einmal alle nachzuweisen, dass Gott nicht existiert

Jetzt driftet es ab, was auch der Grund ist warum ich einen Schlussstrich unter die Diskussion ziehe, außer du beliest dich zu dem Thema, denn deine Schlussfolgerungen sind extrem oberflächlich und ich kann dir versprechen, ob ich recht habe oder nicht so simpel wie du es dir vorstellst ist es mit Sicherheit nicht.

Zu Wikipedia als Quelle muss ich dir ja dann hoffentlich nichts sagen.

Hier zeigt sich warum du Diskutierst ... um dich zu profilieren. Ich hatte ausdrücklich geschrieben die "Quellen der Wikipedia-Artikel" auch wenn die meisten Artikel von Wikipedia gerade in der Physik und Mathematik schon ausgesprochen gut sind (auch und teilweise gerade in Deutsch). Es ist in der Regel komplett lächerlich, außer du bist Experte auf dem Gebiet eines entsprechenden Artikles, dies und deren Qualität in Frage zu stellen.

Zu deinem und meinem Wissen müssen wir hier glaube ich nichts breit treten, sollte bei einem Nachweis aber auch keine große Rolle spielen

Doch sollte es, da du hier scheinbar große Lücken hast. Und die einfachsten Dinge in Frage stellt (siehe Oben). Ich muss nicht alles Begründen was man schon in einem Grundstudium Physik lernen würde.

Mein Tipp für dich in Zukunft, wenn jemand sie die Mühe macht dir etwas zu erklären, belies dich intensiv zu dem Thema bevor du Antwortest, sonst kommt bei deinem Diskussionspartner schnell der Verdacht auf, dass du selbige nur des Streites wegen führst. Ich konnte weder neue Argumente von dir vernehmen noch neu angehäuftes Wissen (Wiki Photo-Diode, Dunkelstrom und Wärmerauschen würden auch dir zum Verständnis helfen und wenn es erstmal nur die Erkenntnis der Komplexität der Fragestellung ist), noch konnte ich verspüren, dass du mal versucht hättest meine Argumente zu verstehen oder zu googeln wie es um diverse Sachverhalte steht. Niemand ist in der Pflicht dir etwas zu erklären, da musst du schon selbst mitziehen.

Tut mir leid, dass ich das jetzt so drastisch dargelegt habe, aber irgendwann ist es halt einfach nicht mehr Zielführend.
 
Bitte tragt euren (pseudo) wissenschaftlichen Kleinkrieg woanders aus.
Der Beiträg wurden aufgrund des persönlichen, unsachlichen OT Geplänkel entfernt.
 
Dann entferne doch bitte auch den Rest ;)

Und als letzten Beitrag zu dem Thema verweise ich ganz sachlich auf Wikipedia:
Wikipedia Sensor Size
In the case of images bright enough to be in the shot noise limited regime, when the image is scaled to the same size on screen, or printed at the same size, the pixel count makes little difference to perceptible noise levels – the noise depends primarily on sensor area, not how this area is divided into pixels.
 
Zuletzt bearbeitet:
Zurück
Oben