Vergleich von D750 und OM-D E-M1, Teil 2 des Kameravergleichs

Hi

ich habe das Video noch nicht gesehen, aber mich würde interessieren warum ihr nicht auch die Kompakten bzw das Iphone mitgenommen habt.

Ich hätte es sehr interessant gefunden wie die sich da schlagen bzw wie groß der unterschied zu den größeren Cams ist.

Der Unterschied zwischen der D750 und der OM-D ist ja recht klar was rauskommt.

Aber wieviel schlechter ist jetzt das IP oder die Kompakte xyz, das wäre wirklich interessant.
 
Kurz: Aufwand, Länge und Vergleichbarkeit. Bei den iPhones kannst Du z.B. keine Blende einstellen. Die Kompaktkamera hat derer nur zwei Einstellungen, Offen und Blende. Das ist also nicht mehr richtig vergleichbar.
Zudem steckt in so einem Vergleich und Video viel Zeitaufwand. Ich habe allein in dieses Video >40h investiert.
Die Bildchen müssen alle gemalt werden, die Animationen erstellt etc. Du kannst davon ausgehen, pro Minute Film benötigt man idR. 1h Arbeit. Sind Animationen oder Zeichnungen im Spiel kommen wir schnell auf 2h je Minute. Davon ab, dass schon jetzt mancher die 30 Minuten zu lang findet, hätte man noch iPhone und Kompakte rein genommen wären wir schnell bei 45 Minuten oder mehr gelandet. Bau das erst mal alles :p Es wird noch einen 3. Vergleich geben, Problem ist, dass das Material unbrauchbar ist und moses und ich das noch mal neu fotografieren müssen, wenn er seine Kamera repariert bekommen hat.
 
Zuletzt bearbeitet:
Auch wenn ich eigentlich nicht mehr wollte, aber heronimo hat einen guten Punkt gebracht, den ich gern weiter erläutern würde.

pcpanik schrieb:
Um bei Deinem Grashalm-Beispiel zu bleiben - Du und auch Pittiplatsch überseht dabei aber, dass die Halme dann deutlich größer sind -im Idealfall 1:1 skalieren, also mehr Fläche haben und eben daher auch mehr Wasser brauchen um das gleiche (saftig grüne :)) Bild zu liefern.


Es geht im dem Fall um die digitalen Pixel die hinten rausfallen, die sind bei jeder Kamera gleich groß sind, da der Bildausschnitt gleich bleibt.
Bildlich kannst du dir das so vorstellen, dass über jedem digitalen Pixel (=Grashalm) ein einzelner Trichter steht. Am unteren Ende ist der immer gleich groß. Am oberen Ende, wo der Regen reinfällt ist der unterschiedlich groß, je nach Sensorgröße. In der selben Zeit bekommt also jeder einzelne Grashalm mehr Wasser ab, da das obere Ende einfach mehr einfangen kann.

Ich denke so ist es besser erklärt. Betrachte das erstmal getrennt vom Rest, es gibt einen Grund, warum die einzelnen Pixel dann nicht heller sind. Habe gerade keine Zeit mehr das zu erklären, bzw. habe das in leicht anderer Form ja schon getan.
 
Nimmst Du das an, oder hast Du Info zu der Bauweise eines einzelnen Pixel/Sensor-Diode dieser beiden Sensoren?
Trichter?
Mal davon abgesehen, dass Du da in einen Bereich vorstößt, wo wie gesagt noch andere Faktoren wie die Bayer-Matrix, AA-Filter etc. eine Rolle spielen können, war meine Kenntnis bisher, dass größere Sensoren schlicht auch größere Silicium Flächen nutzen und darüber jeweils eine optische Linse liegt.
Deine Erläuterung klingt so, als wenn die Silicium-Flächen immer gleich groß seien, was ich nicht annehme.

Ab hier habe ich auch keinerlei Wissen mehr - darum, wenn Du es bitte dann an dieser Stelle gesichert erläutern und darlegen kannst wäre das natürlich spannend. Schnittzeichnungen wären hilfreich.
 
Nein, nicht der Ausgang ist der physikalische Pixel, sondern der Eingang wo der Regen (=Licht) rein, der ist natürlich unterschiedlich groß. Dachte das wäre bei meiner Erklärung rübergekommen. Die Pixel die hinten rausfallen (=Grashalme), sind dann die digitalen im Bild und die sind natürlich immer gleich groß.

Bayer-Matrix oder XTrans und AA Filter oder keiner, etc. haben zwar einen Einfluss, aber im Vergleich zur Pixelgröße ist der verschwindend gering. Es geht ja hier auch um das theoretische Prinzip und dafür nehmen wir einfach ca. gleichen Stand der Technik an.

Wie gesagt es wird hoffentlich erstmal klar, wie die digitalen Pixel mehr Info bekommen. Wenn wir uns darauf geeinigt haben kann ich weitermachen, wieso die dann nicht plötzlich heller im Bild erscheinen.
 
Wie gesagt es wird hoffentlich erstmal klar, wie die digitalen Pixel mehr Info bekommen. Wenn wir uns darauf geeinigt haben kann ich weitermachen, wieso die dann nicht plötzlich heller im Bild erscheinen.

Weil einfach die größere Fläche beleuchtet/belichtet werden muss. Darum, es gibt keinen anderen Grund.
Mehr Licht für mehr Fläche. Es kann nicht heller werden.

Du darfst die Erklärung aber auch bitte abgeben, ohne das wir uns "geeinigt haben". Ich bin darauf sehr gespannt (was bitte nicht negativ zu verstehen ist).
 
Zuletzt bearbeitet:
Du hast doch aber keine größeren Pixel im Bild später. Das ist doch die eigentliche Fläche die du beleuchten willst.

Was die Sensoren ja machen ist die Anzahl Photonen "zählen" und daraus ein elektrisches Signal generieren. Je mehr Photonen auf den Photodetektor (Pixel) treffen, desto stärker ist dann das Signal was hinten raus kommt. Da wird nichts über eine Fläche verteilt, je größer der Detektor, desto mehr Photonen fallen auf die Fläche und desto stärker wird das Signal.
 
Pittiplatsch4 schrieb:
Du hast doch aber keine größeren Pixel im Bild später. Das ist doch die eigentliche Fläche die du beleuchten willst.

Ob nun KB, APS-C, mFT, 1" etc. 24MPx sind natürlich 24MPx. Aber die physikalischen Pixel im Sensor, die also das Licht abbekommen besitzen im größeren Sensor eine größere Fläche. Daher wird der größere Lichtkreis benötigt. Und außerdem die kürzere Brennweite, damit das identische Bild/Abbildungswinkel abgeliefert wird.
Die Fläche, die nun Photonen einsammelt ist größer, korrekt, und nun entsinne Dich an das Blatt Papier ... ist das größere Blatt irgendwie heller? Nein.
Wo jetzt der mFT Sensor beispielsweise nur 1 Photon Grün abbekommt bekommt der KB Sensor meinethalben jetzt 4 ab. Da die Fläche aber auch 4x größer ist, muss er das auch bekommen. Was würde denn passieren, wenn nun auf die 4x Fläche nur die menge Licht des mFT Sensors fiele?

Das dadurch das Signal deutlicher ist, und somit zu weniger Rauschen führt bestreitet doch niemand. Und darin besteht auch kein widerspruch. Es wird im Video genau darauf hingewiesen, anhand der Beispiele gezeigt und es skaliert wunderbar nachvollziehbar (und nicht zufällig).

4-fache Fläche sammelt 4-fache Menge Licht, dadurch haben wir weniger rauschen um den Blendenfaktor 2. Aber das Bild an sich hat die identische Belichtung.

Ich weiß ja was Du sagen willst, diese Menge an mehr Licht, die das "deutlichere" Signal generiert, muss auch auf der größeren Fläche eingefangen werden und ist zwingend erforderlich, weil sonst die Belichtung nicht passt. Somit ist der KB Sensor "effektiver", aber er braucht keine anderen Belichtungs-Einstellungen. Er rauscht weniger, weil der Fläche entsprechend mehr Licht gesammelt wird.

Ich gehe davon aus, dass wir beide das Gleiche aussagen wollen. Womit ich mich nicht anfreunden kann ist die These es müsste etwas umgerechnet werden oder Einstellungen geändert. Das alles passiert erst im Sensor! Die geringere Signalverstärkung im KB Sensor gegenüber mFT. Hatten wir bereits im anderen Thread und nochmal: das bestreitet keiner! Es ist klar gezeigt worden was die Auswirkungen sind. (Bildrauschen)
Dennoch: das Bild braucht keine anderen Belichtungseinstellungen. Mehr sagt das alles nicht aus. Einen Widerspruch erkenne ich daher weiter nicht. Passt Du den ISO des KB Sensors auf das gleiche Rauschverhalten (also die gleiche Signalstärke) des mFT Sensors an, musst Du um den gleichen Faktor abblenden = weniger Licht fällt auf den Sensor. Somit haben wir nicht mehr die identische Belichtung.
 
Zuletzt bearbeitet:
Ich glaube wir befinden uns nunmehr auf der Zielgeraden. Das einzige was noch nicht stimmt ist der Ansatz mit dem Papier und diese Schlussfolgerung daraus:

pcpanik schrieb:
Wo jetzt der mFT Sensor beispielsweise nur 1 Photon Grün abbekommt bekommt der KB Sensor meinethalben jetzt 4 ab. Da die Fläche aber auch 4x größer ist, muss er das auch bekommen. Was würde denn passieren, wenn nun auf die 4x Fläche nur die menge Licht des mFT Sensors fiele?

Das ganze ist leicht erklärt. Die ISO Werte sind grob gesagt als bestimmte Ausgangspegel definiert. Da der MFT Sensor nur 1/4 des Signals (Licht) bekommt, muss er dieses um den Faktor 4 im Vergleich zum KB Sensor verstärken um eine bestimmte ISO Zahl zu erreichen. Da bei einer Signalverstärkung aber auch immer das Hintergrundrauschen mit verstärkt wird steigt dieses natürlich um den selben Faktor mit. Als Ergebnis hat man dann die selbe Helligkeit des Bildes, aber einmal mit dem 4fachen Rauschen.

Was deine Frage angeht wird diese relevant, wenn man z.B. um 2 Blenden abblendet um die selbe Tiefenschärfe zu erreichen. Dann fällt in der Tat nur die selbe Menge Photonen auf die 4fache Menge des MFT Sensors. Um das auszugleichen Regeln wir bei KB die ISO um 2 Blenden nach oben und erhalten als Ergebnis das selbe Rauschen.



PS: Die These mit den anderen Einstellungen kam auf jeden Fall nicht von mir. Es war von irgendwem (dir?) hypothetisch angebracht worden, dass man die ändern müsste, wenn der KB Sensor mehr Licht einsammeln würde und damit "lichtstärker" wäre.
 
Zielgeraden? Für die Wiederholung dessen was seit Anfang an als Aussage steht? Und natürlich stimmt das Papier-Beispiel.
Ich mag mich wirklich nicht mehr mit Dir im Kreis drehen. Das hat keinen Nährwert. Mir ist absolut unklar warum 1000 Leite verstehen worum es geht aber Du einen Fehler versuchst da rein zu bauen, den es nicht gibt. Vielleicht belassen wir es einfach dabei. Ich geb auf.
Es bleibt dabei. Mehr Fläche braucht im entsprechenden Verhältnis mehr Licht. Es ist nicht notwendig andere Einstellungen bei KB zu nutzen oder umzurechnen. Das Belichtungsergebnis ist bei gleichen Einstellungen identisch.
Der KB sensor ist durch die größere Fläche in der Lage bei ähnlicher Technologie und ähnlicher Dichte dem. Crop entsprechend weniger Bildrauschen zu produzieren.
Punkt. Hier endet es jetzt für mich.
 
Zuletzt bearbeitet:
Pittiplatsch4 schrieb:
Ich glaube wir befinden uns nunmehr auf der Zielgeraden. Das einzige was noch nicht stimmt ist der Ansatz mit dem Papier und diese Schlussfolgerung daraus:

Sorry, aber deine Ausführungen in Physikalischer und Elektrotechnischen Dimensionen sind komplett sinnfrei. Nur weil du mal wieder deine Meinung wieder so lange herausposaunst bis die anderen keine Lust mehr auf Diskutieren haben heißt das noch lange nicht dass du Recht hast oder in der Position wärst andere zu belehren.

Um mal aus der Wikipedia zu zitieren:
* Es gibt verschiedene Definitionen für die Empfindlichkeit, sättigungsbasierte und SNR-basierte, letztere zusätzlich mit verschiedenen Zusatzparametern.
* Ein Halbleitersensor ist in Kombination mit der Kameraelektronik so flexibel, so dass man das ganze Konzept der standardisierten Filmempfindlichkeit in Frage stellen kann. Diese Erkenntnis hat auch zur Festlegung von mehr oder weniger willkürlichen ISO-Werten seitens der Kamerahersteller geführt.

Dazu: https://www.dpreview.com/articles/8...e-shedding-some-light-on-the-sources-of-noise

Ich denke, das Thema ist allgemein schon ziemlich abgedroschen. Die elektronischen ISO-Werte sind dafür angepasst, um auf die Referenz "Analogfilm" zu passen. An der Stelle ist es also erstmal angebracht, sich mit dem Lichtwert auseinander zu setzen. Siehe dar, hier tauchen unterschiedliche Filmgrößen oder Sensorgrößen schlicht nicht auf.
Ergo ist die korrekte Belichtung unabhängig von der Fläche gleich. Alles andere wäre ja auch etwas Blödsinn, ein Objektiv behält seine physikalischen Eigenschaften unabhängig davon ob jetzt ein KB oder APS-C-Sensor dahinter hängt.
Wenn ich jetzt z.B. eine weiße Fläche fotografiere habe ich einen gleichmäßigen Lichtstrom durch die Sensorebene, ob der jetzt gecroppt ist oder nicht bleibt die aufgenommene Helligkeit pro Fläche die selbe. Insofern ist vielleicht das Beispiel mit der Tonne falsch gewählt, weil eine Tonne mit einer größeren Grundfläche braucht auch mehr Wasser um den selben Pegel zu erreichen. Dabei wären wir sofort wieder bei der elektronischen Signalverarbeitung die ja bekanntlich auch mit Pegeln rechnet.
Der Punkt ist aber: Ob du jetzt deinen Ausschnitt der Bildebene im Postprocessing machst oder durch Film/Sensorgröße ist schlicht unerheblich für die Helligkeit des Bildes.

Wie bei unterschiedlichen Filmgrößen unterscheiden sich die Ergebnisse durch die belichtete Fläche jedoch bezüglich Schärfentiefe und Rauschen.
Um bei der Tonne zu bleiben: Wenn du jetzt deinem Sensor eine Auflösung verpasst, setzt du eine Kammerstruktur ein. Je nachdem wie die Regentropfen eintröpfeln hast du leicht unterschiedliche Pegel gleich beregneten Kammern bevor du den Deckel drauf machst. Je kleiner die Kammern, desto größer die Wahrscheinlichkeit dass die Unterschiede zwischen zwei Kammern größer sind. Auf der anderen Seite hast du bei nur einer Kammer keinen Unterschied (Rauschen) mehr.

Wie man sieht ist in erster Linie die Pixeldichte für den Maß des Rauschens oder die SNR entscheidend. Was sich mit zunehmender Fläche ändert ist: Das Bild ist insgesamt größer, damit können mehr Details eingefangen werden und die Bedeutung einzelner Körner/Pixel für die Körnung/das Rauschen verschwindet zunehmend.
Bei einem Vergleich 24MPx-KB-Sensor und 16MPx-mFT-Sensor merkt man, dass die Pixeldichte des KB-Sensors deutlich kleiner ist. Im 1:1-View einer einfarbigen Fläche müsste ein 64MPx-KB-Sensor mit selber Technologie das gleiche Rauschverhalten wie der 16MPx-mFT-Sensor aufweisen. Dennoch könnte der hypothetische Sensor deutlich mehr Details durch die höhere Auflösung einfangen, gesetzt die Optik macht das mit ;)
 
@pcpanik: Also vor 2 Seiten habe ich an meiner Fähigkeit zu erklären gezweifelt, so langsam ist das aber nicht mehr der Fall. Nach meinem letzten Post hätte man es verstehen können, denke ich. Ich hab echt das Gefühl du liest die nicht wirklich durch. Sonst wäre dir auch aufgefallen, dass ich schon immer mit dir einer Meinung war, dass die Einstellungen nicht angepasst werden müssen.

Davon abgesehen hat die Masse der Leute die einer Meinung sind wenig mit dem Wahrheitsgehalt zu tun. Zumal in dem Thread hier die einzige andere Person mir zugestimmt hat.

Ich habe auch gerade nochmal dein Youtube Video angeguckt, weil ich sicher gehen wollte, dass es kein Missverständnis ist. Aber der Anfang ist tatsächlich einfach falsch, bis auf die Erkenntnis, dass man die Einstellungen nicht anpassen muss. Die Beispiele mit der Sonne, dem Regen und dem Papier stimmen einfach nicht. Und bei der Pixelansicht danach wirst du auch nicht allzu konkret, bzw ist es sogar auch falsch. Das weniger Rauschen bei KB hat eben nichts mit der Effektivität zu tun sondern mit dem mehr an Licht. Ich nehme an das mit dem mehr an Luft und Raum war ein Versprecher, jedenfalls ist ungenutzter Raum das letzte was man auf einem Sensor will. ;)
Du hast einfach nicht im Blick, dass das Endergebnis (das digitale Bild) exakt gleich groß ist. Beim Rasenbeispiel ist die Tonne schon der Sensor, du kannst dann nicht einfach hingehen und das Bild (den Rasen) 4 mal so groß machen, das macht keinen Sinn. Das mit dem Papier ist schlechter greifbar, aber ich versuchs mal. Nehmen wir an du könntest das Licht, was auf die Blätter fällt festhalten. Um dann zur selben Ausgabegröße zu kommen, müsstest du das kleine Blatt um den Faktor 4 vergrößern und damit die festgehaltenen Informationen interpolieren, womit Bildqualität verloren geht.

Zum Schluss noch 3 Denkanstöße:

1) Mehr Fläche braucht nicht mehr Licht. Du musst nur eine größere Fläche ausleuchten, damit du den selben Bildauschnitt hast. Du könntest auch das selbe MFT Objektiv nehmen und es doppelt so weit vom KB Sensor positionieren, damit der Bildkreis größer wird und der volle Sensor ausgeleuchtet wird. (nehmen wir einfach mal an der Bildkreis passt dann von der Größe) Damit würde pro Fläche nur noch 1/4 des Lichts ankommen. Insgesamt bekommt der Sensor aber das selbe Licht. Das Bildergebnis würde identisch sein. Man müsste nur die ISO um 2 Blenden anheben, da dem KB Sensor die Signalverstärkung des MFT Sensors fehlt.

2) Daraus folgt im Umkehrschluss auch: Würde bei MFT keine Signalverstärkung stattfinden, müsste man tatsächlich die Einstellungen anpassen, da dort jeder Pixel weniger Licht erhält und im Bild dann dunkler wäre.

3) https://youtu.be/DtDotqLx6nA?t=7m50s (bis ca. 14min)



EDIT: @B.XP: Danke für den Artikel, da ist nen guter Quote drin, der meinen Standpunkt bestätigt. :)

Or, put another way, at the same f-number (both cameras set to F2.8), the full frame camera will see four times as much light as a camera with a Four Thirds sensor, since it is exposed to the same light-per-unit-area but has a sensor with four times the area.

As a result, when you shoot two different sized sensors with the same shutter speed, f-number and ISO, the camera with the smaller sensor has to produce the same final image brightness (which the ISO standard demands) from less total light. And, since we've established that capturing more light improves your signal-to-noise ratio, this means every output tone from the larger sensor will have a better signal-to-noise ratio, so will look cleaner.

EDIT2: @B.XP: Du hast durchaus interessante und zu 95% korrekte Argumente, allerdings widersprichst du mir im Prinzip nicht. Ich weiss nicht wirklich was ich auf den Post antworten soll, außer dass meine elektrotechnischen Ausführungen höchstens etwas grob abstrahiert aber nicht sinnfrei sind. Wenn du gern einzelne Punkte beantwortet hättest bin ich dazu aber auch bereit. :)
 
Zuletzt bearbeitet:
@Pittiplatsch4, auch wenn mir Eure Diskussion hier echt zu hoch wird und ich mich da mit Sicherheit nicht einmischen will, auch weil ich da eher der Praktiker bin, aber vergisst Du bei deinen Aussagen wie z.B dieser hier:
Du hast einfach nicht im Blick, dass das Endergebnis (das digitale Bild) exakt gleich groß ist.
dass man dazu eine andere Brennweite braucht (hier Vergleich MFT-KB) um ein exakt gleich großes Endergebnis zu bekommen?
Um dann zur selben Ausgabegröße zu kommen, müsstest du das kleine Blatt um den Faktor 4 vergrößern und damit die festgehaltenen Informationen interpolieren, womit Bildqualität verloren geht.
Vergisst Du hierbei nicht auch den Brennweitenunterschied?

Ich muss gestehen ich bin Verwirrt :freak: Aber im Endeffekt ist´s mir auch egal. Das Video war für mich in soweit sehr aufschlussreich und bestätigend dass ich sagen kann ich bin mit meinem System und für meine Zwecke gut aufgestellt.

Sorry das ich mich dazu gemeldet habe.
 
Pittiplatsch4 schrieb:
EDIT2: @B.XP: Du hast durchaus interessante und zu 95% korrekte Argumente, allerdings widersprichst du mir im Prinzip nicht. Ich weiss nicht wirklich was ich auf den Post antworten soll, außer dass meine elektrotechnischen Ausführungen höchstens etwas grob abstrahiert aber nicht sinnfrei sind. Wenn du gern einzelne Punkte beantwortet hättest bin ich dazu aber auch bereit. :)

Nein, die sind nicht nur 95% korrekt, sondern 100%.

Mach dir den Unterschied zwischen Fluss und Potentialgrößen klar, dann wirds auch wad mit dem argumentieren.

Das zeigt sich bei deinen drei Punkten oben.
1) Doch mehr Fläche benötigt ingesamt mehr Licht, um den gleichen Menge Licht pro flächeneinheit zu sammeln. Egalbwie groß du deine Photodioden wählst, musst du diese auf ein Potential (Spannung) bringen, und das ist direkt abhängig davon, wie viel Licht (pro flächeneinheit!!!) auf die Photodiode fällt. Das ist dein grundsätzlicher Denkfehler. Bei veränderter Fläche des Sensors bleibt die Licht-Dichte dennoch die selbe.
Denkfehler 2: Wenn du das mft-Objektiv anders positionierst oder einen Telekonverter verwendest um einen anderen Bildkreis auszuleuchten, dann reduziert dieser auch den Lichtstrom pro Fläche. Sowohl KB als auch MFT-Sensor bekommen dann gleich wenig Licht pro Fläche und müssen im gleichen Maße verstärken. Auf der anderen Seite ist das Bild vom mft-Objektiv auf dem KB-Sensor genau so hell (im kleinen Bildkreis) ist wie am MFT-Sensor.

2) da muss eben keine Verstärkung stattfinden. Das Bild auf KB besteht aus mehr Licht, aber auch auf mehr Fläche. Das wirkt mittelnd und damit Rauschdämpfend.

3) Das Video kenne ich, du ziehst Schlüsse daraus, die so nicht stimmen. An der Stelle geht es um falsch angewandte Äquivalenzprinzipien, bezogen auf die Bildwirkung. Und dazu kommt das oben schon ausgeführte Thema mit der Pixeldichte von kleinen Sensoren im Bezug auf das Rauschen.

Der Punkt ist: Sowohl Tony als auch @pcpanik haben das Thema komplett verstanden. Bei deinen Ausführungen bin ich mir nicht so sicher.
 
B.XP schrieb:
Wie man sieht ist in erster Linie die Pixeldichte für den Maß des Rauschens oder die SNR entscheidend. Was sich mit zunehmender Fläche ändert ist: Das Bild ist insgesamt größer, damit können mehr Details eingefangen werden und die Bedeutung einzelner Körner/Pixel für die Körnung/das Rauschen verschwindet zunehmend.

Genau das ist wohl eher falsch, zumindest widerlegt Tony northrup dies in einem seiner addon-videos.

https://youtu.be/0OtIiwbAZi8 (ab circa 8 Minuten)

Nur die Fläche ist entscheidend, respektive die absolute Menge eingefangenen Lichtes. Pixeldichte ist beinahe egal. (Er zeigt zuerst Pixeldichte vs Rauschen und eliminiert dann den Faktor Sensorgröße).

Wenn pixeldichte das entscheidende Kriterium wäre, dann müsste die 5D S beim Rauschverhalten deutlich schlechter abschneiden als das tatsächlich der Fall ist.
 
Zuletzt bearbeitet:
B.XP schrieb:
Mach dir den Unterschied zwischen Fluss und Potentialgrößen klar, dann wirds auch wad mit dem argumentieren.

Kannst du den kurz im Zusammenhang mit dem Thema erläutern? Ich hab auf die Schnelle nichts dazu gefunden. :/

Das zeigt sich bei deinen drei Punkten oben.
1) Doch mehr Fläche benötigt ingesamt mehr Licht, um den gleichen Menge Licht pro flächeneinheit zu sammeln. Egalbwie groß du deine Photodioden wählst, musst du diese auf ein Potential (Spannung) bringen, und das ist direkt abhängig davon, wie viel Licht (pro flächeneinheit!!!) auf die Photodiode fällt. Das ist dein grundsätzlicher Denkfehler.

Wenn du mir eine Quelle dafür findest, dass die Dioden nur die relative und nicht die absolute Lichtmenge messen, bin ich gern bereit dir zuzustimmen. Ich habe nach einiger Suche kein wirkliches Pro oder Contra gefunden. Die reine Logik und Analogien zu anderen Anwendungen gebieten eigentlich, dass die absolute Menge gemessen wird.

Denkfehler 2: Wenn du das mft-Objektiv anders positionierst oder einen Telekonverter verwendest um einen anderen Bildkreis auszuleuchten, dann reduziert dieser auch den Lichtstrom pro Fläche. Sowohl KB als auch MFT-Sensor bekommen dann gleich wenig Licht pro Fläche und müssen im gleichen Maße verstärken. Auf der anderen Seite ist das Bild vom mft-Objektiv auf dem KB-Sensor genau so hell (im kleinen Bildkreis) ist wie am MFT-Sensor.

Deine Aussage an sich ist richtig, allerdings hast du das Beispiel verändert, bzw. nicht verstanden. Es ging darum zu zeigen, dass es auf die Gesamtlichtmenge ankommt. Dafür wurde an der MFT Kamera nichts gemacht und dann als Vergleich das selbe MFT Objektiv vor den KB Sensor montiert.

2) da muss eben keine Verstärkung stattfinden. Das Bild auf KB besteht aus mehr Licht, aber auch auf mehr Fläche. Das wirkt mittelnd und damit Rauschdämpfend.

Siehe den Punkt davor, wenn man das Model im Beispiel ändert macht es natürlich keinen Sinn mehr, da der Punkt sich direkt auf den vorherigen bezog.

3) Das Video kenne ich, du ziehst Schlüsse daraus, die so nicht stimmen. An der Stelle geht es um falsch angewandte Äquivalenzprinzipien, bezogen auf die Bildwirkung. Und dazu kommt das oben schon ausgeführte Thema mit der Pixeldichte von kleinen Sensoren im Bezug auf das Rauschen.

Ich ziehe eigentlich keine Schlüsse aus dem Video, ich habe das gepostet, weil er das selbe Prinzip erläutert, was ich hier auch versuche zu erklären. Wäre interessant zu wissen wo ich dem konkret widerspreche.

Der Punkt ist: Sowohl Tony als auch @pcpanik haben das Thema komplett verstanden. Bei deinen Ausführungen bin ich mir nicht so sicher.

Die Aussage ist interessant, da die beiden sich widersprechen. Alleine schon beim Beispiel mit dem Wasser gibt es Unterschiede.


PS: Versteh mich nicht falsch, ich versuche tatsächlich zu verstehen ob ich einen Denkfehler hab. Das mit dem shot noise war mir neu. Ich bin immer davon ausgegangen, dass der Großteil electronic noise ist. Allerdings widerspricht das meinem Model eben nicht.
 
Moah, ich muss echt tief in die Elektronik einsteigen. Also grundsätzlich gibt es viele Arten um Fotodioden zu betreiben.

Der CMOS-Sensor wird hier recht gut beschrieben: http://fhotolab.fherb.de/2016/09/10...nsor-keine-ladung-sammelt-sondern-vernichtet/
Beim CCD-Sensor wird Ladung aufgebaut, nicht abgebaut.

An der Stelle wird eigentlich klar wie das Prinzip abläuft: Du hast die geladene Sperrschichtkapazität der Photozelle, diese wird mit jedem Photon entladen, damit sinkt grob gesagt die Spannung der Zelle. Dir Formel ist C=Q/U oder umgestelle U=Q/C.
Die Höhe von Q wird also durch den Lichtstrom bestimmt bzw. Die gesammelten Photonen. Jetzt kommt's aber: Die Kapazität C ist auch eine konstruktive Größe. Für den primitiven Plattenkondensator ist das C=epsilon *A/d... Setzt man das ein sieht man, dass bei U = (Q * d)/(epsilon *A) => damit ist die Spannung mit zunehmende Fläche bei gleicher Anzahl an Ladungen geringer!
Da jetzt in der Regel auf eine größere Fläche auch mehr Photonen prasseln, ist die resultierende Spannung wieder die selbe. Hier musst du aber nichts mehr verstärken.
Das Problem bei kleineren nicht-BSI-Sensoren mit CMOS ist aber, dass die Fläche für die Gates zur Steuerung ja immer noch gleich bleibt und damit der Anteil der Fotodioden-Fläche sinkt!
 
..was aber anscheinend keinen großen Einfluss auf das Rauschverhalten hat, wie oben gepostet.
 
-Daniel- schrieb:
..was aber anscheinend keinen großen Einfluss auf das Rauschverhalten hat, wie oben gepostet.

Moment...

-Daniel- schrieb:
Genau das ist wohl eher falsch, zumindest widerlegt Tony northrup dies in einem seiner addon-videos.

https://youtu.be/0OtIiwbAZi8 (ab circa 8 Minuten)

Nur die Fläche ist entscheidend, respektive die absolute Menge eingefangenen Lichtes. Pixeldichte ist beinahe egal. (Er zeigt zuerst Pixeldichte vs Rauschen und eliminiert dann den Faktor Sensorgröße).

Wenn pixeldichte das entscheidende Kriterium wäre, dann müsste die 5D S beim Rauschverhalten deutlich schlechter abschneiden als das tatsächlich der Fall ist.

Moment, man muss hier genau zuhören. Was in dem Video gesagt wird ist richtig und widerspricht mir an der Stelle auch gar nicht. Tony bezieht sich in dem Abschnitt immer auf "Licht pro Flächeneinheit", was ich bisher auch verwendet habe. Dazu muss man auch sagen, dass hier ausschließlich auf das Sensorrauschen eingegangen wird, mein Bezug zwischen Pixeldichte und Bildrauschen VOR der elektronischen Verarbeitung. Im späteren Verlauf sieht man: Das Rauschen mit sehr ausgeglichen hell beleuchteten Flächen bestimmt, das ist jetzt nicht gerade der Bereich, bei dem das "Motivrauschen"wirklich zum Tragen kommt, bei dunklen Bereichen ist das dafür massiv. Die Testbilder bei dpreview machen da mehr her.
Nach dem Block wird die Lichtmenge pro Bildfläche und nicht pro Flächeneinheit betrachtet. Das ist schon ein entscheidender Shift! Warum muss man bei Vollformat die ISO hochdrehen, um das gleiche rauschen wie bei den Cropsensoren zu erhalten? Die Erklärung dafür findet sich in #37.
Der Punkt ist, dass die Gesamt-Lichtmenge auf dem VF-Sensor reduziert wird, bis sie der Gesamtmenge des Lichts des Cropsensors entspricht. In dem Fall erreicht man mit der Ladung auf der größeren Fläche eine kleinere Spannung, die dann verstärkt werden muss. Auf der Referenz-Bildgröße ist dann das Rauschen auf dem selben Niveau.

Die Frage ist nun: Wenn man die optischen Einstellungen identisch wählt (z.B. das selbe Objektiv, gleiche Blende und Brennweite), und nur den Sensor austauscht, wie verhält sich dann das Rauschen? Nun, bei niedrigen ISOs gibt es bekanntlich wenig Unterschiede, bei höheren bekanntlich schon. Und das, obwohl der Lichtstrom pro Flächeneinheit der selbe ist! Bei der Verwendung der gleichen Technologie, Pixeldichte etc. und der Betrachtung des selben Bildausschnitts, den auch der Cropsensor verwendet würde ich theoretisch exakt das selbe Ergebnis erwarten. Nur gibt es technologisch identische Sensoren in verschiedenen Größen nicht wirklich, und wenn unterscheiden sie sich immer noch etwas in ihren Eigenschaften.
Anders herum ist das Motiv auf einem VF-Sensor größer abgebildet als auf dem Cropsensor. Damit nimmt von den theoretisch gleichen Sensoren der VF-Sensor natürlich mehr Details wahr, die Pixel könnten aber ebenfalls zusammengerechnet werden ... etc. - nur um auf das selbe Ergebnis zu kommen, muss ein Cropsensor keine Verstärkung verwenden...!

Letztendlich ist einfach mehr "Signal" da - nur muss man immer auf die Constraints aufpassen, die man wählt.
 
Nur weil du mal wieder deine Meinung wieder so lange herausposaunst bis die anderen keine Lust mehr auf Diskutieren haben heißt das noch lange nicht dass du Recht hast oder in der Position wärst andere zu belehren.

+1. Zudem Danke für Deine ganzen weiteren Ausführungen.
 
Zurück
Oben