News Sony IMX490: Neuer CMOS-Sensor lässt Autos besser sehen

projectneo

Lt. Junior Grade
Dabei seit
Juli 2010
Beiträge
463
Ach wie oft schon Sony vollmundig neue Sensoren angekündigt hat und am Ende dann manchmal sogar schlechter als die Vorgänger waren. Da glaube ich es erst, wenn es unabhängige Tests bestätigen.
Ich behaupte du hast keine Ahnung von CMOS Sensoren für den Automotive Bereich. Selbst die Sensoren die man als Consumer vielleicht kennt sind von Sony noch immer am Besten. Von daher wohl eher ein Trollkommentar.
 

Hatsune_Miku

Commander
Dabei seit
Juli 2012
Beiträge
2.220
Recht hat er aber doch schon, gab doch damals mehrere vergleiche bei Smarphones die alle den Sony IMX glaub 240 drin hatten und bei Sony Geräten nen mieses Bild machten
 

cliscan

Ensign
Dabei seit
Juli 2018
Beiträge
145
Und welche bahnbrechende Weiterentwicklung bei den Sensormaterialien oder der Konstruktion des Sensors soll für diese überlegene Dynamik gesorgt haben? Sorry, aber nach der Rückseitenbelichtung von CMOS-Sensoren, die diese nah an die höhere Lichtempfindlichkeit von CCD-Sensoren heran- aber nicht an ihnen vorbeibrachte sind diese bei gleicher Pixelfläche nicht mehr wirklich lichtempfindlicher oder ,,dynamischer`` geworden. Was will Sony da am Aufbau des Sensor-Chips verändert haben, was zu derart verbesserten Eigenschaften des Sensors geführt haben soll?
 

D4rk_nVidia

Commander
Dabei seit
Nov. 2009
Beiträge
2.673

Excel

Lt. Junior Grade
Dabei seit
Juli 2011
Beiträge
284
Das sind verschiedene Sparten, Automotive hat da ganz andere Anforderungen.
Smartphone ist halt eher der LowCost Markt mit nicht so hohen Anforderungen.

Unabhängig davon kann Sony extrem gute Sensoren entwickeln, wie man etwa bei den Alpha 9, 7 und 6XXX sieht.
 

Puscha

Lieutenant
Dabei seit
Nov. 2006
Beiträge
832
Auch die Handysensoren sind prima, Sony verkackt es bei der Software. Das Huawei P20 Pro z.B. hat auch ein Sony Sensor verbaut.. jedenfalls sehr krasse Verbesserungen zwischen beiden Beispielen im Video.
 

Krautmaster

Fleet Admiral
Dabei seit
Feb. 2007
Beiträge
20.887
Ich denke eine Überbelichtung kann man durch geänderte und spezialisierte Signalverarbeitung durchaus besser und einfacher abfedern als bei Dunkelheit die Empfindlichkeit und Rauschabstand zu pushen - was ja meist eher gefordert wird. Deswegen kann der verbesserte Dynamik Bereich schon hinkommen, auch wenn die Fortschritte am "tiefen Ende" sicher weniger groß sind als eben bei viel Licht.
 

cliscan

Ensign
Dabei seit
Juli 2018
Beiträge
145
Unabhängig davon kann Sony extrem gute Sensoren entwickeln, wie man etwa bei den Alpha 9, 7 und 6XXX sieht.
Wie gut die Sensoren sind kann man bei Sony's Alpha 9, 7 und 6XXX Modellen gar nicht ermitteln, da alle Kameras selbst die Daten der RAW-Bildformate nach Durchlaufen des Bayer-Algorithmus noch mit ,,Bildverbesserungsalgorithmen`` wie Entrauschung, Nachschärfung und vermutlich noch etlichem mehr komplett auf den Kopf stellen und mit Artefakten dieser Algorithmen entstellen. Die Sony-Kameras produzieren heute keine Photographien (Photographie = möglichst wirklichkeitsgetreues Abbild der Realität) mehr, sondern Computergraphiken (Computergraphik = Künstlich errechnetes Bild in dem kein Pixel mehr so ist, wie der Sensor es durch das Objektiv ,,gesehen`` hat).

Ich musste über 10.000 EUR in eine Hasselblad H4D-40 investieren, weil ich keine zwangsweise schon in der Kamera komplett überarbeitete Computergrafiken mit bestenfalls noch entfernter Anlehnung an eine reale Szene, sondern Photographien, also möglichst realitätsnahe Abbilder der von mir photographierten Szenen wollte. Bei Kameras bis weit über 6000 EUR für den Body bekommt man heute nur noch in der Kamera komplett überarbeitete Computergraphiken anstelle von Photos. Da kann man auch gleich ein iPhone nehmen, was einem die Schatten und Falten aus dem Gesicht rechnet wenn man ein Portrait-Photo macht. Viel realitätsgetreuere Bilder erzeugen Alpha 9, 7 und 6XXX meiner Beobachtung und Meinung nach auch nicht.
 

mac4life

Lt. Commander
Dabei seit
Dez. 2013
Beiträge
1.257
@cliscan

Hast du dafür auch ein Anwendungsgebiet oder einen weiteren Nutzen für eine solch teure Kamera?

Nur aus dem Grund, dass man „Realitätsnähe“ Fotos möchte, zahlt man doch keine 10.000 €. Wenn doch, finde ich das ganz schön bekloppt.

Ich nehme Fotos auf und bearbeite sie so, wie ich sie wahrnehme.
Hatte ich in dem Moment ein warmes oder kühles Gefühl. War ich eher fröhlich und hell oder dunkel gestimmt?
Ein Bild kann noch so viel Realität abbilden, es wird niemals das zeigen, was ich in dem Moment gefühlt oder gesehen habe.
Wozu also sich also die Mühe machen, alles pixelgenau abzubilden?
 

Daniel D.

Lt. Commander
Dabei seit
Nov. 2005
Beiträge
1.096
Ach wie oft schon Sony vollmundig neue Sensoren angekündigt hat und am Ende dann manchmal sogar schlechter als die Vorgänger waren. Da glaube ich es erst, wenn es unabhängige Tests bestätigen.
Sony baut sehr gute Sensoren und das nicht nur für Smartphones oder Kameras! Was Du vielleicht meinst ist die schlechte Softwareunterstützung in ihren eigenen Geräten, was die Sensoren unverständlicherweise in einem schlechten Licht dastehen lassen. Andere Hersteller nutzen die gleichen Chips und reizen diese voll aus. Ich finde den Film beeindruckend (Fahrt aus dem Tunnel) bzw. den Vergleich zwischen den beiden Sensoren.
 

Corros1on

Commodore
Dabei seit
Nov. 2014
Beiträge
4.417
Also beim lesen der Schilder und erkennen der Ampelanlagen geht man schon einen sehr komplizierten Weg.

Aktuell können Ampelanlagen und Schilder nur über optische Sensoren erkannt werden, die nicht immer zuverlässige Daten liefern und es gab schon deswegen ein Todesopfer.

Schilder könnten doch über RFID die nötigen Informationen senden und die Ampelanlagen könnten über Bluetooth oder anderen Datenübertragungsmethoden die Signale übertragen werden.

Ich denke man sollte meiner Meinung nach nicht nur die Fahrzeuge fit für autonomes Fahren, sondern auch die Strecken worauf sie später fahren sollen.
 
Zuletzt bearbeitet:

Recharging

Lt. Commander
Dabei seit
Dez. 2011
Beiträge
1.957
Das ist in den USA so. Viel ersichtlicher als bei uns. Ohne Genickverrenkung, wenn man an erster Stelle steht.
Mag wohl daran liegen, dass nordamerikanische Städte vergleichsweise neu und für den MIV geplant sind und weniger Historie, dh weit üppigere Platzverhältnisse aufweisen? :rolleyes: Die Sehschlitze aka Frontscheibe und tiefen Chassis der Autos tun ihr Übrigens. ;) Die 8 und noch mehrspurigen Freeways je Richtung sind bei Gott weder Allheilmittel noch ein städtebauliches Aushängeschild (außer aus der Vogelperspektive).
 
Zuletzt bearbeitet:

J@kob2008

Lieutenant
Dabei seit
Mai 2008
Beiträge
558
Aha, größere Sensorauflösung soll mir 360 Grad Umsicht verschaffen... . Klar, höhere Auflösung ist gleich mehr Übersicht. Aber die Muter Natur hat da eine viel leichtere/effizientere Alternative gefunden, die sich "Facettenauge" nennt, wie zum Beispiel bei einer stinknormalen Fliege. Jetzt übertrage ich mal Entwicklung von Sony auf das Fliegenauge: wir stechen der Fliege alle bis auf eine Facetten aus, dafür statten wir die verbleibende Facette mit Ultra-scharfen Auflösung aus. "Gut" sagt die Fliege, "es muss ja was taugen, hat ja eine Menge Kohle gekostet, meinem bisherigen Auge gegenüber", und die wird von einer Klatsche von hinten erschlagen. Tja, was ist hier das Moral? Genau, wenn man irgendwelche Technologie entwickelt, soll man, in erster Linie, über den praktischen Nutzen nachdenken.
 

evilhunter

Lt. Junior Grade
Dabei seit
Juni 2015
Beiträge
304
Ich finds anmaßend wie manche hier schon urteilen und meinen wieder alles besser zu wissen. Wenn man außer Acht lässt, ob der Sensor nun gut oder schlecht ist wird sich Sony schon Gedanken gemacht haben warum sie die Sensoren genauso bauen und nicht andersrum. Sie scheinen ja damit ihren Erfolg zu haben.
 
Top