News Sony IMX490: Neuer CMOS-Sensor lässt Autos besser sehen

Ach wie oft schon Sony vollmundig neue Sensoren angekündigt hat und am Ende dann manchmal sogar schlechter als die Vorgänger waren. Da glaube ich es erst, wenn es unabhängige Tests bestätigen.
 
  • Gefällt mir
Reaktionen: ugurano2019, nato44 und Mort626
cat_helicopter schrieb:
Ach wie oft schon Sony vollmundig neue Sensoren angekündigt hat und am Ende dann manchmal sogar schlechter als die Vorgänger waren. Da glaube ich es erst, wenn es unabhängige Tests bestätigen.

Ich behaupte du hast keine Ahnung von CMOS Sensoren für den Automotive Bereich. Selbst die Sensoren die man als Consumer vielleicht kennt sind von Sony noch immer am Besten. Von daher wohl eher ein Trollkommentar.
 
  • Gefällt mir
Reaktionen: LamaTux, scornthegreat, Bhaal3010 und 26 andere
das mit den ampeln, die auf der anderen seite montiert werden sollte man auch hierzulande einführen
 
  • Gefällt mir
Reaktionen: Blumenwiese, nato44, nickydw und 6 andere
Und welche bahnbrechende Weiterentwicklung bei den Sensormaterialien oder der Konstruktion des Sensors soll für diese überlegene Dynamik gesorgt haben? Sorry, aber nach der Rückseitenbelichtung von CMOS-Sensoren, die diese nah an die höhere Lichtempfindlichkeit von CCD-Sensoren heran- aber nicht an ihnen vorbeibrachte sind diese bei gleicher Pixelfläche nicht mehr wirklich lichtempfindlicher oder ,,dynamischer`` geworden. Was will Sony da am Aufbau des Sensor-Chips verändert haben, was zu derart verbesserten Eigenschaften des Sensors geführt haben soll?
 
  • Gefällt mir
Reaktionen: Mort626
Hatsune_Miku schrieb:
Recht hat er aber doch schon, gab doch damals mehrere vergleiche bei Smarphones die alle den Sony IMX glaub 240 drin hatten und bei Sony Geräten nen mieses Bild machten
Was aber eher an der Software liegt.
Hier war Sony bisher sehr schlecht, besonders beim Automatikmodus.
Seit dem neusten Smartphone ist dies schon deutlich besser geworden.
 
Hatsune_Miku schrieb:
... mehrere vergleiche bei Smarphones ... und bei Sony Geräten nen mieses Bild machten

Ja, aber er redet die Sensoren per se schlecht, wobei es bei Smartphones an Sony selber liegt, das die so miserabel eingestuft sind, während andere Hersteller die Sensoren per Software besser ausgereizt hatten.
 
  • Gefällt mir
Reaktionen: Excel
Das sind verschiedene Sparten, Automotive hat da ganz andere Anforderungen.
Smartphone ist halt eher der LowCost Markt mit nicht so hohen Anforderungen.

Unabhängig davon kann Sony extrem gute Sensoren entwickeln, wie man etwa bei den Alpha 9, 7 und 6XXX sieht.
 
  • Gefällt mir
Reaktionen: Bhaal3010, Lübke82, Iapetus und eine weitere Person
Auch die Handysensoren sind prima, Sony verkackt es bei der Software. Das Huawei P20 Pro z.B. hat auch ein Sony Sensor verbaut.. jedenfalls sehr krasse Verbesserungen zwischen beiden Beispielen im Video.
 
  • Gefällt mir
Reaktionen: Lübke82
Ich denke eine Überbelichtung kann man durch geänderte und spezialisierte Signalverarbeitung durchaus besser und einfacher abfedern als bei Dunkelheit die Empfindlichkeit und Rauschabstand zu pushen - was ja meist eher gefordert wird. Deswegen kann der verbesserte Dynamik Bereich schon hinkommen, auch wenn die Fortschritte am "tiefen Ende" sicher weniger groß sind als eben bei viel Licht.
 
Mickey Cohen schrieb:
das mit den ampeln, die auf der anderen seite montiert werden sollte man auch hierzulande einführen

Das ist in den USA so. Viel ersichtlicher als bei uns. Ohne Genickverrenkung, wenn man an erster Stelle steht.
 
  • Gefällt mir
Reaktionen: Andy_K, Scholle1309, Mort626 und eine weitere Person
Excel schrieb:
Unabhängig davon kann Sony extrem gute Sensoren entwickeln, wie man etwa bei den Alpha 9, 7 und 6XXX sieht.

Wie gut die Sensoren sind kann man bei Sony's Alpha 9, 7 und 6XXX Modellen gar nicht ermitteln, da alle Kameras selbst die Daten der RAW-Bildformate nach Durchlaufen des Bayer-Algorithmus noch mit ,,Bildverbesserungsalgorithmen`` wie Entrauschung, Nachschärfung und vermutlich noch etlichem mehr komplett auf den Kopf stellen und mit Artefakten dieser Algorithmen entstellen. Die Sony-Kameras produzieren heute keine Photographien (Photographie = möglichst wirklichkeitsgetreues Abbild der Realität) mehr, sondern Computergraphiken (Computergraphik = Künstlich errechnetes Bild in dem kein Pixel mehr so ist, wie der Sensor es durch das Objektiv ,,gesehen`` hat).

Ich musste über 10.000 EUR in eine Hasselblad H4D-40 investieren, weil ich keine zwangsweise schon in der Kamera komplett überarbeitete Computergrafiken mit bestenfalls noch entfernter Anlehnung an eine reale Szene, sondern Photographien, also möglichst realitätsnahe Abbilder der von mir photographierten Szenen wollte. Bei Kameras bis weit über 6000 EUR für den Body bekommt man heute nur noch in der Kamera komplett überarbeitete Computergraphiken anstelle von Photos. Da kann man auch gleich ein iPhone nehmen, was einem die Schatten und Falten aus dem Gesicht rechnet wenn man ein Portrait-Photo macht. Viel realitätsgetreuere Bilder erzeugen Alpha 9, 7 und 6XXX meiner Beobachtung und Meinung nach auch nicht.
 
@cliscan

Hast du dafür auch ein Anwendungsgebiet oder einen weiteren Nutzen für eine solch teure Kamera?

Nur aus dem Grund, dass man „Realitätsnähe“ Fotos möchte, zahlt man doch keine 10.000 €. Wenn doch, finde ich das ganz schön bekloppt.

Ich nehme Fotos auf und bearbeite sie so, wie ich sie wahrnehme.
Hatte ich in dem Moment ein warmes oder kühles Gefühl. War ich eher fröhlich und hell oder dunkel gestimmt?
Ein Bild kann noch so viel Realität abbilden, es wird niemals das zeigen, was ich in dem Moment gefühlt oder gesehen habe.
Wozu also sich also die Mühe machen, alles pixelgenau abzubilden?
 
  • Gefällt mir
Reaktionen: Mort626 und Krautmaster
cat_helicopter schrieb:
Ach wie oft schon Sony vollmundig neue Sensoren angekündigt hat und am Ende dann manchmal sogar schlechter als die Vorgänger waren. Da glaube ich es erst, wenn es unabhängige Tests bestätigen.
Sony baut sehr gute Sensoren und das nicht nur für Smartphones oder Kameras! Was Du vielleicht meinst ist die schlechte Softwareunterstützung in ihren eigenen Geräten, was die Sensoren unverständlicherweise in einem schlechten Licht dastehen lassen. Andere Hersteller nutzen die gleichen Chips und reizen diese voll aus. Ich finde den Film beeindruckend (Fahrt aus dem Tunnel) bzw. den Vergleich zwischen den beiden Sensoren.
 
Also beim lesen der Schilder und erkennen der Ampelanlagen geht man schon einen sehr komplizierten Weg.

Aktuell können Ampelanlagen und Schilder nur über optische Sensoren erkannt werden, die nicht immer zuverlässige Daten liefern und es gab schon deswegen ein Todesopfer.

Schilder könnten doch über RFID die nötigen Informationen senden und die Ampelanlagen könnten über Bluetooth oder anderen Datenübertragungsmethoden die Signale übertragen werden.

Ich denke man sollte meiner Meinung nach nicht nur die Fahrzeuge fit für autonomes Fahren, sondern auch die Strecken worauf sie später fahren sollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mickey Cohen, jusaca, amorosa und eine weitere Person
jray schrieb:
Das ist in den USA so. Viel ersichtlicher als bei uns. Ohne Genickverrenkung, wenn man an erster Stelle steht.
Mag wohl daran liegen, dass nordamerikanische Städte vergleichsweise neu und für den MIV geplant sind und weniger Historie, dh weit üppigere Platzverhältnisse aufweisen? :rolleyes: Die Sehschlitze aka Frontscheibe und tiefen Chassis der Autos tun ihr Übrigens. ;) Die 8 und noch mehrspurigen Freeways je Richtung sind bei Gott weder Allheilmittel noch ein städtebauliches Aushängeschild (außer aus der Vogelperspektive).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: °Sn0wFlow°
Aha, größere Sensorauflösung soll mir 360 Grad Umsicht verschaffen... . Klar, höhere Auflösung ist gleich mehr Übersicht. Aber die Muter Natur hat da eine viel leichtere/effizientere Alternative gefunden, die sich "Facettenauge" nennt, wie zum Beispiel bei einer stinknormalen Fliege. Jetzt übertrage ich mal Entwicklung von Sony auf das Fliegenauge: wir stechen der Fliege alle bis auf eine Facetten aus, dafür statten wir die verbleibende Facette mit Ultra-scharfen Auflösung aus. "Gut" sagt die Fliege, "es muss ja was taugen, hat ja eine Menge Kohle gekostet, meinem bisherigen Auge gegenüber", und die wird von einer Klatsche von hinten erschlagen. Tja, was ist hier das Moral? Genau, wenn man irgendwelche Technologie entwickelt, soll man, in erster Linie, über den praktischen Nutzen nachdenken.
 
  • Gefällt mir
Reaktionen: DJ_CULO
Ich finds anmaßend wie manche hier schon urteilen und meinen wieder alles besser zu wissen. Wenn man außer Acht lässt, ob der Sensor nun gut oder schlecht ist wird sich Sony schon Gedanken gemacht haben warum sie die Sensoren genauso bauen und nicht andersrum. Sie scheinen ja damit ihren Erfolg zu haben.
 
  • Gefällt mir
Reaktionen: mr_capello, Bhaal3010, ugurano2019 und 3 andere
Zurück
Oben