News Highway Assistant: BMW steigert Level 2+ im 7er auf über 130 km/h

Magellan schrieb:
Du kannst bei Regen, Schnee und Nebel doch fahren oder? Und das mit nur 2 Augen.
Genau wie der Mensch kann die Software das Tempo bei Extrembedingungen an die Sicht anpassen.
Bei nahezu null Sicht kannst du auch nicht sagen "ich fahre jetzt einfach nur nach Radar".

Nur, dass das menschliche Auge einfach viel besser auflöst als das derzeit jede Kamera macht, dh ein Assistenzsystem das nur auf Kamera basiert müsste hier wahrscheinliche viel früher die Geschwindigkeit drastisch reduzieren als das ein Mensch müsste.
Ob Lidar da aber wirklich hilft kann ich nicht beurteilen...
 
Wir können uns da jetzt noch so sehr in irgendwelchen Details verlieren, die Behauptung dass Radar/Lidar zwingende Voraussetzung für Level 3 oder mehr wäre entbehrt einfach jeglicher Grundlage.

In einer Situation in der ein Mensch fahren kann, kann das auch ein hinreichend gutes System basierend auf Kameras. In einer Situation zu fahren, in der ein Mensch sagt "Ich seh absolut nichts mehr, hier geht nichtmal Schrittgeschwindigkeit" ist NICHT die Anforderung für Level 3 und mehr.

mr_capello schrieb:
Nur, dass das menschliche Auge einfach viel besser auflöst als das derzeit jede Kamera macht, dh ein Assistenzsystem das nur auf Kamera basiert müsste hier wahrscheinliche viel früher die Geschwindigkeit drastisch reduzieren als das ein Mensch müsste.

Früher die Geschwindigkeit zu reduzieren wäre kein Ausschlusskriterium für autonomes Fahren.
Davon abgesehen ist das nur die eine Seite der Medaille - so wie das Auge Vorteile hat haben die Kameras auch ihre Vorteile, zum einen rein optisch durch die Erfassung anderer Wellenlängen (Infrarot...) zum anderen durch die Kombination mehrerer Kameras und die Auswertung in der Software um z.B. störende Objekte wie Schneeflocken besser auszublenden.
 
ThirdLife schrieb:
Ich glaube die absolute und totale Autonomie wird nur mit massiv höherem Aufwand zu erreichen sein und vermutlich nicht in den nächsten zehn Jahren passieren.

allein zuverlässiges level3 auf Autobahn und Landstraße wär schon eine absolute revolution in meinen Augen und level4 is ja im Grunde nur eine weitere Stufe was sicherheit anbelangt
 
ThirdLife schrieb:
Dürfte auf einsamer Landstrasse aber auch ziemlich schwierig werden. Ich denke Tesla kommt mit Kameras und AI gut klar und wird dann einfach mit Warnton abstellen wenns ihm zu hart wird, wie bisher auch.
Das schon, das ist dann aber das Gegenteil von "autonom", wo man mal für ein paar Minuten entspannen kann. Autonom bedeutet nämlich, dass das System dich mit rechtzeitig langer Vorlaufzeit auf die Übergabe des Autos vorbereitet (z.B. einige km vor einer Autobahnabfahrt).
ThirdLife schrieb:
Ich glaube die absolute und totale Autonomie wird nur mit massiv höherem Aufwand zu erreichen sein und vermutlich nicht in den nächsten zehn Jahren passieren.
Level 4 & 5 wird in der Zeit noch eine ganze Weile dauern. Level 3 dagegen ist kurzfristig machbar (auf Autobahnen und vierspurigen Land- oder Stadtstraßen ohne Kreuzungen).
Ergänzung ()

mr_capello schrieb:
Ob Lidar da aber wirklich hilft kann ich nicht beurteilen...
Lidar alleine kann es nicht, die geschickte Kombinatorik von zweidimensionaler optischer Erfassung (Kameras), dreidimensionaler Erfassung von Körpern im Raum in Form von Radar und Lidar für Objekte, die weit und Objekte die nah entfernt sind und ggf. weiterer Sensorik dagegen erreicht eine genügend hohe Systemzuverlässigkeit.
Ergänzung ()

Magellan schrieb:
In einer Situation in der ein Mensch fahren kann, kann das auch ein hinreichend gutes System basierend auf Kameras. In einer Situation zu fahren, in der ein Mensch sagt "Ich seh absolut nichts mehr, hier geht nichtmal Schrittgeschwindigkeit" ist NICHT die Anforderung für Level 3 und mehr.
Nicht zwingend!
1) Das menschliche Auge verfügt über eine deutlich höhere Lichtempfindlichkeit als moderne Kamerasensoren (20 versus 14 Blendenstufen).
2) Das Auge kann schneller "nachstellen" als moderne Kameras (wichtig z.B. beim Ein- und Ausfahren in und aus Tunnels => man kann das z.B. gut beobachten, dass Dashcams immer eine ganze Weile benötigen, bis sie die Helligkeit nachregeln beim Übergang von "Nacht auf Sonne" oder umgekehrt).
3) Bei schnellen Bewegungen ist das menschliche Auge in puncto "Bewegungsunschärfe" im Vorteil. Gegenstände direkt von vorne können bei Kameras auch recht problemlos mit hoher Bildwiederholfrequenz schnell scharf gestellt werden, um für die Bildauswertung ausreichend hochwertige Bilder zur Verfügung zu stellen. Je weiter jedoch die sich bewegenden Objekte seitlich gelegen sind, desto unschärfer erscheinen sie abgebildet, wenn man mit hoher Geschwindigkeit an ihnen vorbeifährt.

Zum Thema "Nicht Anforderung von Level 3": Das Auto muss sich im Notlaufmodus SICHER abstellen. Dazu kann es erforderlich sein, dass es notfalls im "Blindflug" (bezogen auf die optische Stereokamera) auf dem rechten Seitenstreifen zum Stillstand kommt. Es kann nicht sein, dass das Auto auf der linken Spur stehen bleibt und dann zum höchsten Sicherheitsrisiko wird.

Weitere Probleme beim Weglassen redundanter Sensorik: Es reicht bereits aus, wenn ein Vogel seinen Kot über deiner Windschutzscheibe ablässt und die Kamera ist urplötzlich komplett blind. Entgegen Xenon-Scheinwerfern sind die Kameras zudem nicht mit einer Waschanlage ausgestattet. Auch bei feuchtem Wetter und ausgeschalteter Klimaanlage kann innerhalb von Sekunden die Windschutzscheibe von innen komplett beschlagen, sodass die Kamera ebenfalls blind wird (Milchglaseffekt).

Du siehst, es gibt diverse Szenarien, die beim Weglassen von Redundanz zum vollständigen Systemversagen führen können. In diesen Fällen müsste der Fahrer innerhalb von Sekundenbruchteilen das Auto manuell übernehmen, was dann im Endeffekt kein autonomes Fahren ist, sondern nur automatisiertes Fahren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 7H0M45
Weyoun schrieb:
Zum Thema "Nicht Anforderung von Level 3": Das Auto muss sich im Notlaufmodus SICHER abstellen. Dazu kann es erforderlich sein, dass es notfalls im "Blindflug" (bezogen auf die optische Stereokamera) auf dem rechten Seitenstreifen zum Stillstand kommt.

Und wer sagt dass man mit Kameras nicht sicher anhalten kann? Als ob man mit 100 kmh plötzlich in einer Nebelwand mit absoluter Nullsicht auftauchen würde - da würde der menschliche Fahrer ebenso daran scheitern.

Du fängst immer mehr an hier völlig unsinnige Szenarien zu konstruieren nur um irgendwie ein auf Kameras basierendes System abzuwerten.

Weyoun schrieb:
Weitere Probleme beim Weglassen redundanter Sensorik: Es reicht bereits aus, wenn ein Vogel seinen Kot über deiner Windschutzscheibe ablässt und die Kamera ist urplötzlich komplett blind.

Verbietet es jemand mehrere Kameras zu verbauen die nicht alle auf einem Fleck sind? Bei Tesla sind von den nach vorn gerichteten Stand jetzt 3 an der Windschutzscheibe und jeweils eine an den Kotflügeln.

Weyoun schrieb:
die beim Weglassen von Redundanz
Nochmal, man kann auch Kameras redundant verbauen.
 
Magellan schrieb:
Verbietet es jemand mehrere Kameras zu verbauen die nicht alle auf einem Fleck sind? Bei Tesla sind von den nach vorn gerichteten Stand jetzt 3 an der Windschutzscheibe und jeweils eine an den Kotflügeln.
Plus die Kameras in den B-Säulen. Was das Schiss-Szenario angeht oder plötzlicher Regen, im AP Modus ist neuerdings der Auto-Wischer forced und nicht mehr abschaltbar (leider).
 
Magellan schrieb:
Und wer sagt dass man mit Kameras nicht sicher anhalten kann? Als ob man mit 100 kmh plötzlich in einer Nebelwand mit absoluter Nullsicht auftauchen würde - da würde der menschliche Fahrer ebenso daran scheitern.
Wenn die Kamera nichts sieht (die Taube hat drauf gekotet), dann ist das schon ein "plötzliches Ereignis".
Eine Nebelwand kann ebenfalls z.B. auf Bergkuppen oder in Talsenken plötzlich auftauchen und genauso schnell wieder verschwinden. Ohne redundante Sensoren wird das automatische Anhalten im "Blindflug" sehr gefährlich. Wo der Mensch vielleicht noch Reste von Strukturen im Nebel wahrnehmen kann, scheitert dann die Kamera samt Softwareauswertung.
Magellan schrieb:
Du fängst immer mehr an hier völlig unsinnige Szenarien zu konstruieren nur um irgendwie ein auf Kameras basierendes System abzuwerten.
Warum "unsinnig"? Wir betrachten solche Szenarien im Automotive-Bereich als durchaus reales Szenario (bei künftig Abermillionen an autonom fahrenden Autos macht bereits eine äußerst niedrige Eintretenswahrscheinlichkeit eine nicht zu unterschätzende Zahl von Fahrzeugen aus, die davon innerhalb eines Jahres einmal betroffen sein könnten).
Magellan schrieb:
Verbietet es jemand mehrere Kameras zu verbauen die nicht alle auf einem Fleck sind? Bei Tesla sind von den nach vorn gerichteten Stand jetzt 3 an der Windschutzscheibe und jeweils eine an den Kotflügeln.
OK, dann sind sie in Summe gegen Vogelkot gut redundant abgesichert. Was aber die "Belichtungsfähigkeit" anbelangt, sind diese Kameras mindestens um 6 Blendenstufen dem menschlichen Auge unterlegen (unter der Prämisse, Tesla verbaut nur die besten auf dem Markt befindlichen Kamerasensoren, was sie aus Kostengründen aber nicht tun).
Magellan schrieb:
Nochmal, man kann auch Kameras redundant verbauen.
Einfach ein Gerät mehrfach zu verbauen, ist nicht immer sinnvoll redundant. Weil bei z.B. völliger Überstrahlung bei niedrigem Sonnenstand und nasser oder verschneiter Straße oder eben beim plötzlichen Eindringen in eine Nebelbank sämtliche Kameras gleichzeitig überfordert wären.
 
  • Gefällt mir
Reaktionen: ThirdLife und whippersnapper
Endlich jemand mit hinreichenden Technologieverstädnis.

Ich werfe weitere Punkte in den Raum:
- Ein Fahrasisstenzssystem muss, um zugelassen zu werden, eine halb so hohe Fehleranfällig nachweisen verglichen zum Autofahrer mit durchschnittlichem können (=nur halb so viele Unfälle bauen) (KBA)
-neben den vorhandenen Systemgrenzen (regen, Schnee, Hagel…) müssen die false positives (das Auto denkt, es macht alles richtig, fährt aber gerade in einem weisen Laster) wirksam identifiziert werden. Mit ausschließlich einer Technologie in der Sensorik ist das kaum möglich. Andere Hersteller haben hier parallel 3 technologisch unterschiedliche Systeme auf physikalisch getrennter HW gegenseitig absichernd (Kamera, LIDAR, Radar, SD-, und HD-Map). So können wirksam Fehler vom Fzg. selbst identifiziert werden.
  • die Auflösung des Auges liegt weit höher als die von im Automotive-Umfeld eingesetzten Kameras. wenn man von einer mittleren Anzahl von 100Mio. Zapfen (quasi ein Pixel eines menschlichen Auges) ausgeht, haben wir etwa 100 Megapixel. Weit mehr als alles was aktuell und die nächste Zeit herumfahrt. Die nächste Frage ist: wie Leistungsfähig muss ein System sein, die Menge an Infos zu verarbeiten?
  • zufälliger Weise kenne ich das Kamera-Array vom Model 3 und Y: Verbaut sind 3 Kameras mit unterschiedlicher Brennweite. Das System ist nicht Redundant, ja jede Kamera einen spezifischen Zweck erfüllt: Objekte in der Spur, Fahrschlauch, ACC…)
 
  • Gefällt mir
Reaktionen: Weyoun
whippersnapper schrieb:
  • zufälliger Weise kenne ich das Kamera-Array vom Model 3 und Y: Verbaut sind 3 Kameras mit unterschiedlicher Brennweite. Das System ist nicht Redundant, ja jede Kamera einen spezifischen Zweck erfüllt: Objekte in der Spur, Fahrschlauch, ACC…)
Vergiss nicht die zwei in den Kotflügeln und die zwei in der B-Säule. Es sind nicht nur drei Kameras die für die Fahrassistenz genutzt werden.

Vom Bild her dürften das aber nur (F)HD Cams sein leider, wäre mir lieber wenn das UHD Kameras wären (mindestens), aber dafür müsste halt auch die Rechenleistung um den Faktor vier bis acht steigen zur Bildverarbeitung.
 
whippersnapper schrieb:
  • zufälliger Weise kenne ich das Kamera-Array vom Model 3 und Y: Verbaut sind 3 Kameras mit unterschiedlicher Brennweite. Das System ist nicht Redundant, ja jede Kamera einen spezifischen Zweck erfüllt: Objekte in der Spur, Fahrschlauch, ACC…)
Das dürfte mit einer Gründe sein, warum Tesla zwar öffentlichkeitswirksam mit "Autopilot" und seinem Nachfolger "Full Self Driving" wirbt, aber in Wirklichkeit keinerlei Autonomie-Level erfüllt.
 
Ich glaub es ging damit auch eher um einen unique selling point den vor einigen Jahren halt in dem Ausmaß keiner hatte. Von einer echten Zertifizierung ist man ja auch heute, fünf, sechs Jahre später noch weit entfernt.

Man kennt Musk ja, der spart sich Werbung indem er einfach das Blaue vom Himmel verspricht und dadurch in dem Medien immer aktiv bleibt.
 
Zurück
Oben