News Autonomes Fahren: Waymo baut Fabrik für die letzten Jaguar und Nachfolger

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
11.161
Waymo will mit dem autonomen Fahrdienst Waymo One nach oben skalieren und errichtet dafür in Mesa bei Phoenix, Arizona gemeinsam mit Magna eine neue Fabrik, in der die entsprechenden Fahrzeuge umgebaut respektive gefertigt werden sollen. Zum Start sind das die letzten rund 2.000 Jaguar I-PACE, bevor der neue Zeekr RT folgt.

Zur News: Autonomes Fahren: Waymo baut Fabrik für die letzten Jaguar und Nachfolger
 
  • Gefällt mir
Reaktionen: aid0nex
Finde ich toll. Auch wenn momentan noch Verlust geschrieben wird, auf lange Sicht scheint das Konzept ja wirklich aufzugehen, sonst würde da ja nicht noch immer massiv investiert werden.

Die Sensor Suite besteht aus 13 Kameras, 4 LiDAR, 6 Radar und einer Anordnung von mehreren externen Audio Receivern (EAR). Das seien insgesamt weniger und günstigere Sensoren als bei der letzten Generation.
Musk: "Hold my beer. Ich biete 4 Kameras!"

Na klar, Waymo verbaut die Technik nur aus Jux... ;)
 
  • Gefällt mir
Reaktionen: M-X, x37, aid0nex und 3 andere
Finde diese Fahrzeuge haben irgendwie immer noch einen Sensor-Overkill, braucht es das alles wirklich?
Paar Kameras, vielleicht noch Radar und/oder Lidar, das lässt sich so verbauen dass es kaum auffällt, und damit geht's doch auch. Aber hier...Ich sag nur, wer viel misst, misst viel Mist :D

Für Erprobungsfahrzeuge und Taxis mag das ja noch in Ordnung sein, aber wenn die Technik irgendwann in private Fahrzeuge Einzug erhalten soll müssen die sich was ausdenken.
 
Bei Waymo stört mich der HD Maps Ansatz. Es ist ja wie "fahren wie auf Schienen" und entsprechend schwer skalierbar. Oben drauf sind die Kosten pro Fahrzeug und Sensorik relativ hoch.

Mal sehen wie sich Tesla schlägt, im Juni soll ja das Robotertaxi Netzwerk in Austin Texas starten.
 
  • Gefällt mir
Reaktionen: Zockmock, aid0nex, LikeHike und eine weitere Person
Ja, HD Maps schränkt ein, aber ist scheinbar momentan die einzige Möglichkeit sicher voll autonom zu fahren. Waymo bringt genau das heute schon auf die Straße und zwar in relevanten Umfang.

Es ist halt als Taxi gedacht, nicht als Chauffeur-Service. Praktikables Taxifahren gibt's heute ja auch nur in der Stadt.
Mit praktikabel meine ich hier Kosten und Spontanität/Verfügbarkeit.
 
  • Gefällt mir
Reaktionen: Mydgard und x37
Marcel55 schrieb:
Finde diese Fahrzeuge haben irgendwie immer noch einen Sensor-Overkill, braucht es das alles wirklich?
Wenn man an seinem Leben hängt, ja. Wenn man Rattenfängern wie Musk auf den Leim geht, nicht. ;)
Marcel55 schrieb:
Paar Kameras, vielleicht noch Radar und/oder Lidar, das lässt sich so verbauen dass es kaum auffällt, und damit geht's doch auch. Aber hier...Ich sag nur, wer viel misst, misst viel Mist :D
Das Problem ist nicht der große Dateninput, der verarbeitet werden muss, sondern die REDUNDANZ, die bei Tesla einfach nicht vorhanden ist. Sicherlich kann man das in Zukunft mit deutlich weniger Bauraum realisieren (vor allem die Sensorik auf dem Dach), damit es weniger hässlich aussieht.
Marcel55 schrieb:
Für Erprobungsfahrzeuge und Taxis mag das ja noch in Ordnung sein, aber wenn die Technik irgendwann in private Fahrzeuge Einzug erhalten soll müssen die sich was ausdenken.
Momentan ist es ja auch nur für vollautonome Taxifahrten angedacht und nicht für Privatautos.
 
  • Gefällt mir
Reaktionen: x37, Henne78, Alesis und 4 andere
Marcel55 schrieb:
Finde diese Fahrzeuge haben irgendwie immer noch einen Sensor-Overkill, braucht es das alles wirklich?
Paar Kameras, vielleicht noch Radar und/oder Lidar, das lässt sich so verbauen dass es kaum auffällt, und damit geht's doch auch. Aber hier...Ich sag nur, wer viel misst, misst viel Mist :D

Für Erprobungsfahrzeuge und Taxis mag das ja noch in Ordnung sein, aber wenn die Technik irgendwann in private Fahrzeuge Einzug erhalten soll müssen die sich was ausdenken.
Ich wage es jetzt mal zu behaupten, dass sie so wenige Sensoren verbauen, wie es möglich ist aktuell. Das kann auch overkill sein, weil sie sicherstellen wollen, dass genug da ist, oder sie werden nicht mal benutzt und sollen lediglich suggerieren, dass sie besser sind. Auf alle Fälle wäre jede Unfallmeldung für die Firma und deren Ruf wesentlich teurer als ein paar Sensoren und die entsprechende Hard-/Software, diese entsprechend auszuwerten.
Denke aber schon auch, dass die Anzahl noch rausoptimiert werden wird.
 
  • Gefällt mir
Reaktionen: Henne78, Alphanerd und andi_sco
Overprime schrieb:
Mal sehen wie sich Tesla schlägt, im Juni soll ja das Robotertaxi Netzwerk in Austin Texas starten.
Das Robo-Taxi "mit ohne alles außer Kameras"? Das wird dann nicht wirklich autonom fahren.
 
  • Gefällt mir
Reaktionen: Henne78 und Alphanerd
@Weyoun Wie kommst du zu dieser Schlussfolgerung? Warum soll eine KI, die mit Daten aus einer Reihe von Kameras gefüttert wird, und seine Umgebung verstehen soll nicht autonom fahren können?
 
Overprime schrieb:
Wie kommst du zu dieser Schlussfolgerung? Warum soll eine KI, die mit Daten aus einer Reihe von Kameras gefüttert wird, und seine Umgebung verstehen soll nicht autonom fahren können?
1) Was hat autonomes Fahren mit einer KI zu tun? Ein wirklich autonomes Auto muss allein fahren können auch ohne Internetzugriff auf das KI-Modell (z.B. in einem Funkloch oder bei Netzausfall des Mobilfunkanbieters).
2) Nur optische Erfassung reicht nicht aus, um wirklich redundant zu sein. Die Kameras, die Musk verbaut, scheitern bei vielen Szenarien (Nebel, Schneetreiben, Gischt, Dämmerung, tiefstehende Sonne auf nasser Fahrbahn usw.). Sogar mit dem "Roadrunner-Bild" mitten auf der Straße kann man den Tesla verwirren (er kracht in das Bild, weil er nur die zweidimensional aufgemalte Straße wahrnimmt, aber nicht den sich beim darauf Zubewegen ständig ändernden Betrachtungswinkel erkennt). Man benötigt zwingend Redundanz in Form von Radar und/oder Lidar, sonst kommt man nicht über SAE Level 2/2+/2++ hinaus.
 
  • Gefällt mir
Reaktionen: Henne78, Alphanerd, Kantonspital und 4 andere
Es kommt mir so vor, als ob du nicht wüsstest wie die Technologie von Tesla funktioniert @Weyoun. Das KI-Modell von der FSD Software wird lokal auf den Fahrzeugen ausgeführt und nicht in der Cloud berechnet.

Edit: Im übrigen wurde der Roadrunner Test von Mark Rober nicht mit FSD 12 oder 13 druchgeführt, sondern mit dem Level 2 Assistenzsystem Autopilot. Also einem Lenk und Spurhalteassistent.
 
Weyoun schrieb:
Das Problem ist nicht der große Dateninput, der verarbeitet werden muss, sondern die REDUNDANZ, die bei Tesla einfach nicht vorhanden ist. Sicherlich kann man das in Zukunft mit deutlich weniger Bauraum realisieren (vor allem die Sensorik auf dem Dach), damit es weniger hässlich aussieht.
Redundanz wird aber auch zum Problem wenn die Sensoren gehen.
Weil wie entscheidet die AI wenn von den 4 Sensoren sich die Messwerte(Aussagen) wiedersprechen?
Ich bin bei dir eine Redunanz muss für den Worst Case - ein System fällt aus - da sein.
Sie macht aber in KI gestützten Systemen nicht per se alles sicherer.
Was wenn ein Radar meldet - da ist ein Hinderniss - das andere aber nicht. Klar kannst dann noch Bilderkennung hinzunehmen um evtl eine Entscheidung herbeizuführen. Wird halt bei Regen/Nebel/Nacht evtl auch nciht weiter helfen etc...
 
Overprime schrieb:
Warum soll eine KI, die mit Daten aus einer Reihe von Kameras gefüttert wird, und seine Umgebung verstehen soll nicht autonom fahren können?
Wenn das Kamerabild es von der Qualität/Auflösung/usw. nicht hergibt, kann die KI sich auch nicht den Rest dazu reimen. Wenn die Kamera von der Sonne geblendet wird, gibt es keine verwertbaren Daten. An dieser Stelle könnte eine andere Lösung basierend auf Radar usw. eben noch Input liefern.

Novasun schrieb:
Weil wie entscheidet die AI wenn von den 4 Sensoren sich die Messwerte(Aussagen) wiedersprechen?
So wie das heute schon bei mehrfach redundanten Systemen gehandhabt wird. Im AKW (zumindest in Deutschland) hattest Du alle sicherheitsrelevanten Anlagen auch in (mindestens) 3facher Ausführung.

Die 2-von-3-Redundanz ist ein Konzept in der Leittechnik und Sicherheitstechnik, das häufig in kritischen Systemen eingesetzt wird, um die Zuverlässigkeit und Fehlertoleranz zu erhöhen. Es handelt sich um eine sogenannte Mehrheitsentscheidung (Voting-System), bei der drei unabhängige Sensoren, Aktoren oder Steuerungseinheiten verwendet werden, um eine Entscheidung zu treffen. Das System funktioniert wie folgt:

Es gibt drei unabhängige Kanäle (z. B. drei Sensoren oder Steuerungseinheiten), die denselben Prozess überwachen oder steuern.
Eine Entscheidung wird getroffen, wenn mindestens zwei der drei Kanäle übereinstimmen. Das heißt, die Mehrheit (2 von 3) bestimmt die Ausgabe oder den Zustand des Systems.
 
  • Gefällt mir
Reaktionen: x37, Weyoun und Alphanerd
M@tze schrieb:
Musk: "Hold my beer. Ich biete 4 Kameras!"
Waymo hat doch null Chance.

Tesla hat seit 11 Jahren FSD

(angekündigt und sich auch von Kunden beim Kauf bezahlen lassen....)
Ergänzung ()

Marcel55 schrieb:
Für Erprobungsfahrzeuge und Taxis mag das ja noch in Ordnung sein, aber wenn die Technik irgendwann in private Fahrzeuge Einzug erhalten soll müssen die sich was ausdenken.
Es sind aber Taxis.
Da will man zu 1000% sicher sein. Wer soll dir die Fahrzeuge sonst versichern?
Ergänzung ()

Overprime schrieb:
Mal sehen wie sich Tesla schlägt, im Juni soll ja das Robotertaxi Netzwerk in Austin Texas starten.
Bei Tesla startet alles bald.

FSD seit 11 Jahren.

Optimismus Roboter sollen 26 zum Mars fliegen.

SpaceX:
22 sollte eine mars discovery mission stattfinden.
28 sollen Menschen fliegen
Der Mars soll Terraformbar sein

Doge: wir sparen 1-2 Billionen ein.... Geschafft hat man irgendetwas mit minus davor...


Wer glaubt dem Typ eigtl irgendetwas
Ergänzung ()

Overprime schrieb:
@Weyoun Wie kommst du zu dieser Schlussfolgerung? Warum soll eine KI, die mit Daten aus einer Reihe von Kameras gefüttert wird, und seine Umgebung verstehen soll nicht autonom fahren können?
Sie haben Kameradaten von wie vielen Jahren?

Und FSD kommt wann? Spoiler: es "kam" vor 11 Jahren.
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: M-X, x37, Henne78 und 2 andere
Novasun schrieb:
Redundanz wird aber auch zum Problem wenn die Sensoren gehen.
Weil wie entscheidet die AI wenn von den 4 Sensoren sich die Messwerte(Aussagen) wiedersprechen?
Du meinst vier unterschiedliche Sensoren? Denn es macht keinen Sinn, zwei identische Sensoren zu verwenden, denn bei schlechter Sicht z.B. fallen dann immer beide Kameras aus.

Nochmal: Was hat eine KI damit zu schaffen? Ein autonomes Fahrzeug muss immer allein in der Lage sein, zu fahren, auch wenn der Mobilfunk-Link ausfällt. Es kann also maximal eine "stationäre" KI-Lösung sein, die allein auf dem Hauptcomputer des Autos ausgeführt wird.

Zum Thema Ausfall: Es gibt doppelte Redundanz
1) Gleiche Sensoren und Aktuatoren sind u.a. bei "Steer-by-Wire" und "Brake-ba-Wire" Lösungen essentiell. Wie bei einem Flugzeug, wo sogar der gesamte Bordcomputer redundant vorhanden ist, kann so mit nahezu 100 % ausgeschlossen werden, dass etwas schiefläuft.
2) Dann gibt es natürlich noch Redundanz im Sinne von "gegenseitiger Überprüfung". Der Radar und/oder Lidar und die Kamera überlappen sich in einem gewissen Gebiet und sobald einer von beiden Alarm schlägt, bremst das Auto ab.
Novasun schrieb:
Ich bin bei dir eine Redunanz muss für den Worst Case - ein System fällt aus - da sein.
Sie macht aber in KI gestützten Systemen nicht per se alles sicherer.
Ich lese immer nur "KI", dabei gehört viel mehr als KI zu einem autonomen Auto. ;)
Novasun schrieb:
Was wenn ein Radar meldet - da ist ein Hinderniss - das andere aber nicht. Klar kannst dann noch Bilderkennung hinzunehmen um evtl eine Entscheidung herbeizuführen. Wird halt bei Regen/Nebel/Nacht evtl auch nciht weiter helfen etc...
Zwei identische Radarsensoren überprüfen in der Regel nicht den gleichen Winkel (z.B. Front-Radar), sondern Radar und/oder Lidar und optische Kamera überprüfen und unterstützen sich gegenseitig.
1) Überprüfen: Wenn ein Sensor ein Hindernis erkennt und der andere nicht, wird im Zweifel immer gebremst
2) Unterstützen: Wenn z.B. die Kamera aufgrund schlechter Sicht ausfällt, der Radar aber funktioniert, funktioniert das Auto eingeschränkt weiter. Maximal schaltet er eine SAE-Stufe zurück (ggf. mit der Bitte, das Lenkrad zu übernehmen).
Ergänzung ()

M@tze schrieb:
Die 2-von-3-Redundanz ist ein Konzept in der Leittechnik und Sicherheitstechnik, das häufig in kritischen Systemen eingesetzt wird, um die Zuverlässigkeit und Fehlertoleranz zu erhöhen. Es handelt sich um eine sogenannte Mehrheitsentscheidung (Voting-System), bei der drei unabhängige Sensoren, Aktoren oder Steuerungseinheiten verwendet werden, um eine Entscheidung zu treffen. Das System funktioniert wie folgt:

Es gibt drei unabhängige Kanäle (z. B. drei Sensoren oder Steuerungseinheiten), die denselben Prozess überwachen oder steuern.
Eine Entscheidung wird getroffen, wenn mindestens zwei der drei Kanäle übereinstimmen. Das heißt, die Mehrheit (2 von 3) bestimmt die Ausgabe oder den Zustand des Systems.
Genau dieses "Mehrheitskonzept" gibt es bei Automotive sowie in der Luft- und Raumfahrt schon lange. Moderne Microcontroller wie die Auxrix von Infineon (TriCore)führen z.B. dreimal simultan das gleiche Programm aus und werten letztlich das Ergebnis aus, dass der Mehrheit entspricht. Dazu sind die Kerne komplett unterschiedlich auf dem Die verteilt untergebracht, um z.B. lokale EMV-Probleme, die sich nur auf wenige mm² beschränken, aus dem Weg zu gehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M@tze, Henne78 und Alphanerd
"Der Gerät wird nie müde"
Frage mich wann es dem Kunden was nutzen wird?!
Die Fahrten sind bislang weder günstiger noch rentabel.
 
Bin gerade in Phoenix und sehe die Kisten hier überall rumdüsen....im wahrsten Sinne des Wortes.
Die fahren zügig, überholen auf dem dicht befahrenen Freeway und auf dem Fahersitz ist dabei niemand zu sehen 🥳
Muss mir mal die Waymo One App per apk Sideloading für ne Fahrt installieren.
 
  • Gefällt mir
Reaktionen: x37, Henne78, Alphanerd und eine weitere Person
Ich vermute, dass viele sich noch nie drüber Gedanken gemacht haben, wie oft sie auch heute schon potentiell tödlichen SW/HW Funktionen in einem Auto ausgesetzt sind. Airbag und ESP ECUs sind da gute Beispiele. Eine unbeabsichtigte Auslösung, gerade bei hoher Geschwindigkeit, ist durch den Fahrer nicht zu beherrschen, wie es im besten Amtsdeutsch heißt. Trotzdem dürfte sich hier im Forum vermutlich niemand finden, dem schon mal "einfach so" ein Airbag beim Fahren ins Gesicht explodiert ist. Das Thema Safety ist nämlich eigentlich technisch und prozessual gelöst. Es skaliert aber leider nicht gut!

Bei einem Airbag ist der Funktionsumfang und die Menge der Daten von den Sensoren sehr überschaubar. Beim Autonomen fahren, mit Kameras, Radar und Lidar lässt sich die Mustererkennung und Objektfusion eigentlich nur mit Machine Learning (also KI) in den Griff bekommen. Das lässt sich mit den üblichen Regeln der Automotive Safety aber nur sehr schwer freigeben. Mercedes ist hier sehr weit, aber halt deutlich zurückhaltender als Tesla und die chinesischen OEMs. Da wird schlicht deutlich weniger Wert auf Safety gelegt. Dafür ist das Innovationstempo natürlich potentiell auch deutlich höher.

Bezüglich der vielen Sensoren: Ich kenne ein das vergleichbar aus dem Bereich Automotive vs. Aeronautics. Während bei Automotive hohe Stückzahlen gefertigt werden und die Stückkosten entsprechend kritisch sind, sind bei den Flugzeugen die Stückzahlen niedrig und die Entwicklungskosten kritisch, weil sie sich eben nur auf wenige Flugzeuge verteilen. Entsprechend findet man in Autos häufig "ausentwickelte" Lösungen, die weniger HW brauchen, wohingegen in Flugzeugen lieber nochmal eine Redundanz eingebaut wird anstatt nach einer Lösung zu suchen die ohne auskommt, aber zig Millionen in der Entwicklung kostet.

Bei Waymo ist es ähnlich, die Anzahl der Fahrzeuge ist vergleichsweise gering, also ist der Preis von ein paar zusätzlichen Sensoren absolut vermutlich günstiger als eine Lösung zu entwickeln, die mit z.B. der Hälfte an Kameras auskommt.
 
Overprime schrieb:
Wie kommst du zu dieser Schlussfolgerung?
Das solltest du besser dich fragen. Schon 2019 hat Musk behauptet, dass 2020 Robotaxis fahren werden. Und 2020 für 2021, 2021 für 2022, 2022 für 2023, 2023 für 2024 und jetzt für 2025.
Musk kann dich also über Jahre anlügen, damit du dann schreiben kannst, es kommt so wie Musk sagt.
 
  • Gefällt mir
Reaktionen: x37 und Alphanerd
Ich wäre überrascht, würden die Robotaxis von Tesla, insofern sie denn irgendwann tatsächlich verfügbar werden, auch nur im Ansatz im dichten Straßenverkehr so zuverlässig wie die Waymo-Kisten. Und ganz ehrlich, was interessiert mich ein Radaraufbau oder Lidar auf dem Dach meines Autos, wenn die Kiste vollständig autonom fährt und mich zu 100% sicher von A nach B bringt sowie jegliche Gefährdung Dritter im Straßenverkehr, egal ob Fahrrad oder Fußgänger, erfolgreich vermeidet? Solch redundante Systeme sind nicht nur sicherer für den oder die Insassen, sondern auch für alle, die sich vor, hinter oder neben dem Fahrzeug bewegen.
 
  • Gefällt mir
Reaktionen: nitech, M@tze und Alphanerd
Zurück
Oben