News Full Self-Driving (FSD): Tesla zieht Version 10.3 nach nur einem Tag wieder zurück

themk schrieb:
Welche derer Autos haben überhaupt OTA? Ist ja nach wie vor nicht Standard soweit mir bekannt.
BMW hat die größte OTA fähige Flotte der Welt. Alle(!) Fahrzeuge mit OS7. Man stelle sich den Aufschrei dort vor :O
 
7H0M45 schrieb:
Man darf nicht vergessen, dass selbst Tesla auch in Zukunft nicht bereit ist für ihr System irgendeine Art von Garantie/Verantwortung zu übernehmen

Das verlangt der Gesetzgeber leider auch nicht. Wird bei vollautonomen Autos nicht anders sein: der Fahrer wird haften müssen. Das der Hersteller nicht haften will und wird ist logisch: Autonom funktioniert nicht zu 100%. Als Fahrer dann einerseits den Verkehr und die Soft bzw. Hardware überwachen zu müssen, ist sicher anstrengender als gleich selber zu fahren.
Ergänzung ()

Woookie schrieb:
... (wenn auch mit berechtigt sehr hohen Anforderungen).
Vor allem an den Fahrer.
Ergänzung ()

AGB-Leser schrieb:
Wer haftet eigentlich bei einer unnötigen Vollbremsung?

Der Fahrer.
 
Für mich kann ich sicherlich behaupten, deutlich lieber von einem autonom gesteuerten Tesla an- /überfahren zu werden, als von Oma Frida beim einparken vor der Aquagymnastik. Ist aber letztlich auch nur eine Geschmacksfrage.
 
  • Gefällt mir
Reaktionen: Eldok, Bright0001, Heimkinoking und eine weitere Person
Verstehe jetzt das Problem nicht.
Der Lenkassistent beim Autopiloten bei Tesla hat den BETA Status noch nie verlassen und dennoch funktioniert er besser als jeder andere Lenkassistent von anderen Herstellern. Wie nennt sich das dann bei anderen? Alpha? Bei Tesla mach ich mir da tatsächlich wenig Sorgen.
 
SigiSchwarz schrieb:
Ich versteh das Bohei um die Meldung auch nicht.

Das Beta-Programm bekommen in den USA ja nur wenige tausend ausgewählte Tester die sich vorher bewiesen haben. Dementsprechend auch nicht Greti und Pleti.
Gehen wir davon aus, das wirklich jeder Bobo sich aktiv für die Beta anmelden musste. Dann bedeutet das im Umkehrschluss, dass Tesla genau weiß, welches Auto mit welcher Hardware-Konfig die Beta angefordert hat.

Sich dann hinzustellen und zu sagen "ja die X Hardware-Varianten konnten wir beim besten Willen gar nicht alle testen" ist - freundlich ausgedrückt - für den Popo.

Man testet in der Closed-Beta mit Hardware-Konfig A, B und C. Dann fordert ein Kunde mit Hardware X die Beta an und bekommt sie auch noch freigeschaltet/eingespielt.

Allein das zuzulassen von Herstellerseite ist doch absurd und einfach nur (grob) fahrlässig.
 
  • Gefällt mir
Reaktionen: Woookie
Ich halte davon nicht viel. Aber Fahrassistenten gibt es schon sehr viele. Dazu zähle ich bspw. auch sogenannte Bremsassistenten. Diese sind, auch wenn BMW, Mercedes oder VW drauf steht, sehr häufig fehlerbehaftet. Immer wenn ich "unter ungeklärten Umständen ist das Fahrzeug in den Gegenverkehr geraten" sind bestimmt einige Male falsch laufende Elektroniksysteme reingepfuscht.

Bei Tesla handelt es sich um ein Unternehmen, dass viel mit unserer Phantasie macht. Ob das Geschäft tatsächlich soviel wert ist, muss sich noch beweisen. Eine Kollegin aus meinem Kolloquium erzählte mir noch nicht lange her, dass sie in einem Unternehmen arbeitet, wo einige Tesla fahren. Alles krum und schief, kaum Bleche, die nicht irgendwie zusammengeschustert wirken, Software die sich häufig aufhängt. Hier wird viel mit Phantasie gearbeitet aber wie in der Religion konsequent ausgeblendet oder ignoriert.
 
Wenn Teslas FSD in Zukunft voll zugelassen werden sollte werde ich meine Wohnung nicht mehr verlassen
 
Drummermatze schrieb:
Der Lenkassistent beim Autopiloten bei Tesla hat den BETA Status noch nie verlassen und dennoch funktioniert er besser als jeder andere Lenkassistent von anderen Herstellern. Wie nennt sich das dann bei anderen? Alpha? Bei Tesla mach ich mir da tatsächlich wenig Sorgen.
Der Lenkassistent ist nicht mit Beta deklariert. Beta ist nur FSD.
 
Doch ist er.
 
Woookie schrieb:
Meine Kollegen waren ausnahmslos hin- und hergerissen, ob sie weinen oder lachen sollen und gleichzeitig ziemlich schockiert. Die Vorstellung von Tesla von Produktqualität passt überhaupt nicht zu dem Bild, dass sie als "Software-Pionier" in der Automotive-Branche haben. "Stand der Technik" scheinen sie bei der Absicherung ihrer Software-Releases jedenfalls schon mal nicht zu haben.
Na, mal nicht übertreiben. Der Artikel sagt doch lediglich aus, dass eine Beta-Version der nicht allgemein zugänglichen FSD-Software, welche sich an ca. 3.000 aktive und eingewiesene Beta-Tester richtet, zurück gezogen wurde, weil sie sich nicht wie erwartet verhalten hat. In einem Beta-Test ist das durchaus zu erwarten.

Der Artikel mischt das dann jedoch leider noch inhaltlich falsch mit dem Umstand, dass eine ganz andere (Produktiv-)Software ("Autopilot") von Tesla derzeit in der Kritik steht. Das tut sie, weil manche Menschen sagen, dass ein ausdrücklich NICHT vorhandenes, nicht beworbenes und sogar explizit ausgeschlossenes Feature (nicht nur bei Tesla, sondern auch bei anderen Herstellern) für Kollisionen mit auf der Fahrbahn still stehenden Einsatzfahrzeugen gesorgt hat.
Woookie schrieb:
Es stimmt auf alle Fälle, dass eine hohe Sicherheit im Straßenverkehr (Deutschland) mit einer gewissen Verzögerung von Einführung von neuen Technologien hat. Gleichzeitig ist Deutschland das erste Land, was gegen Ende des Jahres ein gültiges Gesetz für L4-Fahrzeuge haben wird (wenn auch mit berechtigt sehr hohen Anforderungen).
Es ist durchaus zu erwarten, dass Tesla ihr System, wenn es dann mal fertig ist, im Rahmen dieses Gesetzes auch bei uns auf die Straßen bringen wird.
nicoc schrieb:
Das verlangt der Gesetzgeber leider auch nicht. Wird bei vollautonomen Autos nicht anders sein: der Fahrer wird haften müssen. Das der Hersteller nicht haften will und wird ist logisch: Autonom funktioniert nicht zu 100%.
Auch menschliche Fahrer "funktionieren" nicht zu 100%. Tesla strebt mit FSD keine 100% Zuverlässigkeit an, sondern "nur" nachweisbar ca. 10x so gut wie ein durchschnittlicher, menschlicher Fahrer. Wenn das bedeutet, dass es auch 10 weniger Unfälle gibt, ist es moralisch schwierig, diese Software nicht zuzulassen, und eben nicht anders herum.

Außerdem bekräftigt Tesla ja immer wieder, dass bei Benutzung der (fertigen) FDS-Software die Verantwortung sehr wohl bei Tesla liegen wird. Sonst wäre es ja auch kein autonomes Level-5-System. Level 5 ist aber das erklärte Ziel.
itm schrieb:
Wenn Teslas FSD in Zukunft voll zugelassen werden sollte werde ich meine Wohnung nicht mehr verlassen
Ist das nicht etwas kurz gedacht? Bereits heute nimmst du in Kauf, dass Fahranfänger oder sogar Fahrschüler am Verkehrsgeschehen teilnehmen. Oder sogar Fahrer, die aufgrund bestimmter Einflüsse momentan lieber nicht fahren sollten, z.B. wegen Alkohol-Einfluss, Müdigkeit oder Selbstüberschätzung.
 
  • Gefällt mir
Reaktionen: Spider11, Madman1209 und ComputerJunge
Alleine aus statistischer Sicht ist davon auszugehen, dass rund die Hälfte der "Buh"-Rufer nur unterdurchschnittlich gute Fahrer sind. Dabei wird jeder Unfall und jedes Problem im Zusammenhang mit FSD direkt aufgeblasen, als ob wir in Deutschland keine tausenden Verkehrstoten jährlich zu beklagen hätten - von zehntausenden "normalen" Unfällen und >150.000 Alkohol- und Drogendelikten am Steuer gar nicht angefangen.

So schlecht muss ein FSD-System erstmal sein, um mit solchen Zahlen konkurrieren zu können.

thehintsch schrieb:
Ja, wenn man die Crowd testen lässt hat man eben 100k Testfahrzeuge gleichzeitig statt 10. Aber das muss doch dann auch schon eher aufgefallen sein? Wenn es jetzt SO schnell bemerkt wird?
1 Stunde mit 10 Fahrzeugen entspricht 10 Fahrstunden; Eine Stunde mit 100k Fahrzeugen entspricht mehr als 10 Jahren Fahrleistung. Die Masse machts halt.
 
  • Gefällt mir
Reaktionen: 7r1c3, Eldok, Madman1209 und eine weitere Person
Drummermatze schrieb:
Doch ist er.
Oh krass wenn das immer noch so ist.
 
Ja ist immer noch so.
Wie gesagt, funktioniert halt trotzdem besser als bei anderen Herstellern. 😄
 
  • Gefällt mir
Reaktionen: Eldok
Odysseus277 schrieb:
Es ist durchaus zu erwarten, dass Tesla ihr System, wenn es dann mal fertig ist, im Rahmen dieses Gesetzes auch bei uns auf die Straßen bringen wird.
Nein, denn der Umfang den das Gesetz an Technischer Aufsicht und Zulassung voraussetzt zielt ganz klar nicht auf den PKW-Individual-Verkehr ab sondern auf genehmigte Betriebsbereiche. Dort geht es auch explizit darum, dass kein Fahrer oder Personal mehr an Bord ist.
Wenn dann am ehesten noch das Thema "Robo-Taxi" aber nicht der eigene PKW der überall fahren kann.
 
Odysseus277 schrieb:
Ist das nicht etwas kurz gedacht? Bereits heute nimmst du in Kauf, dass Fahranfänger oder sogar Fahrschüler am Verkehrsgeschehen teilnehmen.
Die nur im Begleitung unterwegs sind.
Odysseus277 schrieb:
Oder sogar Fahrer, die aufgrund bestimmter Einflüsse momentan lieber nicht fahren sollten, z.B. wegen Alkohol-Einfluss, Müdigkeit oder Selbstüberschätzung.
Das ist unkalkulierbares Risiko. Eine Art von Software einzusetzen, wie auch immer, ist gezielt möglich, damit kalkulierbar und somit auch als Risiko durch Nichteinsatz vermeidbar.
 
Odysseus277 schrieb:
Na, mal nicht übertreiben. Der Artikel sagt doch lediglich aus, dass eine Beta-Version der nicht allgemein zugänglichen FSD-Software, welche sich an ca. 3.000 aktive und eingewiesene Beta-Tester richtet, zurück gezogen wurde, weil sie sich nicht wie erwartet verhalten hat. In einem Beta-Test ist das durchaus zu erwarten.

Der Artikel mischt das dann jedoch leider noch inhaltlich falsch mit dem Umstand, dass eine ganz andere (Produktiv-)Software ("Autopilot") von Tesla derzeit in der Kritik steht. Das tut sie, weil manche Menschen sagen, dass ein ausdrücklich NICHT vorhandenes, nicht beworbenes und sogar explizit ausgeschlossenes Feature (nicht nur bei Tesla, sondern auch bei anderen Herstellern) für Kollisionen mit auf der Fahrbahn still stehenden Einsatzfahrzeugen gesorgt hat.

+1

Der Artikel ist leider wirklich nicht gut geschrieben. Hier werden unterschiedliche System vermischt und wichtige Infos komplett weggelassen. Entweder man macht es richtig oder spart sich mMn so ein halbgaren Artikel, der dem Leser dann irgend welche falschen/irreführenden Informationen suggeriert.
 
Woookie schrieb:
Nein, denn der Umfang den das Gesetz an Technischer Aufsicht und Zulassung voraussetzt zielt ganz klar nicht auf den PKW-Individual-Verkehr ab sondern auf genehmigte Betriebsbereiche. Dort geht es auch explizit darum, dass kein Fahrer oder Personal mehr an Bord ist.
Wenn dann am ehesten noch das Thema "Robo-Taxi" aber nicht der eigene PKW der überall fahren kann.
Tesla plant sehr wohl auch den Einsatz einer eigenen Robo-Taxi-Flotte, mit Fahrzeugen, die Tesla (oder einer Sub-Gesellschaft) dann selbst gehören, oder in deren Auftrag unterwegs sind. Der Begriff "Tesla Network" wurde hierfür bereits seit längerem verwendet.

Wie gesagt ist es Teslas Ziel, ein Level-5-System zu schaffen. Das kann dann per Definition überall fahren, und müsste nicht mal mehr ein Lenkrad oder Pedale haben. Klar: Zum aktuellen Zeitpunkt gibt es dafür keine rechtliche Grundlage. Wenn aber gezeigt werden kann, dass es solch ein System gibt und dass es Vorteile hat, dann kann die gesetzliche Lage ja angepasst werden.
PHuV schrieb:
Die nur im Begleitung unterwegs sind.
Fahranfänger sind nicht nur in Begleitung unterwegs. Fahrschüler hingegen schon.
PHuV schrieb:
Das ist unkalkulierbares Risiko. Eine Art von Software einzusetzen, wie auch immer, ist gezielt möglich, damit kalkulierbar und somit auch als Risiko durch Nichteinsatz vermeidbar.
Warum sollte die Software zwangsläufig ein unkalkulierbares Risiko sein? Es gibt handfeste Metriken, mit denen man Fahrer (egal ob Mensch oder Roboter) bewerten kann, z.B. Unfälle pro Wegstrecke. Gerne auch unterteilt in Unfallarten. Wenn man statistisch relevante (!) Daten hat, kann man damit sogar ganz hervorragend kalkulieren.

So gehen ja beispielsweise auch Versicherungen vor: Wie hoch ist die Wahrscheinlichkeit, dass Fahrer X einen Unfall der Schwere Y baut, und welchen Betrag Z kostet das?
 
Odysseus277 schrieb:
Warum sollte die Software zwangsläufig ein unkalkulierbares Risiko sein?
Lies meinen Satz dazu bitte nochmal, das habe ich so nicht gesagt.
 
Eldok schrieb:
Der Artikel ist leider wirklich nicht gut geschrieben. Hier werden unterschiedliche System vermischt und wichtige Infos komplett weggelassen.
Leider ha @SV3N auf meinen Hinweis hin im letzten Absatz, in dem es um Unfälle geht, lediglich "FSD" durch "Autopilot" ersetzt. Während das inhaltlich natürlich korrekt ist, stellt dies nachwievor nicht klar, dass die Autopilot-Software, unter deren Steuerung diese Unfälle passiert sind, und FSD (um welches es im Artikel ja vor allem geht!) zwei völlig unterschiedliche Dinge sind.

Unter der Kontrolle von FSD ist bisher eben noch kein einziger Unfall passiert. Der Beta-Test läuft immerhin schon ziemlich genau 1 volles Jahr, und es nehmen inzwischen ca. 3.000 Fahrzeuge daran teil. (Initial wohl 1.000 Fahrzeuge.) Das ist schon eine erwähnenswerte Aussage, welche die Berichterstattung inhaltlich relevant ergänzen würde. Ebenso könnte man erwähnen, dass Tesla und NHTSA daten liefern, wonach nach Anzahl an Unfällen pro Millionen Meilen bei Teslas mit aktiviertem Autopilot signifikant geringer ist, als im US-Durchschnitt. Leider werden aber immer nur die (wenigen) negativen Aspekte hervorgehoben... :-(
 
  • Gefällt mir
Reaktionen: ComputerJunge und Eldok
Zurück
Oben