News Full Self-Driving (FSD): Tesla zieht Version 10.3 nach nur einem Tag wieder zurück

Eldok schrieb:
Achtung Achtung, die geistige IT-Elite Deutschlands meldet sich zu Wort und teilt der Welt mit wie es richtig geht.

Ja, die hätte sowas nicht auf die öffentliche Straße losgelassen. Ich wette aber, Du wärst einer der Ersten, der Zeter und Mordio schreien würde, wenn der Tesla vor Dir eine unvermutete Vollbremsung macht und Du dann seinen Kofferraum aus der Nähe inspizieren dürftest?

Mich würde auch die Aussage der Versicherung zu "Tja, ich hatte eine Beta Software aufgespielt, da kann das schonmal vorkommen" interessieren.

Schnitz schrieb:
Ich begrüße es daher auch ausdrücklich, dass man das Lenkrad bei Tesla immer leicht bewegen muss, damit der AP sich nicht abschaltet.

Das haben dann die Tesla Fahrer, welche auf dem Beifahrersitz saßen, wie gemacht?
 
  • Gefällt mir
Reaktionen: 7H0M45, Pulsar77 und PHuV
Man könnte im Artikel auch mal erwähnen, dass anscheinend die meisten anderen Automarken auch Probleme mit falschen Kollisionserkennungen und dadurch hervorgerufenen Vollbremsungen haben. (Quelle ist Berichterstattung des österreichischen ADAC Pendants ÖAMTC bzw. der Hefte, welche die herausgeben.) Bloß, dass die es dann halt anders als Tesla nicht Beta (was eigentlich geschlossene Beta heißen sollte) sondern Feature nennen, und es genauso wie im Dieselgate zwar bei allen passiert, aber die Medien sich immer nur auf das stürzen, was wirklich sichtbar ist.

Ich finde es traurig, dass ein Hersteller dafür kritisiert wird, dass er einen Fehler eingesteht. Das ist letztlich auch eine Form der Verantwortungsübernahme. Genau das passiert ja nicht zuletzt in der deutschen IT Kultur fast nicht. Siehe https://www.heise.de/meinung/Kommen...in-Handlanger-von-Stuempern-sein-6224293.html


7H0M45 schrieb:
Man darf nicht vergessen, dass selbst Tesla auch in Zukunft nicht bereit ist für ihr System irgendeine Art von Garantie/Verantwortung zu übernehmen

Wo hast du das her?
Das macht übrigens auch gar keinen Sinn. Wenn Tesla mal eine statistisch hohe Zuverlässigkeit mit Autopilot erreicht hat, weshalb sollten sie dann nicht Verantwortung übernehmen, insofern die Rechtslage rational gestaltet ist?

Neodar schrieb:
Also einen öffentlichen Beta-Test bei einer Software für autonomes Fahren, finde ich ja schon befremdlich. Das ist ein Bereich in dem die Software vor Veröffentlichung auf Herz und Nieren getestet werden muss.
Immerhin sitzt man hier nicht gemütlich an einem Rechner und wenn was nicht funktioniert passiert nichts weiter.
Hier geht es um Sicherheit im Straßenverkehr und somit unmittelbar um Menschenleben.

Es ist ein geschlossener bzw. begrenzter Beta-Test.
Hat Tesla aber nicht ohnehin die mit Abstand fortschrittlichste Testabteilung in dem Bereich?
Letztlich wird es immer Randfälle geben, die man mit Tests nicht abdecken kann.

Und was deinen letzten Satz angeht. Die knappe Million Menschenleben, welche jedes Jahr weltweit durch menschliche Fahrfehler sterben zählt nicht, weil man sich bereits daran gewöhnt hat?

Kalsarikännit schrieb:
Ich hoffe, die Betatestkarren blinken wie Weihnachtsbäume damit man schnell in Deckung gehen kann wenn einer ankommt.

Oder anders ausgedrückt: seid ihr IRRE?

Der Unterschied zu Tesla und den anderen ist zum Teil einfach, dass sie ehrlicher sind und die Beschränkungen ihres Systems auch offen ansprechen.

Nach Dieselgate sollte einem ja langsam klar werden, dass man von dieser Industrie nach Strich und Faden belogen wird, wenn man es will und zulässt. Was ich damit sagen will ist, dass andere Hersteller zum Teil nicht weniger Mist mit Selbstfahrenden-Systemen verbocken, aber einfach nicht so transparent damit umgehen.

Das ist vergleichbar mit der Vorstellung, dass die Kriminellen in Florida, von denen man in Memes und auf Social Media immer wieder lesen kann, besonders viele und dabei auch noch besonders dämlich seien. In der Realität aber handelt es sich dabei weitgehend um eine verzerrte Wahrnehmung, die ihren Ursprung darin hat, dass Florida im Gegensatz zu anderen Bundesstaaten der USA bzw. Ländern jeden kriminellen Kleinkram transparent öffentlich macht und damit entsprechend viel Futter für Memes und Medien liefert.
 
  • Gefällt mir
Reaktionen: badfallenangel, Synxalot und Schnitz
Hi,

Corros1on schrieb:
Naja, das durchschnittliche menschliche Gehirn ist immer noch bei bestimmten Dingen und unter Idealvoraussetzungen besser unterwegs als die beste KI heute

Corros1on schrieb:
Wie könntes sonst sein, dass manche Menschen bei bestimmten Situationen besser reagieren

so könnten wir drüber reden. Aber sonst ist die Pauschalaussage natürlich falsch. Da reicht ein Gegenbeispiel, um klar zu machen, dass die Aussage "jeder Mensch ist einer KI beim Fahren überlegen" nicht stimmt.

Sieht man sehr schnell, wenn man Dinge googelt wie "rentnerin am steuer schwerer unfall".

VG,
Mad
 
  • Gefällt mir
Reaktionen: Bright0001
M@tze schrieb:
Das haben dann die Tesla Fahrer, welche auf dem Beifahrersitz saßen, wie gemacht?
Das geht bei meinem Model 3 nicht, da hier eine Kamera den Fahrer überwacht.
Dies ist den Leuten zu verdanken, die jeden Kram bei der ersten Gelgenheit mißbrauchen müssen, wo sie nur können. Asoziale Elemente eben.
 
  • Gefällt mir
Reaktionen: MindofRafi und SigiSchwarz
M@tze schrieb:
Ja, die hätte sowas nicht auf die öffentliche Straße losgelassen. Ich wette aber, Du wärst einer der Ersten, der Zeter und Mordio schreien würde, wenn der Tesla vor Dir eine unvermutete Vollbremsung macht und Du dann seinen Kofferraum aus der Nähe inspizieren dürftest?

Mich würde auch die Aussage der Versicherung zu "Tja, ich hatte eine Beta Software aufgespielt, da kann das schonmal vorkommen" interessieren.



Das haben dann die Tesla Fahrer, welche auf dem Beifahrersitz saßen, wie gemacht?


Ist doch seit Monaten die Kabinen Kamera aktiv.. geht also nicht mehr so einfach :)
 
  • Gefällt mir
Reaktionen: Schnitz
Elon musk Twitter:

"10.3.1 rolling out now"

Scheint also schon behoben zu sein
 
  • Gefällt mir
Reaktionen: tarkin77
Eldok schrieb:
Achtung Achtung, die geistige IT-Elite Deutschlands meldet sich zu Wort und teilt der Welt mit wie es richtig geht. Deswegen leiten auch alle erfolgreiche IT-Unternehmen und hängen nicht bei CB im Forum ab :daumen:
Das eine schließt das andere aus? Und was qualifiziert dich hier eine Beurteilung ab zu geben?
 
  • Gefällt mir
Reaktionen: icetom und Kalsarikännit
Also jeder der nicht verstanden hat was ein Beta-Test ist und sein Auto voll im Griff einer Beta-Software lässt... ist absolut selbst schuld.

Ich würde mir die 10.3 auch jetzt direkt sofort installieren. Nur eben absolut aktiv im Verkehr dabei sein.
Leider tun das die ganzen Betatester leider nicht. Deshalb passiert sowas.

Das gute an Tesla ist und bleibt.... Sie sind mutiger als alle anderen und alle anderen werden von diesem Mut eines Tages profitieren!

Aber jammern ging ja schon immer.
 
  • Gefällt mir
Reaktionen: Schnitz
Wenn man Beta-Software nicht mehr auf die Straße lässt, dann kann Tesla es genauso machen wie die anderen Hersteller: Einfach nicht Beta drauf schreiben.
 
  • Gefällt mir
Reaktionen: Bright0001, Nero1, themk und eine weitere Person
Was sollen solche rufschädigenden Artikel?
Warum wird hier Tesla so nieder gemacht? Ohne dass es dafür eine Grund gäbe.

Ich will solche Artikel die einfach nur blind einen Hersteller schlecht machen sollen auch nicht über andere Unternehmen lesen. Ganz schlechter Stil.
 
  • Gefällt mir
Reaktionen: Valix, themk und Schnitz
7H0M45 schrieb:
Das ist ja kein Betatest, sondern maximal ne Alpha.
So viel zum Thema technologischer Vorsprung...
Es bedeutet ja nicht dass es nicht ordentlich getestet wurde, man mal zum Spaß verschiedene Sachen zusammen kopiert hat und auf gut Glück ausprobiert, usw.
Es war von Anfang an klar dass solche Systeme im realen Alltag dazulernen werden müssen. Das geht bei sowas nicht anders, das wird bei keinem Hersteller groß anders sein. Außer sie sind eben so viel später damit dran, dass sie von denen lernen können die es öffentlich getestet haben.

7H0M45 schrieb:
Man darf nicht vergessen, dass selbst Tesla auch in Zukunft nicht bereit ist für ihr System irgendeine Art von Garantie/Verantwortung zu übernehmen
Ich weiß nicht ob und was er zu welchem Stadium gesagt hat. Aber solange der Fahrer jeder Zeit eingreifen können muss, wäre eine Herstellerhaftung auch nicht angebracht. Niemand wird etwas garantieren von dem jeder weiß dass es noch nicht von irgendwem garantiert werden kann und rechtlich auch niemand nicht muss. Wenn der Tempomat bei anderen nicht funktioniert, haften sie auch nicht wenn man geblitzt wird.
 
AGB-Leser schrieb:
Wer haftet eigentlich bei einer unnötigen Vollbremsung?
Ich denke, der Halter von Kfz.

Er haftet auch dann, wenn da Fahrzeug in geparkte Rettungsfahrzezge rast :freak:

Für mich ein NoGo was da passiert. Ist ja nicht so, dass durch das Update bloß die klima nicht mehr richtig funktioniert
 
  • Gefällt mir
Reaktionen: MGFirewater
Klassikfan schrieb:
Ich kann mir nicht helfen, aber ein "öffentlicher Betatest" einer Software, die automatisiert Fahrzeuge durch den Straßenverkehr steuert?
Ich kann auch nur mit dem Kopf schütteln. Ich arbeite in der Automotive-Branche in der Antriebs-Sparte und dort hat eine Beta-Software einfach nichts zu suchen.
 
Balikon schrieb:
Das schon. Aber die Hardware hat ja unterschiedlichste Revisionen gesehen. Überlege mal, wie alt die ersten Serienfahrzeuge von Tesla sind. Da wurde bei Nachfolgemodellen schon sicher der ein oder andere Chip oder gar das komplette Logikboard geändert.

immortuos schrieb:
Du wirst dich wundern. Bei Tesla bekommst du permanent veränderte Konfigurationen, festgelegte "Facelifts" wie bei uns gibt es da nicht als alleinige Updates, die Produktion wird immer wieder umgestellt.
1000 verschiedene Modelle dürften inzwischen schon locker auf den Straßen unterwegs sein.

Für FSD10 braucht es aber mindestens die Autopilot-Hardware 2.0 (oder sogar 3.0) als zwingende Vorausetzung. Die 2.0 gibt es überhaupt erst für Modelle ab 2016, also nix mit 10 Jahre alte Autos. Insofern kann ich die Aussage von Musk weiterhin nicht nachvollziehen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod, chartmix, Weyoun und eine weitere Person
ComputerJunge schrieb:
Das alleine schließt ein QS-Management mit einem öffentlichen Beta-Test vollkommen aus.
Dann wird es sowas und vieles, oder eigentlich fast alles, neue nicht mehr geben. Alle Eventualitäten vorab durchzutesten ist quasi immer unwirtschaftlich bis unmöglich. Es geht daher einzig um Wahrscheinlichkeiten, zumal sich die Nutzer dieser Beta noch zur Überwachung dieser verpflichtet haben.
 
|Moppel| schrieb:
Aber ist Mustererkennung wirklich eine unabhängige Variable, die sich proportinonal zur Verkehrssicherheit verhält?
??? Ich verstehe Deine Frage nicht. Mustererkennung ist ein wesentliches Teil der autonomen Fahrens. Gerade, wenn ein Tier von einem Mensch unterschieden werden sollte. Beispiel: Bei Mensch ausweichen und bremsen, bei Tier eben nicht ausweichen, aber bremsen. Das hier die meisten Menschen vor Schreck falsch reagieren, tut hier auch nichts zur Sache, aber man kann sich das antrainieren, hier gezielt nicht auszuweisen. Zeig mir bitte ein KI-System, was in der Lage ist, in Sekundenbruchteilen solche Entscheidungen zu fällen.
Hier mal ein Interview, was einige Punkte verdeutlicht.
https://www.telekom.com/de/konzern/...elligenz/interview-juergen-schmidhuber-490592
 
Weyoun schrieb:
Ich kann auch nur mit dem Kopf schütteln. Ich arbeite in der Automotive-Branche in der Antriebs-Sparte und dort hat eine Beta-Software einfach nichts zu suchen.
Ja, da schreibt man normalerweise nicht Beta drauf. Obwohl die Software Fehler hat. Wenn etwas passiert, wenn der Spurhalteassistent in einer Baustelle oder verwirrenden Spurmarkierungen von der Straße abkommt, ist auch der Fahrer schuld. Bei Tesla ist es genauso.
 
Weyoun schrieb:
Ich kann auch nur mit dem Kopf schütteln. Ich arbeite in der Automotive-Branche in der Antriebs-Sparte und dort hat eine Beta-Software einfach nichts zu suchen.

Erstens sind die Anforderungen in dem Bereich vollkommen andere. Die Variablen und die Werte, innerhalb derer sie sich bewegen, sind wesentlich besser vorherzusagen.

Mit anderen Worten: Es ist gar nicht möglich, eine vollständig perfekt funktionierende FSD Software rein im Labor zu entwickeln. Weil die selten auftretenden Randfälle zu viele sind. Alles andere ist Hybris oder Marketing.

Wenn wir ausreichend sichere FSD Software in der Branche sehen wollen, und dafür gibt es mit der Million Toter jedes Jahr, die durch menschliche Fahrfehler verursacht werden, gute Gründe, dann muss es Vorreiter wie Tesla mit Mut geben.



Zweitens. Antriebssparte? Dieselgate. ;-P
 
Spannendes Thema, gerade jetzt wo es noch in den Kinderschuhen steckt. Bei uns ist es aktuell nicht mit dem Grundgesetz vereinbar - wird interessant wann und wie das hier Mal umgesetzt werden soll.
 
Zurück
Oben