News Tesla Model S: Autopilot in tödlichen Unfall verwickelt

tobias84

Lt. Junior Grade
Registriert
Juli 2015
Beiträge
420
Erstmals war ein selbstfahrendes Tesla-Fahrzeug an einem tödlichen Unfall beteiligt. Da weder Autopilot noch Fahrer einen abbiegenden Lkw erkannten, prallte ein Tesla Model S mit dem Sattelzug zusammen. Der Fahrer des Elektroautos starb noch am Unfallort. Tesla spricht im hauseigenen Blog von einem „tragischen Verlust“.

Zur News: Tesla Model S: Autopilot in tödlichen Unfall verwickelt
 
Der Begriff Autopilot vermittelt eine falsche Sicherheit. Die Leute verbinden es zu häufig mit Fluzeug-Autopiloten und schlafen mal ein Ründchen am Steuer auf dem Highway.
 
angeblich soll er nebenbei einen film geguckt haben. ohman...
 
Der Begriss vermittel einfach den falschen Eindruck. Da hat Tesla nun mehr Menschen auf dem gewissen als VW.

Mal gucken, ob sie auch 15 Mrd Dollar zahlen müssen :evillol:
 
Das ist natürlich aber schon besorgniserregend, wenn so ein Unfall entsteht, weil ein LKW anscheinend die falsche Farbe hat...
Haben die Autos denn wirklich nur optische Sensoren für die Erkennung von anderen Fahrzeugen? :o
 
Der Fahrer soll ja angeblich ein Film geschaut haben und die Gefahr nicht erkannt hatte!

Eine unausgereifte Technik unbeaufsichtigt lassen kann tödlich sein! Vorallen so eine komplexe Technik.

Vielleicht brauchte es ja einen Unfall um die Technik voran zu bringen.

Versteht mich bitte nicht falsch, ich finde es schrecklich was da passiert ist aber der Unfall kann genutzt werden um es besser zu machen!
 
Lors schrieb:
angeblich soll er nebenbei einen film geguckt haben. ohman...

Corros1on schrieb:
Der Fahrer soll ja angeblich ein Film geschaut haben und die Gefahr nicht erkannt hatte!

Eine unausgereifte Technik unbeaufsichtigt lassen kann tödlich sein! Vorallen so eine komplexe Technik.

Vielleicht brauchte es ja einen Unfall um die Technik voran zu bringen.

Versteht mich bitte nicht falsch, ich finde es schrecklich was da passiert ist aber der Unfall kann genutzt werden um es besser zu machen!

Angeblich. Ohne gesicherte Quellen, sollte man sowas nicht verbreiten. :rolleyes:
 
Tja...musste wohl soweit kommen. "Nur eine Assistenzfunktion"... kommt mir jetzt aber vor wie eine Ausrede. Ich glaube, dass wirklich mal die Rede davon war, dass man sich autopilotmäßig heimfahren lassen kann. Oder war das ein Googleprojekt, wo man noch Autos untereinander kommunizieren lassen wollte...?

Zumindest eins sieht man: im Straßenverkehr ist dieser Technologie nicht zu trauen. Würde mich nicht wundern, wenn da auch Radfahrer und Fußgänger aus "irgendwelchen Gründen" übersehen werden.
 
So bitter das für den Moment auch sein mag, aber solche Unfälle helfen, das System zu verbessern.
 
Natürlich ist das schlechte Presse für Tesla, dennoch ist hier nicht (nur) der sogenannte Autopilot schuld, sondern vielmehr der Fahrer der sich nicht an die Sicherheitshinweise gehalten hat.
Ich würde so einem als "Beta" ausgewiesenen Fahrerassistenzsystem nicht trauen...selbst wenn es annähernd perfekt funktioniert.

Kann mir nicht vorstellen, das Tesla dafür belangt wird. Das zeigt schon das der Fall erst jetzt bekannt geworden ist, Wochen später.
Hiesige Hersteller würden öffentlich auseinander genommen werden...
 
Mißt der Tesla die Entfernung zu anderen Objekten wirklich nur mit ner Kamera? Die meisten Abstandtempomaten funktionieren doch per Radar, da sollte die Farbe doch relativ egal sein. Aber wie schon einige geschrieben haben, entbinden die "Autopiloten" nicht von der Aufmerksamkeitspflicht.
 
Henne23 schrieb:
Der Begriss vermittel einfach den falschen Eindruck. Da hat Tesla nun mehr Menschen auf dem gewissen als VW.

Mal gucken, ob sie auch 15 Mrd Dollar zahlen müssen :evillol:

bei einem anderen amerikanischen hersteller sind nachweislich menschen im dreistelligen bereich durch defekte zündschlösser ums leben gekommen
und die mussten glaube ich nur 900mio zahlen
also tesla muss sich als ami keine sorgen machen

S!m0n schrieb:
Kann mir nicht vorstellen, das Tesla dafür belangt wird. Das zeigt schon das der Fall erst jetzt bekannt geworden ist, Wochen später.
Hiesige Hersteller würden öffentlich auseinander genommen werden...

genauso ist es
würde ein mittelklasse autohersteller solchen murks machen wie tesla
gäbe es ihn vielleicht schon nicht mehr
was die sich schon alles erlaubt haben
 
Zuletzt bearbeitet:
Hier fehlen ein paar Infos, die ich in diesem Zusammenhang durchaus als sehr wichtig empfinde edit: jaja, ich bin zu blöd die News richtig zu lesen. Screw me.
"Es ist der erste bekannt gewordene tödliche Unfall in knapp über 130 Millionen [mit Autopilot zurückgelegten] Meilen", schreibt Tesla. Das sind etwa 210 Millionen Kilometer. Die Statistik über alle Fahrzeuge in den USA kenne einen Todesfall alle 94 Millionen Meilen (151 Millionen Kilometer), weltweit ereigne sich ein tödlicher Unfall etwa alle 60 Millionen Meilen (97 Millionen Kilometer). Quelle ist heise.de

Damit könnte man argumentieren das der Tesla sicherer ist, als wenn man selber fährt. Natürlich nur wenn man alle anderen Variablen außer acht läst. Fakt ist, dass die Technologie in einem Betastadium steckt. Folglich kann sie noch besser werden. Ich vermute das es nicht mehr all zu lange dauert, bis sie so zuverlässig ist, das man nicht mehr selbst fahren braucht.

Für mich war es nie die Frage ob es einen tödlichen Unfall mit einem Autopiloten geben wird, die Frage war nur wann. Und für mich war es auch nie eine Frage, dass dann all die Technikgegner kommen und die Technik nieder machen. Gut das sich Fortschritt nicht aufhalten lässt.

Betrachtet man dann noch, dass der "Fahrer" die Anweiseungen von Tesla missachtet hat ist er schlicht selbst Schuld.
 
Zuletzt bearbeitet: (a)
Rast der Autopilot am Zebrastreifen auch ungebremst vorbei, wenn er keinen Passanten erkennt? Bei gefährlichen Einmündungen würde ein Mensch schon aus Vorsicht etwas vom Gas gehen. Das kann der Autopilot anscheinend nicht.
Der hat dann auch Probleme mit vorausschauendem Fahren. Nicht ohne Grund ist das erste Gebot, mit Fehlern anderer im Straßenverkehr zu rechnen. Ein Autopilot gibt einfach Gas und dann kommt unmenschliches Verhalten in den Straßenverkehr. Da sollte man Autos mit aktivem Autopilot mit einer Signalfarbe kennzeichnen, damit Menschen gewarnt sind, dass da ein Roboter ohne Rücksicht auf Verluste seinen Auftrag ausführt.
Und wie wird ein Autopilot vor Gericht vernommen? Kann er einen Eid schwören?
 
Lord Necci schrieb:
Angeblich. Ohne gesicherte Quellen, sollte man sowas nicht verbreiten. :rolleyes:
Zum Einen das, zum Anderen ist eine solche Software - egal welches Herstellers - nicht perfekt, worauf man insbesondere bei Tesla auch explizit hingewiesen wird.
Pjack schrieb:
Haben die Autos denn wirklich nur optische Sensoren für die Erkennung von anderen Fahrzeugen? :o
Anderweitige Sensorik ist an Bord. (Hervorhebung durch mich.)
Model S is designed to keep getting better over time. The latest software update, 7.0 allows Model S to use its unique combination of cameras, radar, ultrasonic sensors and data to automatically steer down the highway, change lanes, and adjust speed in response to traffic. Once you’ve arrived at your destination, Model S scans for a parking space and parallel parks on your command.
Ob / wie sie explizit dafür genutzt wird / werden kann, weiß ich nicht - eine Nichtnutzung wäre jedoch mehr als verwunderlich.

Grüße,
cb-leser
 
Zuletzt bearbeitet:
Für solche Fälle besitzen LKW in DE seit 20 Jahren einen Unterfahrschutz.

Beim Ami ist wieder klar, dass etwas elementares keine Vorschrift ist, aber Hauptsache mit ihren Elektro/autonom-Fahren rumspinnen. App hier/ Google da- aber größtenteils mit Zügen rumeiern- wo 140 km/h schon als Expresszug gilt.

Laut dieser Meldung, hatte der LKW keinen Unterfahrschutz.:rolleyes:

http://t3n.de/news/lkw-uebersehen-tesla-meldet-721505/
 
Sehr schade aber selbst Schuld! Beim einschalten des "Autopilots" erscheint sogar eine Warnung dass das eine Betafunktion ist und das man das Steuer nicht aus der Hand lassen soll.

Hoffe Tesla kommt gut aus der Sache raus. Wird Zeit das sich auf dem Automobilmarkt was tut und ohne Tesla gäb es die aktuelle Elektroautowelle sicherlich nicht.
 
Zuletzt bearbeitet:
franzerich schrieb:
Zumindest eins sieht man: im Straßenverkehr ist dieser Technologie nicht zu trauen. Würde mich nicht wundern, wenn da auch Radfahrer und Fußgänger aus "irgendwelchen Gründen" übersehen werden.
Als großer Skeptiker solcher Systeme würde ich dir aber trotzdem empfehlen die News genau durchzulesen.
Ein Todesfall in 209 Millionen Km. Der Durchschnitt liegt bei 151 Millionen Km.

Also die Frage ob Mensch oder Autopilot die größere Gefahr darstellt, ist nicht so eindeutug, wie manche die News hier interpretieren.
 
deo schrieb:
Rast der Autopilot am Zebrastreifen auch ungebremst vorbei, wenn er keinen Passanten erkennt? Bei gefährlichen Einmündungen würde ein Mensch schon aus Vorsicht etwas vom Gas gehen. Das kann der Autopilot anscheinend nicht.
Der hat dann auch Probleme mit vorausschauendem Fahren. Nicht ohne Grund ist das erste Gebot, mit Fehlern anderer im Straßenverkehr zu rechnen. Ein Autopilot gibt einfach Gas und dann kommt unmenschliches Verhalten in den Straßenverkehr. Da sollte man Autos mit aktivem Autopilot mit einer Signalfarbe kennzeichnen, damit Menschen gewarnt sind, dass da ein Roboter ohne Rücksicht auf Verluste seinen Auftrag ausführt.
Und wie wird ein Autopilot vor Gericht vernommen? Kann er einen Eid schwören?

Ahahaha setz mal den aluhut wieder ab.
Hab das Gefühl auf CB sind nur noch Trollaccounts unterwegs ..
 
deo schrieb:
Rast der Autopilot am Zebrastreifen auch ungebremst vorbei, wenn er keinen Passanten erkennt? Bei gefährlichen Einmündungen würde ein Mensch schon aus Vorsicht etwas vom Gas gehen. Das kann der Autopilot anscheinend nicht.

Ein Autopilot macht das, was in der Software verankert wurde. Im Gegensatz zu einem Menschen wird der Computer nie denken: "Die Ampel schaff ich noch!" und dabei beinahe vorsätzlich einen Unfall provozieren.

Jemanden zu übersehen kann Menschen genauso wie Computern passieren. Während man aber die durchschnittliche Leistungsfähigkeit von menschlichen Fahrern kaum beeinflussen können wird, befindet sich das autonome Fahren noch in der Betaphase und funktioniert schon jetzt anscheinend besser als der Mensch.

So ein Unfall dürfte in Deutschland übrigens gar nicht passieren. LKWs müssen hier mit einem Unterfahrschutz ausgerüstet sein. Es wird schon Gründe gehabt haben, wieso es hier vor 20 Jahren zur Vorschrift wurde - auch ohne Computer am Steuer.
https://de.wikipedia.org/wiki/Unterfahrschutz_(Nutzfahrzeug)

Bevor man hier also bei Tesla einen schuldigen sucht, sollten sich die US Behörden fragen wieso bei ihnen ein seitlicher Unterfahrschutz nicht wie in der EU vorgeschrieben ist und wie viele Personen in den letzten Jahren deswegen bereits sterben mussten
 
Zuletzt bearbeitet:
Zurück
Oben