News Autonomes Fahren: Wer bei Unfällen haften soll, bleibt umstritten

Ich entwickle einen Bot der Bürger betrügt, wer ist Schuld, der den Bot hergestellt hat. Ich kauf ein Auto das autonom herumfährt, wer ist Schuld, ich. :evillol:
 
Autonomes fahren... so wirklich sicher würde ich mich nicht fühlen, nicht bei diesem Verkehr hier in D. Ein Paar Assistenzsysteme sind sehr sinnvoll, andere nice to have , aber mich voll und ganz auf andere Dinge konzentrieren und das Auto machen lassen? Nein. Wenn ich wüsste, dass um mich herum ebenfalls autonome Fahrzeuge unterwegs sind, die miteinander kommunizieren, dann sieht das ganze schon anders aus.

Bis es so weit ist, wird es noch lange dauern. Aus justiziarische Sicht, ist es für mich ziemlich eindeutig dass der Hersteller der Autos verantwortlich ist.
 
Die deutschen Autohersteller entwickeln doch gar nichts mehr selbst. Man bezieht alle(!) technischen Lösungen von seinen Zuliefern wie BOSCH, Bertrandt, HELLA oder eben LEAR. All diese Zulieferer arbeiten sehr eng mit den Autoherstellern zusammen: die Autohersteller stellen die Rahmenbedingungen und die technischen Anforderungen, die Zulieferer setzen es um. Jede Weiter- und Neuentwicklung, und sei diese noch so klein vom Umfang, wird im Bieterverfahren ausgeschrieben und nur weil man mal ein "Projekt" für einen Autohersteller abgewickelt hat, heisst es noch lange nicht, dass man das Nachfolgeprojekt auch automatisch bekommt. Und jedes Mal muss man ja finanziell besser sein als der Wettbewerb. Und günstiger soll's auch noch sein.
 
Zuletzt bearbeitet:
Der Entwickler wird niemals haften, da das Auto als gesamtes Produkt verkauft wird. Damit ist immer der Hersteller in der Pflicht.
Kann ja sein, dass die statt 10 Sensoren nur 5 verbauen und deswegen Daten zu ungenau sind. Abgesehen davon ist die Entwicklung immer ausgelagert von den Herstellern, klar dass die am liebsten diese haftbar machen wollen. Darauf wird sich keiner einlassen.
Die Frage ist doch eher ob nicht der Halter eine eigene Versicherung abschließen muss für autonomes Fahren. Das muss ja nicht zwangsweise teurer sein, könnte ja auch billiger als eine normale Versicherung. Denn eigentlich sollten solche Fahrzeuge ja möglichst keine Unfälle bauen an denen sie selbst schuld sind! Wenn ein anderer Teilnehmer den Unfall verursacht ist die Haftungsfrage ja sowieso eine andere.
 
Ich frage mich ernsthaft, wie das aus ethischer/moralischer Sicht jemals umsetzbar sein wird, solange auch nicht autonome Fahrzeuge auf den Straßen unterwegs sind.


Wenn das Auto entscheiden muss, ob es jemanden umfährt oder gegen eine Betonwand fährt. Wird dann gelost??

Oder heißt es prinzipiell: Das Leben des Fahrers hat Vorrang, er hat schließlich bezahlt? Wie sieht es dann bei einem Kind aus?


Ganz schwieriges Thema. Keine Ahnung, wie da jemals eine Lösung gefunden werden soll. Losverfahren wäre da wohl noch die zufriedenstellendste Lösung, so absurd das klingen mag.
 
MrJules schrieb:
Wenn das Auto entscheiden muss, ob es jemanden umfährt oder gegen eine Betonwand fährt. Wird dann gelost??

Oder heißt es prinzipiell: Das Leben des Fahrers hat Vorrang, er hat schließlich bezahlt? Wie sieht es dann bei einem Kind aus?

Ganz schwieriges Thema. Keine Ahnung, wie da jemals eine Lösung gefunden werden soll. Losverfahren wäre da wohl noch die zufriedenstellendste Lösung, so absurd das klingen mag.

Ich würde mir niemals im Leben ein Fahrzeug kaufen, oder mich in ein autonomes Fahrzeug setzen, das das Leben meiner Familie und das meinige per Losverfahren gegen das eines Fremden abwägt.
Das Leben und die Gesundheit meiner Familie und mein Wohlergehen ist mir *immer* wichtiger als das eines beliebigen anderen.
 
MrJules schrieb:
Ich frage mich ernsthaft, wie das aus ethischer/moralischer Sicht jemals umsetzbar sein wird, solange auch nicht autonome Fahrzeuge auf den Straßen unterwegs sind.

Wie wird es denn jetzt ethisch vertretbar umgesetzt? Dee Zufall entscheidet am Ende keiner kann sagen wie er in so einer Situation reagieren würde.

Wenn das Auto entscheiden muss, ob es jemanden umfährt oder gegen eine Betonwand fährt. Wird dann gelost??

Es gab dazu im Kanzleramt einen runden Tisch das beste wäre wirklich eine Art Random-Modus.

urglflagga schrieb:
Ich würde mir niemals im Leben ein Fahrzeug kaufen, oder mich in ein autonomes Fahrzeug setzen, das das Leben meiner Familie und das meinige per Losverfahren gegen das eines Fremden abwägt.
Das Leben und die Gesundheit meiner Familie und mein Wohlergehen ist mir *immer* wichtiger als das eines beliebigen anderen.

Sobald du in einem Auto sitzt ob nun als selbst Fahrer oder bei Fahrer, legst du dein Schicksal zum großen Teil in die Hände des Zufalls.

Eigentlich ist das ganze Leben davon geprägt wer garantiert dir das wenn du aus der Tür gehst nicht von einem herab fallenden Ziegel erschlagen wirst?

Kann passieren oder kann nicht passieren aktiv beeinflussen kannst du solche Dinge nicht
 
Zuletzt bearbeitet:
Aus meiner Sicht gibt es eigentlich nur folgende Lösungen:

- Der Automobilhersteller verkauft ein intaktes Automobil, sollte es wieder erwarten tatsächlich dazu kommen, dass ein autonom fahrendes Fahrzeug Schuld an z.B. einem Auffahrunfall hat, greift zunächst eine Versicherung, da die "was ist schief gelaufen-Analysen" sehr lange dauern können. Wenn z.B. ein wichtiges Systemteil defekt war, verpflichten sich automatisch die Automobilhersteller dazu, dafür sorge zu tragen, dass bei künftigen Modellen solch ein Defekt nicht möglich wird, bzw. durch Ersatzsysteme aufgefangen werden. Bei krassen Designfehlern, z.B. bewusst auf optische Kamerasysteme verzichtet, wird er in die Haftung genommen und darf zahlen. Stichwort Redundanz.

- Der Automobilhersteller verpflichtet sich, Systemausfälle oder schlechte Bedingungen für einzelne Systeme zu überbrücken durch zusätzliche Systeme.

- Auf die Frage, Kind oder Opa habe ich folgende Antwort: So hart wie es klingt, darf nicht der unschuldige angefahren werden. Wenn jemand einfach auf die Straße läuft und ein KFZ kann nicht ohne andere Kollisionen mit Menschen ausweichen, muss eben dieser eine Mensch angefahren werden. Eben der, der Schuld hat! Sowas nennt man auch Lerneffekt, das Kind, das einmal angefahren wurde, macht den Fehler bestimmt kein zweites mal und guckt künftig. Niemand wird bevormundet. Ob Kind oder Opa spielt dabei keine Rolle. Warum soll ein Kind mehr Recht auf Leben haben als ein Opa? Wer schreit freiwillig, "hey Auto, fahr mich lieber tot als das fremde Kind, weiche bitte zu mir aus"... Ich mag mein Leben, wenn ich mich an die Straßenverkehrsregeln halte, will ich nicht überfahren werden, weil ein System sich ausrechnet, dass mein Leben weniger Wert ist als das eines anderen...
 
Ich hab mir die letzten vier Seiten nicht durchgelesen.

Kann CB genau die selbe Umfrage hier auf CB starten? Mich würde interessieren was bei Leuten mit erhötem technikinteresse, wie man sie hier antrifft, dabei rauskommt.

Ich persönlich würde die Haftungsfrage 50:50 zwischen dem Hersteller des Autos und dem KI-Softwareentwickler aufteilen. Einerseits ist der Softwareentwickler für eine in allen Lagen funktionierende KI zuständig, anderaseits muss sich der Autohersteller davon überzeugen das die KI zuverlässig funktioniert. Bei Unfällen müsste dann jeder 50% des Schadens übernehmen. Es darf dabei keine gegenseitigen Anschuldigungen geben, selbst wenn der Hersteller im nachhinnein feststellt, das der Entwickler schuld ist, bzw. umgekehrt. Die Haftung müssten immer beide zu gleichen Teilen übernehmen. Das wäre mein Modell.
 
Die Frage ist doch ganz simpel zu beantworten. AUTONOM bedeuten selbständig ohne Eingreifen des "Fahrers". Sollte es dann scheppern, haftet der Automobilhersteller. Ansonsten darf das Fahrzeug eben nicht unter dem Begriff "Autonom" vermarktet werden.

Hier wird wieder versucht mit möglichst wenige Aufwand aussschließlich jedweder Verantwortung schnell möglichst viel Kohle zu scheffeln. Und die Politik, ich sage das vorraus, lässt sich von der Automobillobby wieder übertöpeln...

greetz
hroessler
 
wie schön mehrfach gesagt, nur noch mal schnell zusammen gefasst:
Autonomie Level 0-4 = Fahrer haftet, so ist es aktuell, daran ändert sich nichts
Autonomie Level 5, der Wagen hat evtl. gar kein Lenkrad mehr kann man evtl. den Hersteller haften lassen was dann im Kauf/Miet-Preis umgelegt wird.
Aber es ist jetzt schon abzusehen das diese Wagen deutlich weniger Fehler machen werden als Menschen, die Unfallrate also auf wenige % der jetzigen Werte runter gehen wird, das kann dann auch wirklich eine dann deutlich günstigere Vollkasko tragen.
 
Falls sich die Automobilhersteller dahingehend entwickeln sollten, nur noch als reine Plattformanbieter zu agieren, auf deren sich die Hersteller von Software nur noch upgraden und Komponentenlieferanten Bauraum "mieten" können. Dann liegt die Haftungsfrage bei den Systemlieferanten sehr wohl. Passiert das aber unter den Vorgaben und Beauftragungen der OEMs selber und nehmen Sie diese Leistung letztlich ab, (wie geschehen im Dieselskandal um Steuergeräte) liegt die Haftung für die Absicherung des Gesamtsystem wieder beim OEM, da er letztlich das Produkt als Ganzes liefert.

Ich persönlich glaube aber, dass es sich in Richtung von Fall 1 entwickeln wird. Ähnlich einem Betriebssystem. Windows als Basis und Drittanbieter steuern SW-Pakete bei, für die aber Microsoft als Hersteller von Windows letztlich keine Haftung mehr übernimmt. Die Anbieter müssen sich aber verpflichten ihre SW nach gewissen Standards und Rahmenbedingungen zu liefern.

Damit wird in Zukunft viel mehr Aufwand im Bereich der Redundanz betrieben werden müssen, um die sicherheitskritischen Systeme im Fahrzeug für Autonomes Fahren abzusichern. Das was die Luftfahrt seit Jahrzehnten betreibt kommt jetzt auch für das Fahrzeug ab 2025.
 
MrJules schrieb:
Wenn das Auto entscheiden muss, ob es jemanden umfährt oder gegen eine Betonwand fährt. Wird dann gelost??

.

Wie wäre es damit - wenn ein Ausweichmanöver kein schwerwiegenden Unfall verhindern kann -> Spur halten und bremsen.
 
Troik schrieb:
wie schön mehrfach gesagt, nur noch mal schnell zusammen gefasst:
Autonomie Level 0-4 = Fahrer haftet, so ist es aktuell, daran ändert sich nichts
Autonomie Level 5, der Wagen hat evtl. gar kein Lenkrad mehr kann man evtl. den Hersteller haften lassen was dann im Kauf/Miet-Preis umgelegt wird.
Aber es ist jetzt schon abzusehen das diese Wagen deutlich weniger Fehler machen werden als Menschen, die Unfallrate also auf wenige % der jetzigen Werte runter gehen wird, das kann dann auch wirklich eine dann deutlich günstigere Vollkasko tragen.

Eine Vollkasko kann es eben nicht richten. Dann würde sich ja nach heutigem Stand der Beitrag erhöhen.
So müsste man nach jedem Unfall mehr für die Vollkasko zahlen. Sinnlos.

Es müsste so sein, dass
1. die Software-Firma die Kosten übernimmt, wenn die KI einen Fehler gemacht hat.
2. der Autohersteller zahl, wenn die AI richtig reagiert hat aber die Elektronik/Technik versagt hat.
3. die Haftpflicht zahlt, wenn der kfz-Eigentümer die Wartungsintervalle vernachlässigt hat oder bewusst von einem Mange wusste, welches den Unfall berursacht hat. Bei nicht grober Fahrlässigkeit.
4. Der Eigentümer selbst, wenn grobe Fahrlässigkeit gegeben ist.

Es wird eine Riesenarbeit für Gutachter, welche dann in allen Bereichen das nötige Wissen haben müssen.
Da aber die Unfälle zurückgehen müssten, egalisiert sich das dann wahrscheinlich.
 
Zuletzt bearbeitet:
Troik schrieb:
Autonomie Level 0-4 = Fahrer haftet, so ist es aktuell, daran ändert sich nichts.


Aktuell haftet der Halter eines Fahrzeugs für Schaden und nicht der Fahrer.

Troik schrieb:
Autonomie Level 5, der Wagen hat evtl. gar kein Lenkrad mehr kann man evtl. den Hersteller haften lassen was dann im Kauf/Miet-Preis umgelegt wird.

Problematisch daran ist nur, dass ein Hersteller einzig für die KI Fehler belangt werden kann und so jeder Wagen doppelt versichert sein müsste. Der beste Computer kann nichts dafür, dass der Halter mit Sommerreifen im Winter unterwegs ist, irgendwelche billigen Bremsbeläge verbaut wurden oder die Wartungsinterwalle nicht eingehalten werden.

Die Haftung komplett auf die Hersteller abzuwälzen ist nur dann möglich, wenn wir in Zukunft die Fahrzeuge nur noch mieten, wie es derzeit zum Beispiel bei Car2Go oder DriveNow der Fall ist. Solange ein Fahrzeughalter für den Zustand eines Fahrzeugs verantwortlich ist, sollte dieser IMHO auch für die damit entstandenen Schäden haften. Ob die Schuld durch unsachgemäße Wartung verursacht wurde, unsachgemäßen Gebrauch oder Fehler in der KI, kann die Versicherung dann selbst klären.

Eigentlich ist doch das Thema sowieso recht schwachsinnig, denn wieso sollte man am bestehenden Status quo was ändern? Auch jetzt wird bei Unfällen oft die Schuldfrage von der Versicherung geprüft und bei offensichtlichen Mängeln auch der Hersteller belangt. Dieser kann dann die Schuld auch auf die Zulieferer abwälzen, wie es im Takata Fall geschah.
 
Zuletzt bearbeitet:
Hier wird ja gerade zu so getan, als hätte es bisher noch keine Softwareentwicklung in sicherheitskritischen Bereichen gegeben...
Es ist doch letztendlich immer das selbe: Der Käufer der Software, also ein Autohersteller, legt fest, wie hoch das Restrisiko für Ausfälle sein soll und der Softwareentwickler liefert. Im Falle eines Unfalls kann der Softwareentwickler dann sagen: Wurde geliefert wie gewünscht, dann ist der Hersteller schuld oder es ist ein Systemfehler, wir sind schuld. Und je nachdem wird sich dann der Entsprechende mit Schadensersatz auseinandersetzen müssen.
 
Oder der Halter ist Schuld, wenn er ein Sicherheitsupdate nicht durchgeführt hat.So etwas könnte dann uU auch auf uns zukommen.
 
Wenn die Haftungsfrage nicht grundsätzlich geklärt ist, wird sich das System nicht durchsetzen. Entweder das Fahrzeug arbeitet autonom mit verlässlich geklärter Rechtslage oder der Fahrer muss das Kommando jederzeit haben können und es bleibt bei Assistenzsystemen.
"Halbschwanger" gibt es auch nicht.
 
Bei Autonomie Stufe 5, also Vollautomatik würde ich den Fahrer außen vor lassen. Denn nur dann macht es überhaupt Sinn ein solches Auto zu entwickeln und nur dann sind viele Anwendungszwecke überhaupt denkbar, z.B. reine Transportfahrten ohne Menschen an Board. Auch fahrerlose Taxis/Busse wären sonst nicht möglich.

Dem Fahrzeughalter kann man nicht zumuten die Korrektheit der verwendeten Algorithmen zu überprüfen. Ihn kann man nur dazu verpflichten für regelmäßige Inspektionen / Wartung zu sorgen. Der Hauptverantwortung liegt mMn beim Hersteller. Die Software-Entwickler würde ich wie andere Zulieferer auch betrachten. Sie haften für ihr Produkt und wenn dem Hersteller Schäden durch ein fehlerhaftes Produkt entstehen (z.B. dadurch, dass er Schadensersatz leisten muss), kann er sich diesen ggf. vom Zulieferer zurückholen.

Was die Ethikfrage angeht, würde ich es ganz einfach halten. Ist ein (menschliches) Hindernis im Weg wird gebremst, gibt es eine "relativ" sichere Ausweichmöglichkeit, so wird diese genutzt, wenn nicht dann eben nicht. Das wäre auch im Einklang mit den Ergebnissen der Ethik-Kommission, die genau diese Fragen untersucht haben.
 
Zuletzt bearbeitet: (Grammatik)
Limit schrieb:
Was die Ethikfrage angeht, würde ich es ganz einfach halten. Ist ein (menschliches) Hindernis im Weg wird gebremst, gibt es eine "relativ" sichere Ausweichmöglichkeit, so wird diese genutzt, wenn nicht dann eben nicht. Das wäre auch im Einklang mit den Ergebnissen der Ethik-Kommission, die genau diese Fragen untersucht haben.

So sehe ich das auch, deshalb wird auch in Deutschland kein gekapertes Flugzeug abgeschossen. Selbst dann nicht, wenn es auf ein volles Fußballstadion zusteuert.

Ich zitiere da nochmal meinen eigenen Beitrag etwas zuvor:
Wenn Ausweichen gefahrlos möglich, ist dies zu tun. Ansonsten drauf halten. Das ist immer besser als unkrontrollierte Ausweichmanöver, bei dem via Kettenreaktion immer mehr Menschen beteiligt werden die ihrerseits unkrontrolliert ausweichen müssen, worauf andere wieder ausweichen usw...

Ich möchte auch nicht die Entscheidung treffen wollen, welches Leben unwichtiger sein soll.

Und je weniger Fahrzeuge manuell bedient werden, desto weniger Unfälle sollte es geben. Die aktuelle Unfallstatistik mit toten stehen aktuell positiv da für autonome Fahrzeuge. Der Tesla-Fahrer ist auch nur ums Leben gekommen, weil das Fahrzeug den LKW, welcher ihm die Vorfahrt genommen hatte, nicht erkannte. Somit kein "Fahr-Fehler" seitens der Software.
 
Zurück
Oben