News Autonomes Fahren: Haftungsfrage in der Koalition noch nicht geklärt

Daniel schrieb:
Dies sieht Maas jedoch anders und will die Rechtslage durch Einzelfallentscheidungen der Gerichte klären lassen. Damit hält der Justizminister an der bestehenden Struktur fest, denn auch jetzt schließen die Gesetze eine Haftung für Assistenzsysteme durch den Fahrer nicht aus. Stattdessen muss der Fahrer im Zweifel auf dem zivilrechtlichen Weg die Haftung durch den Hersteller klären lassen.

typische Klientelpolitik für Anwälte...
 
Eusterw schrieb:
Warum haftet nicht wie heute schon, einfach der Fahrer, bzw. als Ersatz daraus zwingend die KFZ-Haftpflichtversicherung?

warum sollte der "fahrer" haften, wenn das system wegen bugs etc. scheisse baut? das wird noch schöne gerichtsprozesse geben zwischen versicherten, versicherungen und hertstellern.
 
Die ganzen konstruierten Vorfälle auf den vorherigen Seiten sind doch lachhaft. Als ob ein menschlicher Autofahrer in solch einer Situation klar und logisch handeln würde :freak: Wenn auf einmal Kind auf die Straße läuft, da hast du vielleicht noch 2 sek Reaktionszeit, da handelt der Körper automatisch oder gar nicht mehr vor Entsetzen.

Und im Übrigen: ich fahr lieber das Kind um, das so dumm war auf die Straße zu rennen, als die unschuldigen Erwachsenen auf dem Gehweg.
 
Black_Eagle schrieb:
@ZeT und JenZor:

Genau!
Es gibt vieles (mehr) zu bedenken.
Wie das Auto mit Situationen umgeht.

Beispielsweise fährt das Auto auf eine Menschenmenge zu. Hangböschung links, Fußweg mit einem kleinen Kind rechts. Bremsen nicht mehr möglich. Was jetzt?
a) In die Menge Fahren
b) Nach Rechts ausweichen und das eine Kind überfahren
c) Nach Links ausweichen und die Böschung herunterstürzen (damit die Insassen hopps gehen lassen)

Ein Computer ist nicht Intelligent. So etwas muss irgendwie einprogrammiert werden. Und jemand muss sowas entscheiden..


Sehr philosophische Fragen die aufkommen.

Bei diesen recht konstruierten Situationen, stellt sich aber auch die Frage, wie lange man als menschlicher Fahrer darüber nachsinnen würde, für welche Option man sich entscheidet. Ganz abgesehen davon: Wann gibt es Situationen, bei der eine größere Menschenmenge ordnungsgemäß eine Straße überqueren dürfte, die sehr schlecht einzusehen ist und man aber gleichzeitig so schnell fahren darf und kein Fußgängerüberweg angekündigt wird, dass man nicht mehr bremsen könnte... Und wenn es solch eine Situation gibt, wäre es ein Fehler in der Verkehrsplanung.

Ich stimme zwar zu, dass die Haftungsfrage natürlich wichtig ist. Autonomes Fahren aber nur wegen der Haftung und "Der Computer Entscheidet über Leben und Tod" zu verteufeln finde ich nicht richtig. Zum Einen vertraut man doch schon viele Bereiche seines Lebens Computern - oder Maschinen - an. Hey, selbst in herkömmlichen Autos verlässt man sich darauf, dass die Bremsen funktionieren. Und sei es nur um ganz normal an einer Ampel stehen zu bleiben, mal ganz abseits von Unfallszenarien. Leute verlassen sich auch darauf, dass wenn man den Arm in eine sich schließende Bus/Bahn Tür hält, diese stoppt und nicht den Arm zerdrückt oder auch einfach nur beim Abfahren fest hält. Das ist genauso eine Entscheidung, die von irgend einem Mikroprozessor erledigt wird. Vielmehr sollte man die Chancen sehen, viele gefährliche Situationen durch menschliches Versagen zu vermeiden. Wie oft wäre ich schon bei der Überquerung einer Kreuzung auf dem Rad fast umgesäbelt worden, nur weil der Gegenüber "vergessen" hat seinen linken Blinker zu setzen, ich daraufhin zu gefahren bin und der Gegenüber den winzigen Radfahrer eben mal übersehen hat...

Ebenso albern wäre es zu erwarten, dass der Fahrer bei einer autonomen Fahrt ständig aufmerksam ist, wo es doch fast nichts zu tun gibt. Dann müsste man wie beim ICE Totmannschalter einbauen... Und er müsste die Hände immer am Lenker, die Füße immer an den Pedalen haben... Dann könnte man ja auch gleich selbst fahren. Vor allem: woran mache ich es fest, ob jetzt wirklich die Zeit zum Eingreifen gekommen ist oder die Elektronik, mit ihrer besseren Datenlage, nicht doch eine bessere Entscheidung trifft? Woran merke ich also, dass der Algorythmus gerade versagt hat?

Vielleicht wird die Haftungsfrage auch erst mal nur schrittweise geklärt. Man könnte z.B. für Autobahnfahrten den Fahrer aus der Haftung nehmen, während er in der Stadt selbst verantworlich ist / selbst fahren MUSS, bis das Vertrauen in die Technik da ist bzw. auch die Technik selbst weiter voran geschritten ist. Schließlich sollte man auch nicht vergessen, dass die Technologie zwar einen sehr guten Stand erreicht hat, aber sicherlich immer noch Potential für Verbesserungen besteht. Ein Traum wäre es schon. Vielleicht wäre der Besitz eines PKWs dann auch nicht mehr zwingend notwendig. Wenn man auf der Arbeit angekommen ist, könnte man seinen Wagen ja als Taxi durch die Stadt fahren lassen um andere zu transportieren. So würde man einen PKW dann auch zeiteffizient nutzen und nicht nur Parkplätze 20 Std am Tag belegen. Quasi Carsharing+
 
ZeT schrieb:
Drei Leute laufen über die Straße - 2 Kinder stehen am Rand und warten.

Ausweichen und die Kids über den Haufen fahren oder die drei Erwachsenen vor dir?

Mit einem ähnlichen Gedankenexperiment hatten sich bereits die Juristen auseinander zu setzen (sog. Weichenstellerfall). Das Recht auf Leben und die Menschenwürde verbieten es dabei, dass man hier eine quantitative Abwägung vornimmt (man kann Menschenleben nicht gegeneinander abwägen, zwei Menschenleben haben nicht mehr Wert als eines).

Und mit einem qualitativen Ansatz wird es, wie Du bereits angesprochen hast, auch nicht einfacher.

Aber abgesehen von solchen Extremsituationen glaube ich auch, dass autonomes Fahren das Potential hat, Verkehrsunfälle insgesamt zu senken. Bis dahin ist es aber noch ein langer Weg.
 
FAT B schrieb:
wie denkst du da jetzt drüber wenn dich die polizei anruft und dir mitteilt, dass dein kind von einem autonomen auto überfahren wurde, weil es die insassen nicht gefährden wollte und die vier kriminellen die am strassenrand ne oma abgezogen haben für eine menschengruppe gehalten hat?

Und wenn das Kind von nem Menschen überfahren wurde machts das besser?
Wie soll ein autonomes Fahrzeug, das sich immer Ordnungsgemäß verhält überhaupt in solch eine Situation kommen? Menschen erscheinen nicht aus dem Nichts und dass man innerhalb des Erfassungsbereiches Bremsen können muss ist dem Auto bekannt.

Dieses ganze Geplänkel mit solchen Situationen ist doch lächerlich, fakt ist dass Menschen viel unzuverlässiger sind - das autonome Fahrzeug macht keine Geisterfahrt, fährt nicht übermüdet oder besoffen, liest nicht nebenbei oder ist durch sonst was abgelenkt.


Selbst wenn das Auto mal ne falsche Entscheidung trifft, wird das in Summe viel weniger Leben kosten als die Fehler die wir machen und darum gehts am Ende des Tages.

Die Frage ob ein Auto im Notfall den eigenen Fahrer opfern darf ist natürlich ein Dilemma, aber dieses hat jeder Mensch auch, das macht nicht die Technik an sich schlecht.


Eisbrecher99 schrieb:
Wenn wir schon bei "falschen" Entscheidungen sind, dann ist dieses Video hier interessant, in dem ein Tesla Model S in der Schweiz einen Auffahrunfall verursacht.

Tja die Technik hat auch nich ihre macken, in so ner situation drauf zu warten das das Auto in letzter Sekunde bremst ist aber auch etwas fahrlässig - sobald man merkt das dass auch nur eng werden könnte langt man doch selbst drauf, sind ja wie gesagt noch keine autonohmen fahrzeuge sondern lediglich ne ansammlung von Assistenzsystemen.

Gibt aber umgekehrt auch Videos wo ein Tesla nen Unfall verhindert weil er nem Auto das aus dem toten Winkel kommt ausweicht usw.
 
Zuletzt bearbeitet:
ZeT schrieb:
@Madman1209

Das wird noch seeeeehr lange dauern.

Ein Roboter/PC ist:
- nicht betrunken
- immer ausgeschlafen
- chattet nicht per Whatsapp
- schaut keinen Frauen hinterher
- ist nicht abgelenkt
- ist nicht von Adrenalin/Testosteron getrieben


Die bisherigen Versuchen zeigen, dass autonome Fahrzeuge bereits jetzt weniger Unfälle als der Mensch verursachen. Es wird also nicht lange dauern. Es ist bereits so weit und du hast es einfach nur nicht gemerkt
 
Lemiiker schrieb:
Und im Übrigen: ich fahr lieber das Kind um, das so dumm war auf die Straße zu rennen, als die unschuldigen Erwachsenen auf dem Gehweg.

Auch wenns dein eigenes Kind ist?

@skore1

Auf Autobahnen oder Bundesstraßen kann ich mir das auch vorstellen. Aber im Stadtverkehr niemals. Spielstraßen, verkehrsberuhigte Bereiche wo man als Autofahrer damit rechnen "muss" das Kinder einem unbedacht vor das Auto springen, Smartphonezombies, Ramboradler und was es da sonst noch alles gibt.
 
Zuletzt bearbeitet:
Bei den ganzen Gedankensituationen wage ich es zu bezweifeln auch als Mensch die "richtige" Entscheidung zu treffen. Mal abgesehen davon, wenn mir jemand innerorts vor`s Auto rennt, bleibt eh nur Zeit für eine Vollbremsung. Bei dem Tempo Bremsen und gleichzeitig Ausweichen bringt doch nicht wirklich was. Da wäre es von Vorteil ein Fahrzeug zu haben, dass Personen mit der Kamera rechtzeitig erkennt (wie Beispielweise Mercedes).

Und der Typ mit seinem Tesla hat selbst Schuld. Falls er die Bedienungsanleitung gelesen hat, wüsste er dass sein ACC keine stehenden Objekte erkennt.
 
Cokocool schrieb:
Ein Roboter/PC ist:
- nicht betrunken
- immer ausgeschlafen
- chattet nicht per Whatsapp
- schaut keinen Frauen hinterher
- ist nicht abgelenkt
- ist nicht von Adrenalin/Testosteron getrieben


Die bisherigen Versuchen zeigen, dass autonome Fahrzeuge bereits jetzt weniger Unfälle als der Mensch verursachen. Es wird also nicht lange dauern. Es ist bereits so weit und du hast es einfach nur nicht gemerkt

Die Technik kann noch so weit sein, die Infrastruktur ist es nicht und dann gibt das nix mit 100% autonomen Fahren. Dafür muss sichergestellt sein, dass keine Spaßvögel einfach Schilder aufstellen, die die Kiste dann liest und ab gehts in den nächsten Unfall, es muss sichergestellt sein, dass man sich nicht super einfach in die Technik hacken kann. Tesla Fahrzeuge sind bereits gehackt worden, nur ist das auch kein 100% autonomes Fahren. Heutige Fahrzeuge haben viel zu viele Elektronikfehler, gerade die Deutschen, als dass man sich da auf ein Auto verlassen könnte. Daher auch die bewusste Pflichtvorgabe, dass der Fahrer IMMER die Kontrolle behalten kann.

Münz mal die Anzahl der Elektronikfehler auf autonomes Fahren um, ja heidewitzja, wenn da jeder Defekt einen Crash nach sich zieht, explodieren die Statistiken geradewegs.

Träumen könnt ihr ja, selbst wenn die Fahrzeuge in 50 Jahren selber fahren könnten, an der Gesetzgebung wird es schlicht und einfach scheitern, dass du dich in deinem Fahrzeug zurücklehnst. Du wirst immer voll bei der Sache bleiben müssen.

Die bisherigen Versuche zeigen auch absolut gar nichts. Wie viele von den Fahrzeugen fahren denn rum und wie viele Menschen im Vergleich? Der Vergleich hinkt hinten und vorne.

Es sterben im Jahr auch wesentlich weniger Motorradfahrer als Autofahrer pro Jahr, also ist das Motorrad der Logik nach auch wesentlich sicherer, als Autos.
 
Zuletzt bearbeitet:
viele bringen hier immer dass Beispiel, dass ein Menschlicher Fahrer in diesen Extremsituationen auch nicht richtig reagieren würde.

Dass mag stimmen, aber ist in Anbetracht der anderen Situation bei autonomen Fahrzeugen falsch.
Hier findet die Entscheidung über leben und tot nicht in der extremsituation gefällt, sondern schon jahre vorher in einem Klimatisierten Büro an einem PC.
Hier liegt dass Problem. Einem Fahrer kann man nicht wirklich vorwürfem achen wenn er in einem Solchen fall (Kind springt auf die Straße, Fußgänger am Straßenrand...) "falsch" reagiert.
Da die Ing. allerdings mehrere Wochen/Monate/jahre zeit hatten sich mit diesem Problem zu befassen, ist es zu einer philosopischen frage geworden, die eine antwort benötigt.
Denn ein Auto dass sich einfach "abschlatet" bei einer solchen Situation ist auch nicht der richtige weg.
 
Hi,

@Iconoclast

Dafür muss sichergestellt sein, dass keine Spaßvögel einfach Schilder aufstellen, die die Kiste dann liest und ab gehts in den nächsten Unfall

wie stellst du es denn heute sicher, dass nicht jemand ein Schild aufstellt und ein Mensch das fehlinterpretiert und einen Unfall verursacht?

Träumen könnt ihr ja, selbst wenn die Fahrzeuge in 50 Jahren selber fahren könnten, an der Gesetzgebung wird es schlicht und einfach scheitern, dass du dich in deinem Fahrzeug zurücklehnst. Du wirst immer voll bei der Sache bleiben müssen.

das ist doch Nonsens, Gesetze kann man ändern, Gesetze haben sich in der Vergangenheit schon geändert und werden das auch in Zukunft tun.

Die bisherigen Versuche zeigen auch absolut gar nichts. Wie viele von den Fahrzeugen fahren denn rum und wie viele Menschen im Vergleich? Der Vergleich hinkt hinten und vorne.

und bei wie vielen Unfällen ist der Mensch aktuell schuld?

Die bisherigen Versuche zeigen auch absolut gar nichts. Wie viele von den Fahrzeugen fahren denn rum und wie viele Menschen im Vergleich? Der Vergleich hinkt hinten und vorne.

Es sterben im Jahr auch wesentlich weniger Motorradfahrer als Autofahrer pro Jahr, also ist das Motorrad der Logik nach auch wesentlich sicherer, als Autos.

von dem Wort "prozentual" hast du offenbar noch nie etwas gehört...

@M1ch1

viele bringen hier immer dass Beispiel, dass ein Menschlicher Fahrer in diesen Extremsituationen auch nicht richtig reagieren würde.

Dass mag stimmen, aber ist in Anbetracht der anderen Situation bei autonomen Fahrzeugen falsch.
Hier findet die Entscheidung über leben und tot nicht in der extremsituation gefällt, sondern schon jahre vorher in einem Klimatisierten Büro an einem PC.

auch für dich nochmal: nein, wird es nicht. Genauso wie du nicht an jeder Kreuzung in Deutschland gewesen sein musst, um hier fahren zu dürfen wenn du einen gültigen Führerschein hast. Das nennt man Intelligenz und Lernen!

Hier liegt dass Problem. Einem Fahrer kann man nicht wirklich vorwürfem achen wenn er in einem Solchen fall (Kind springt auf die Straße, Fußgänger am Straßenrand...) "falsch" reagiert.

und wenn er übermüdet war? Oder betrunken? Oder bewusstlos wurde? Oder zu alt war? Wieso darf ich da einem Menschen keinen Vorwurf machen?

VG,
Mad
 
Zuletzt bearbeitet:
Iconoclast schrieb:
Die Technik kann noch so weit sein, die Infrastruktur ist es nicht und dann gibt das nix mit 100% autonomen Fahren. Dafür muss sichergestellt sein, dass keine Spaßvögel einfach Schilder aufstellen, die die Kiste dann liest und ab gehts in den nächsten Unfall

Wenn du jetzt ein Tempo 30 + Scharfe Kurve Schild durch ein Tempo 100 ersetzt dann hast du 1:1 die selbe Situation, ob das Fahrzeug autonom fährt ist irrelevant. Im Gegenteil das Auto ist nicht so naiv und verlässt sich "blind" auf Schilder wie mancher Autofahrer sondern bremst im Zweifel aufgrund seiner Sensordaten.

Wenn man das zuende denkt ist es sogar so das schilder für einen komplett vollautonohmen Verkehr sogar überflüssig sind.
Die dienen zur Orientierung und Strukturierung für uns Menschen, Autonome Fahrzeuge können selbst berechnen wie schnell angemessen ist, können selbst kommunizieren wer am besten zuerst fährt usw usw.
Aber das ist dann Autonomes Fahren 2.0 und dauert wirklich noch lange.



Iconoclast schrieb:
, es muss sichergestellt sein, dass man sich nicht super einfach in die Technik hacken kann.

Auch das ist unabhängig vom autonohmen Fahren, es sind auch bereits die Bremsen und Assistenzsysteme von aktuellen Autos gehackt worden - schlimmer als Zugriff auf Bremse, Gas und Lenkung wirds auch bei nem Autonomen Fahrzeug nicht.


Iconoclast schrieb:
Münz mal die Anzahl der Elektronikfehler auf autonomes Fahren um, ja heidewitzja, wenn da jeder Defekt einen Crash nach sich zieht, explodieren die Statistiken geradewegs.

Völlig sinnloser Vergleich, heute bedeutet ein Fehler am Scheibenheber nicht dass das ESP nicht mehr geht und morgen bedeutet er ebensowenig dass der Autopilot nicht mehr geht.

Iconoclast schrieb:
Träumen könnt ihr ja, selbst wenn die Fahrzeuge in 50 Jahren selber fahren könnten, an der Gesetzgebung wird es schlicht und einfach scheitern, dass du dich in deinem Fahrzeug zurücklehnst. Du wirst immer voll bei der Sache bleiben müssen.

Und da irrst du dich. LKWs werden die ersten sein bei denen du dich nicht nur zurück lehnen darfst sondern gar nicht mitfahren musst, hier gehts um ein Milliardengeschäft - das kommt so sicher wie sonstwas und schneller als du denkst.
Nachdem die LKW dann als Türöffner gedient haben sind die Hürden für PKWs recht gering.
 
Zuletzt bearbeitet:
ZeT schrieb:
... Aber im Stadtverkehr niemals. Spielstraßen, verkehrsberuhigte Bereiche wo man als Autofahrer damit rechnen "muss" das Kinder einem unbedacht vor das Auto springen, Smartphonezombies, Ramboradler und was es da sonst noch alles gibt.

Aber auch die kann das autonome Fahrzeug im "Auge" behalten. Besser als der Mensch, hier gibt es z.B. keinen toten Winkel, gestressten Fahrer, "Prollraser", etc. und gerade bei den Geschwindigkeiten die in der Stadt vorherrschen (sollten) ist das doch beherrschbar.
Klar in einer nicht homogenen Umgebung (die sicher noch lange gegeben sein wird) gibt es immer die Gefahr des anderen Verkehrsteilnehmer, die ist aber aktuell auch gegeben.
 
Wie manche hier meinen sie würden damit Leben können einen Menschen zu überfahren, saudummes Geschwätz einfach, sorry.
Egal ob autonom oder nicht...

Autonomes Fahren kann es nur geben wenn kein Eingreifen möglich ist.
Eingreifen im Sinne der Insassen der Fahrzeuge.

Es muß ein Weltweites Leitsystem aufgebaut werden in dem alles automatisiert abläuft. Bei kriminellen Vorfällen muß dann jemand in der Lage sein, daß Fahrzeug gezielt zur nächsten Polizeistation oder was auch immer, umzuleiten.
Das Strassensystem muß weltweit gleich sein.
Es muß einen Standard geben, eine Software, jeder Fahrzeughersteller muß sich 100% daran halten, keine Abweichung.
Niemand mehr darf ein Fahrzeug aus dem Fahrzeug steuern können.

Wenn man nur mal an die Infrastruktur denkt, das wird auch in 100 Jahren nichts. Was dafür alles gebaut werden müsste...

Ein Mischbetrieb wird niemals möglich sein, weil sich dann jeder versucht aus der Verantwortung zu stehlen.

Nur die Punkte oben lassen daraus schliessen, das sich die Hersteller von Fahrzeugen niemals einigen können, weil jeder meint seins sei besser.

Wollen Menschen dann noch ein Fahrzeug fahren das sie nicht selbst steuern können? ohmygod, meine Freiheit ist bedroht...

Mahlzeit
 
Zuletzt bearbeitet:
Splatter0815 schrieb:
Ein Mischbetrieb wird niemals möglich sein, weil sich dann jeder versucht aus der Verantwortung zu stehlen.

Erklär das mal der Flotte an Google Autos die seit Jahren vollautonom in den USA fährt, oder den LKWs die vor kurzem ihre Testfahrt quer durch Europa gemacht haben.

Ihr macht alle einen entscheidenen Fehler - ein 100% perfektes autonomes Fahren wird man nicht in unseren Verkehr integrieren können. Aber ein autonomes Fahren das wenigstens sicherer ist als manuelles Fahren sehr wohl.
 
Warum muss alles gleich sein? Du kannst ja auch in anderen Ländern Autofahren, musst dich eventuell erst daran gewöhnen.
Im autonomen Fahrzeug gibt es dann halt eine Konfiguration für Land x und Land y.

Das ist doch alles keine Science Fiction mehr sondern Realität. Es sind doch schon längst vollautonome Fahrzeug in der Erprobung, im "echten" Straßenverkehr.

@NOD: Genau das ist der Punkt. Es wird auch Fehler in der Software geben und auch dadurch Todesfälle. Aber in der Regel wird so ein Fehler dann behoben und tritt nicht wieder auf.
Ich möchte nicht wissen, wie viele Flugunfälle es ohne den Autopiloten wahrscheinlich geben würde.
 
Zuletzt bearbeitet:
TrueAzrael schrieb:
Welche Büchse öffnet man mit einer Blackbox im Auto, die die letzten x Kilometer bzw. Stunden alle Sensordaten speichert und alles darüber hinaus verwirft. Auslesbar nur wenn ausgebaut. Also vermutlich nur im Falle eines Unfalls.

Ist die Frage ernst gemeint? In Deutschland wird immer noch über die Streckenabschnittskontrolle diskutiert weil diese mit diversen Datenschutzgesetzen nicht im Einklang steht und Dash Cams werden nur unter speziellen Bedingungen als Beweismittel anerkannt.

Aber Du willst "mal eben" Sensordaten speichern. Ja ne, ist klar. Ich glaube, Dir ist nicht ganz so klar, was das eigentlich bedeutet...
 
Ich denke die hier genannten Extremsituationen sind für die eigentliche Frage, in dem es im Artikel geht nur wenig relevant. Denn ob ein Mensch in einer vergleichbaren Situation richtig/falsch/überhaupt handeln/entscheiden könnte ist finde ich relativ egal.

Es geht hier darum eine Gesetzesgrundlage zu schaffen, wer im Zweifel zu haften hat, wenn jemand/etwas zu Schaden kommt. Ob das nun ein Extremfall ist wo man zwischen zwei Übeln "wählen" muss, oder ob man nur beim autonomen Einparken nen Hydranten anfährt ist dabei doch relativ wurscht. Es geht hier nur um die Frage: wenn man ein "autonomes" Fahren einführt, bei wem liegt dann die prinzipielle "Bringschuld"? Der Vergleich, ob ein Mensch eine ähnliche Situation besser/schlechter meistern würde, wenn es kein autonomes Fahren gäbe ist hier finde ich ziemlich irrelevant.

Ich persönlich finde, wenn man autonomes Fahren einführt sollte prinzipiell bei Unfällen erst mal der Hersteller oder dessen Versicherung haften, egal ob ich als Fahrer im Notfall die Möglichkeit habe einzugreifen oder nicht. Denn: wenn mir als Kunde ein autonomes und sicheres Fahren versprochen wird, das obendrein noch vermarktet wird à la "dann können Sie sich während dem Fahren entspannt anderen Dingen widmen" erwarte ich, dass das auch in 99,99999...% so funktioniert.
Diese Ausrede von wegen "der Fahrer kann zur Not selber eingreifen" ist doch irgendwo paradox, denn wozu führe ich denn autonomes Fahren ein, wenn in brenzligen Situationen dann trotzdem noch erwartet wird, dass der Autofahrer selbst hochkonzentriert handeln muss. Ich würde behaupten in den Extremfällen, wie sie hier geschildert werden würde auch ein Mensch einfach "spontan und unüberlegt" reagieren. Ob er dann die Kinder links oder die Menschengruppe rechts überfährt oder sich lieber opfert und geradeaus die Klippe runter fährt ist in meinen Augen einfach "Zufall" bzw. die Ausprägung des jeweiligen individuellen Überlebensinstinkts und dem Reaktionsvermögen in diesem Moment geschuldet, da wird es keine allgemeine Faustregel "ein Mensch handelt (immer) so und so" geben.

Daher finde ich: Selber eingreifen ermöglichen schön und gut, aber prinzipiell sollte der Hersteller mit seinem Kopf dafür haften/stehen, dass das autonome Fahren funktioniert und den Straßenverkehr sicherer macht. Diese Beweislast sollte nur dann auf den Fahrer übertragen werden können, wenn eindeutig nachgewiesen werden kann, dass dieser durch manuelles Eingreifen den Schaden hätte verhindern können oder nachgewiesen wird, dass die Gefahrensituation überhaupt erst durch ein manuelles Eingreifen entstanden ist (ganz banales Beispiel: Fahrer ist besoffen und schaltet den Autopilot willentlich ab und fährt dann selber gegen ne Wand). Beides wird relativ schwer zu beweisen sein, so dass hier nochmal der Fahrer dadurch rechtlich "abgesichert" wird.
 
ichwillgewinnen schrieb:
Es geht hier darum eine Gesetzesgrundlage zu schaffen, wer im Zweifel zu haften hat, wenn jemand/etwas zu Schaden kommt. Ob das nun ein Extremfall ist wo man zwischen zwei Übeln "wählen" muss, oder ob man nur beim autonomen Einparken nen Hydranten anfährt ist dabei doch relativ wurscht. Es geht hier nur um die Frage: wenn man ein "autonomes" Fahren einführt, bei wem liegt dann die prinzipielle "Bringschuld"? Der Vergleich, ob ein Mensch eine ähnliche Situation besser/schlechter meistern würde, wenn es kein autonomes Fahren gäbe ist hier finde ich ziemlich irrelevant.


Letztendlich wird der Fahrer eine Versicherung abschließen müssen und die wird zahlen. Man könnte natürlich auch die Hersteller in die Verantwortung nehmen, aber auf wen wälzen die dann die Unkosten ab? So oder so, am Ende wird der Fahrer in Form von Versicherungsbeiträgen zahlen, mehr oder weniger direkt. Aber wenn es tatsächlich weniger Schäden gibt, könnten die Versicherungsbeiträge durchaus niedriger sein als heute - von daher sehe ich da kein so großes Problem.
 
Zurück
Oben