Es stimmt zwar, dass Maschinen in der Theorie keinen Fehler machen ,aber man darf nicht vergessen, dass die autonomen Fahrzeuge von Menschen entwickelt wurden. Das heißt, dass die Autos inhärent fehlerhaft sein können (mal abgesehen davon, dass auch jederzeit mal ein Hardwareschafen vorliegen kann). In der Praxis werden viele Verkehrsregeln auch gar nicht eingehalten, weil es manchmal sinnvoller sein kann sie zu ignorieren.
Außerdem denke ich, dass Maschinen andere Arten von Fehler machen als Menschen. Kein geistig gesunder Mensch würde z.B. auf die Idee kommen, in einer Spielstraße 130 zu fahren, weil die Umwelt offensichtlich suggeriert, dass diese Straße für das Tempo nicht ausgelegt ist, selbst wenn man das Schild übersehen hat oder es fehlt. Ein software-gesteuertes Auto könnte dagegen aufgrund eines Programmierfehlers z.B. denken, dass es gerade auf einer Autobahn ist, weil es Situationen völlig anders (und meist für Menschen nicht nachvollziehbar) bewertet. Andere Sachen wie Parkrempler sind mit Sensoren natürlich überhaupt kein Problem, wo hingegen die meisten Menschen sich hier leicht verschätzen können.
Außerdem darf bei sowas auf keinen Fall an Sicherheitsmechanismen gespart werden. Die Horrorvorstellung, dass irgendein Hacker die Kontrolle über tausende von Autos erlangt, sollte man durchaus ernst nehmen. An Sicherheit wird meistens gespart, weil sie in der Regel nicht direkt greifbar ist und man dem Kunden dafür nicht zusätzliches Geld abnehmen kann. Womit man dann auch wieder bei der Frage der Haftbarkeit im Unfall-Fall (komisches Wort) wäre.
Ich kann mir durchaus vorstellen, dass einige lieber gestern als morgen auf einen komplett autonomen Verkehr umstellen wollen, aber ich sehe da noch so viele grundlegende Probleme, dass das ganze erst in ferner Zukunft wirklich praxistauglich ist.