Ein autonomes Fahrsystem wird niemals fehlerfrei sein, da es viel zu komplex ist, das ist Fakt.
Die Frage ist, ab welcher Zuverlässig man beschließt/erlaubt es dennoch einzusetzen. Im Wesentlichen werden Statistiken zu diesen Entscheidungen herangezogen werden, als wichtigste Grundlage aller weiterführenden Entscheidung. Da Aspekte der Ethik und der Moral nicht direkt in die Technik einprogrammiert werden können, muss auch diese Frage mit irgendeiner Methode „berechnet“ werden, möglicherweise wird sogar in unentscheidbaren Situationen eine Zufallsberechnung eingebaut, deren Wichtungsparameter am Ende doch wieder „geeignet“ (gesetzlich, im Ermessen der Hersteller?) festgelegt werden müssen.
Daneben wird man jede Menge Daten zur Verfügung haben, die statistische Auswertungen für alle denkbaren Zusammenhänge erlauben. Dadurch wird man Schlüsse ziehen, die wiederum irgendwie qualifiziert in die „Verbesserung“ der bestehenden Software eingebaut werden (müssen?). Man wird z. B. den Fahrkomfort gegen die Sicherheit abwägen müssen - schnelleres fahren, abrupteres Bremsen, häufigeres Spurenwechsel usw. - vielleicht wird es sogar einen Regler für die gewünschte Zielerreichungsdauer - den wiederum in einem irgendwie bemessenen Min-/Max-Spielraum - geben?
Welche Leute treffen nun all diese Entscheidungen, die mit dem sich kontinuierlich Ändernden Stand immer wieder neu überdacht und neu entschieden werden müssen?
Fahrzeughersteller, Softwarezulieferer, Politiker, Versicherungen, Anwälte, Staranwälte, amerikanische Anwälte? Nach welchen Aspekten?Inwieweit werden finanzielle Gesuchtspunkte bei den Entscheidungsfindungen eine Rolle spielen: Profit, Haftung, Schadensregulierung usw.?
Ich denke, die Technik und die Software zu entwickeln dürfte das geringste Problem sein, denn die wird immer „funktionieren“. Nur - was genau heißt eigentlich in diesem Zusammenhang „funktionieren“?