Was sind diese Gründe?
Wir haben die Sorge, in einer smarten Alltagswelt aufzuwachen, in der es die Technik besser macht als wir selbst, aber wir allmählich die Kontrolle verlieren. Zum Unwohlsein gehört auch, dass Menschen an smarten Maschinen gemessen, also Perfektionsansprüche gestellt werden, denen wir nicht gewachsen sind. In einer solchen Welt wäre es denkbar, dass immer mehr Entscheidungen an Künstliche Intelligenz übertragen sind. In den USA gibt es beispielsweise die Diskussion, ob Maschinen die besseren Richter sein können. Sie lassen sich nicht von Vorurteilen oder Stimmungen leiten. Im Moment ist die Technik in vielen Bereichen noch sehr anfällig. Daher ist es offensichtlich, dass der Mensch das letzte Wort behalten muss. Aber wir stehen erst am Beginn einer Entwicklung.
Wer wäre haftbar, wenn ein selbstfahrendes Auto einen Unfall verursacht?
Im Grundsatz ist die Antwort einfach: Steuert das Fahrzeug sich selbst, dann haftet der Hersteller oder der Betreiber der technischen Systeme. Übernimmt der Mensch das Steuer, haftet die Fahrer. Schwierig ist die Abgrenzung. Beim automatisierten Fahren auf Level 3 dürfen Autofahrer die Aufmerksamkeit vorübergehend vom Verkehr abwenden. Sie müssen das Steuer aber wieder übernehmen, wenn das Fahrzeug sie dazu auffordert. Aus juristischer Sicht kommt es darauf an, eindeutige Übergabezeitpunkte zu definieren. Vermutlich wird man Autos ähnlich wie Flugzeuge mit einer Black Box ausstatten müssen, die Fahrdaten aufzeichnet. So kann man nach einer Kollision analysieren, wer im entscheidenden Moment die Verantwortung hatte.