Wenn Sie den juristischen Fortschritt in diesem Bereich mit dem Ausland vergleichen, etwa den USA, wo steht Deutschland Ihrer Ansicht nach?
Wir sind weiter als die USA und haben eine tragfähige Regulierung. Natürlich wird vieles im Detail noch von Gerichten ausdifferenziert werden müssen. Aber das ist bei jedem Gesetz so. Die Amerikaner stehen vor dem besonderen Problem, dass jeder Bundesstaat ein eigenes Rechtssystem hat. Ein übergreifendes amerikanisches Recht gibt es gar nicht. Die Staaten sind da unterschiedlich weit. Kalifornien ist natürlich weit fortgeschritten und wir können einiges davon abkupfern. Umgekehrt nehmen die Amerikaner auch wahr, was hier gemacht wird. Ich vermute, der Regelungsansatz für die Bestimmung von Sorgfaltspflichten von Fahrern im Straßenverkehr wird letztlich weltweit recht ähnlich sein.
Welche Bringschuld sehen Sie bei den Herstellern auf dem weiteren juristischen Weg?
Die Autohersteller sollten ihre technische Forschung früher der Öffentlichkeit bekanntgeben. Wenn man Konflikte mit dem Recht oder Vertretern der Ethik vermeiden will ist es sinnvoll, frühzeitig relevante Probleme zu benennen und diskutieren zu lassen. Ich erinnere da an das Dilemma-Problem: Wen soll das Auto überfahren, wenn es zwei Richtungen zur Auswahl hat. Das war lange in den Zeitungen ein Mega-Thema, das der Industrie geschadet hat. Hätte man sich um solche Fragen rechtzeitig gekümmert und Antworten geben können, wäre es dazu nicht gekommen. Zum Glück hat das Verkehrsministerium klug reagiert und die Ethik-Kommission gegründet. Darin haben wir einen tragfähigen Vorschlag erarbeitet, der sicherlich in vielerlei Hinsicht angreifbar und verbesserungsfähig ist. Der aber zumindest zeigt, dass man das Problem lösen kann. Seit der Bericht auf dem Markt ist, ist das Thema aus den Medien verschwunden.
Aus der Autoindustrie ist bei der Frage um die juristischen Leitlinien oft zu hören, man warte ab, was vorgegeben wird und erfülle dann diese Vorgaben. Die Branche selbst habe dabei nicht mitzureden. Ist diese passive Haltung ein Problem?
Ja, das sehe ich als Problem. Wir leben in einer Demokratie, natürlich sollten die Autokonzerne frühzeitig mitreden und mitgestalten. Über Lobbyarbeit, die ich gar nicht negativ bewerten will, tun sie das auch. Aber man sollte auch die öffentliche Diskussion stärker mitgestalten und sich nicht in eine Abwehrhaltung zurückziehen und sagen: 'Die Presse ist böse und stellt uns schlecht dar.' Man sollte selbstbewusst nach vorne gehen und sagen: 'Diese neue Technik ist menschenfreundlich. Sie wird viele Menschen zurück in die Mobilität bringen und sehr viele Unfälle vermeiden helfen.' Es gibt wohl wenig Technologien, die so menschenfreundlich sind wie das autonome Fahren. Deshalb verstehe ich nicht, dass dieses Thema so ängstlich behandelt wird und man immer nur auf die Probleme schaut.
Sie haben das Dilemma-Problem angesprochen: Wie muss denn ein autonomes Fahrzeug programmiert sein, um bei einem unausweichlichen Unfall unangreifbar zu reagieren?
Man muss zwischen der rechtlichen Bewertung einer solchen Dilemma-Situation und der Programmierung unterscheiden. Programmierung bedeutet ja auch, dass man Sensoren braucht, die die relevanten Gesichtspunkte wahrnehmen können. Wenn also entschieden wird, dass Menschen geschont und eher Sachen verletzt werden sollen, ist das juristisch sicher richtig. Aber die technische Umsetzbarkeit ist eine ganz andere Frage. Man bräuchte Sensoren, die solche Unterscheidungen in jedem Fall treffen können. Wenn man nur auf den juristischen Aspekt schaut: Juristisch ist es so, dass man in Dilemma-Situationen bisher Unbeteiligte nicht zusätzlich gefährden darf. Das heißt, wenn ein Wagen auf der Straße auf zwei Schwerverletzte zufährt, nicht mehr abbremsen kann, und nur ausweichen könnte, wenn er einen Dritten, bisher Ungefährdeten überfährt, dann darf er das nicht. Bisher Unbeteiligte sind nicht verpflichtet, ihr Leben sozusagen zu opfern. Das gilt auch, wenn es sich um einen Unbeteiligten handelt, mit dem man zwei andere beteiligte Menschen retten könnte.
Der Grundgedanke dahinter: In einer Gesellschaft wie der deutschen ist niemand verpflichtet, die Solidarität gegenüber der Gesellschaft so hoch zu hängen, dass er dafür sein Leben opfern müsste. Das Gegenteil wären totalitäre Systeme, bei denen der Einzelne nichts und das Volk alles ist. Aber bei uns ist jedes Leben Höchstwert und muss geschützt werden.
Anders ist die Situation einzuschätzen, wenn sich mehrere Personen von Beginn an in Gefahr befinden und die Maschine etwa durch einen Lenkimpuls nur noch sicherstellen kann, das möglichst wenig Menschen geschädigt werden. Wenn etwa in einem engen Fahrschlauch drei Kinder auf die Straße springen, was wohl verhältnismäßig häufig vorkommt, und vor dem linken Kotflügel ein Kind und vor dem rechten zwei Kinder stehen. Das haben wir im Ethikrat diskutiert, ohne zu einer endgültigen Lösung zu kommen.
Mein Vorschlag wäre in einem solchen Fall, dass nur zwei Entscheidungen vertretbar sind. Entweder wird kein Lenkimpuls gesetzt und alle drei Kinder werden erfasst. Man greift also nicht ein und überlässt es dem Schicksal. Oder man setzt einen Lenkimpuls nach links, um den Schaden zu minimieren. Statt zwei Verletzten oder Getöten gibt es dann einen. Das bedeutet aber: Quantifizierung von Menschenleben und Abwägung von Menschenleben. Es wird implizit gesagt: Es ist besser, nur einen Menschen zu töten als drei. Diesen Schritt würde ich wagen.
In unausweichlichen Gefahrensituationen, in denen alle potenziellen Opfer von vornherein gleich gefährdet sind und es nur darum geht, Unschuldige zu retten, sollte man abwägen und quantifizieren. In Situationen, in denen bisher Unbeteiligte neu gefährdet werden, da gilt, dass kein Lenkimpuls gesetzt werden darf. Das ist zumindest juristisch gut vertretbar, die akademische Diskussion beginnt jetzt erst. Aber ich meine, dass eine solche Lösung auch mit der gesellschaftlichen Grundhaltung gut vereinbar ist.
Eine Möglichkeit in der Dilemma-Situation wäre auch die Zufallsprogrammierung. Was spricht gegen sie, was für sie?
Dafür spricht, dass dann vielleicht manche das Gefühl hätten, sie hätten doch gar nichts damit zu tun. Aber der große Nachteil ist: Schon der Einbau eines solchen Zufallssystems ist eine menschliche Entscheidung. Und Entscheidungen können rechtlich und moralisch relevant sein. Das Problem ist, dass wir uns nicht in eine Situation völliger Unschuld zurückziehen können. Wenn wir die Entscheidung einem Zufallsgenerator übertragen sind wir es, die ihm diese Entscheidung übertragen. Und sind insofern in der Verantwortung.
Sehen Sie hierzu im Datencenter die Grafik:
Rahmenbedingungen für autonomes Fahren nach Märkten 2017