Wenn am Steuer eines Autos kein Mensch mehr sitzt, sondern ein Computer, ist das ungewohnt, befremdlich und momentan stark in den Medien diskutiert. Wie müssen wir aus philosophischer Sicht mit dem Autonomen Fahren eines Fahrzeugs umgehen? Wer trägt jetzt die Verantwortung? Nach welchen Maßstäben können wir die Entscheidungen des Fahrzeugs akzeptieren? Schauen wir uns das mal an.
Eine Einführung
Besitzer eines aktuellen Oberklasse-Fahrzeugs kennen Assistenten zu Halten der Spur und der Geschwindigkeit, zum Einparken, zum Bremsen und weitere. Sie automatisieren Teilaspekte des Fahrens und bedürfen dabei ständiger Überwachung. Der VDA hat den Grad der Automatisierung beim Führen des Fahrzeuges in 5 Kategorien eingeteilt:
- Ohne Unterstützung (VDA Stufe 0)
- Assistiert (VDA Stufe 1)
- Teilautomatisiert (VDA Stufe 2)
- Hochautomatisiert (VDA Stufe 3)
- Vollautomatisiert (VDA Stufe 4)
- Fahrerlos (VDA Stufe 5)
Diese Oberklasse-Fahrzeuge sind gemäß dieser Skala teilautomatisiert. Fahrzeuge, die aktuell als autonom fahrend bezeichnet werden, entsprechen der VDA Stufe 3 – hochautomatisiert: Das Fahrzeug übernimmt die Steuerung und muss dabei nicht vom Fahrer überwacht werden. Wenn das Fahrzeug selbständig erkennt, dass es eine Situation nicht kontrollieren kann, darf es die Kontrolle wieder an den Fahrer abgeben, der dann übernehmen muss.
Erst ab Stufe 4 können die Fahrzeuge beispielsweise die Fahrt auf der Autobahn vollautomatisch und ohne Notwendigkeit zur Rückübergabe an den Fahrer übernehmen. Mit der Stufe 5 beherrscht das Fahrzeug alle Situationen vollautomatisch und braucht somit keinen Fahrer mehr.
Für Fahrzeuge ab der Stufe 3 ergeben sich Fragen zu den zugrundeliegenden technischen, gesellschaftlichen und gesetzlichen Normen:
- Nach welchen Maßstäben können wir beurteilen, ob das Fahrzeug gut fährt?
- Wie können wir traditionell schwer messbare Begriffe wie Ethik, Moral, Vernunft, quantifizierbar definieren?
- Wer ist verantwortlich, wenn das Fahrzeug schlecht fährt?
Nach welchen Maßstäben wollen wir beurteilen, ob das Fahrzeug gut fährt?
Viele werden schon die Erfahrung gemacht haben, dass sie bei dem Einen gerne als Mitfahrer einsteigen, bei einem Anderen nicht so gerne. Dem einen attestieren sie also einen guten Fahrstil, dem anderen einen weniger guten. Was hierbei gut ist oder nicht, unterliegt oftmals dem persönlichen Empfinden – es gibt unterschiedliche Meinungen darüber, was ein guter Fahrstil ist. Wir haben also schon beim menschlichen Fahrer das Problem zu definieren, was was einen guten Fahrer ausmacht.
Angelehnt an die Telematik-Tarife vieler Versicherungen (ohne Wehrtung am Beispiel der VHV, es gibt weitere) und der aktuellen Forschung ist hier ein Versuch:
- Der Fahrer befolgt die gesetzlichen Vorschriften. (gesetzliche Norm)
- Der Fahrer fährt gleichmäßig und vermeidet starke Brems- oder Beschleunigungsmanöver. (*) technische Norm
- Der Fahrer fährt Kurven mit eine moderate Geschwindigkeit und vermeidet hohe Querbeschleunigung. (*)technische Norm
- Der Fahrer vermeidet Spurwechsel. (*) technische Norm
- Der Fahrer vermeidet Fahrzeiten und Straßen mit statistisch besonders hoher Unfallwahrscheinlichkeit. (**) gesellschaftliche Norm
- Der Fahrer fährt defensiv und rücksichtsvoll. (**) gesellschaftliche Norm
(*) Technische Norm beinhaltet auch ökologische Aspekte.
(**) In der gesellschaftlichen Norm sind übliche ethische Werte enthalten
Damit können wir mal starten, spätere Nachbesserungen sind ja nicht ausgeschlossen.
Die quantifizierte Ethik
Das Praktische an Computern ist, dass sie sehr schnell rechnen können. Das unpraktische ist, dass sie dazu Zahlen brauchen. Wenn wir also von einem guten Fahrstil sprechen, müssen wir ein Verfahren entwickeln, um einem bestimmten Stil eine oder mehrere Zahlen zuzuordnen. Dann können wir auch zwei Stile vergleichen oder Bandbreiten von schlechtem, mittelguten und guten Fahrstilen festlegen. Weiterhin können wir damit alternative Fahrmanöver bewerten und so ein Manöver im besseren Fahrstil auswählen.
Schauen wir uns am Beispiel der gesetzlichen Norm an, wie das gehen kann:
- Wir definieren einen Satz von entscheidbaren Regeln, die den relevanten Gesetzen des jewiligen Landes entsprechen.
- Wir definieren analog dazu ein quantiatives Strafmaß beim Übertreten der Regeln.
- Aus der Analyse der Fahrsituation und dem Fahrauftrag generieren wir mögliche Manöver.
- Wir nehmen das Manöver, dass bei geringster Strafe dem Fahrauftrag am zuträglichsten ist.
Grundsätzlich können wir so aus den gesellschaftlichen und technischen Normen ebenfalls Regeln aufsetzen, die in die Manövergenerierung, -bewertung und -auswahl einfließen. Lernen können unsere autonomen Fahrzeuge in folgender Hinsicht:
- neue Regeln
- neue Bewertungen von Regelverstößen
- neue Manöver
- Neue Verfahren zur Bewertung oder Gewichtungen des nächsten Manövers
Das Problem der Auswahl des nächsten Manövers
Ein in mehrerlei Hinsicht ungelöstes Problem ist die Wahl des nächsten Manövers. Die Grundannahme, dass wir nur das nächste Manöver berechnen müssen, greift nämlich in der Regel zu kurz. Wir müssen stattdessen Manöverketten berechnen, um Situationen gesamtheitlich zu beherrschen. Beispiele für schwierig zu bewertende Manöverketten:
- Das Gesamtrisiko eines Überholvorganges könnte geringer sein, wenn sich das Fahrzeug in den fließenden Verkehr einfügt, als wenn die Geschwindigkeit abweicht. Ist dazu eine Geschwindigkeitsübertretung akzeptierbar?
- Um einem seitwärts sich näherndem Fahrzeug auszuweichen, kann das Fahrzeug beschleunigen oder bremsen. Das Unfallrisiko sinkt beim Beschleunigen, das Fahrzeug übertritt aber die Höchstgeschwindigkeit.
- Das vielzitierte Beispiel: der Bremsweg reicht nicht, das Fahrzeug muss sich entscheiden, in eine Gruppe Menschen auszuweichen oder Mutter und Kind umzufahren.
Grundsätzlich können wir den beschriebenen Weg nutzen, mit dem wir einzelne Manöver beurteilen. Gegner dieser Methode führen an, dass das Fahrzeug dann möglicherweise immer die Mutter mit Kind opfert oder immer in die Menschgruppe fährt. Auf jeden Fall sind wir hier im Kern der moralischen Diskussion über die Autonomie eines Fahrzeuges: Mutter oder Gruppe? Und es ist schon schwierig, das technisch zu beantworten, moralisch ist es noch schwieriger.
Wer ist verantwortlich, wenn ein Fahrzeug schlecht fährt?
Die Frage ist, warum ein Fahrzeug schlecht fährt und bei wem in Verantwortung die Ursachen dafür liegen. Vordergündig unterscheiden sich die beiden Verfahren, wie ein Fahrzeug gutes Fahren beigebracht bekommt: Entweder hat der Hersteller des Fahrzeugs eine fertige Software installiert, oder der Fahrzeugeigner bringt über einen Lernmechanismus dem Fahrzeug das Fahren bei. Technisch ist es auch denkbar, das sich die Fahrzeuge vernetzen und Lernerfolge austauschen.
Aber auch in der Variante des lernenden Fahrzeugs können wir festhalten, dass der Lernmechanismus vom Fahrzeughersteller implementiert wurde. Auch wenn der Lernvorgang nach Auslieferung stattfindet, bleiben die Lernverfahren in der Verantwortung des Herstellers. Müssen wir also gesellschaftlich fordern, dass die Verantwortung für Autonomes Fahren beim Hersteller liegt?
Bisher hat nach einer Meldung der FAZ nur Volvo Stellung bezogen und übernimmt die Haftung bei einem Unfall. Andere Hersteller zieren sich da noch und verlangen einfach mal nur eine Überarbeitung des Haftungsrechts. Das reicht nicht.
Wie geht es weiter?
Die wichtigste Frage des Artikels, wie das autonom fahrende Fahrzeug zwischen Mutter, Kind under Menschengruppe entscheiden sollte, kann tatsächlich nicht einmal ein menschlicher Fahrer richtig entscheiden. Letztendlich sind beide Entscheidungen falsch, weil die jeweils andere ja doch vielleicht die bessere gewesen wäre.
Als Verkehrsteilnehmer sind wir es gewohnt, den Risiken fehlbarer Menschen ausgesetzt zu sein: übermüdet, alkoholisiert, dement. Unsere Antwort darauf ist, dass wir das Verhalten der jeweils anderen mit in unsere Entscheidungen einbeziehen. Das würde ein autonomes System auch tun aber wir bleiben trotzdem misstrauisch.
Vielleicht muss ein autonom fahrendes Auto ja einfach nur einen Führerschein machen. Beim menschlichen Fahrer reicht das ja auch, um auf die anderen Verkehrsteilnehmer losgelassen zu werden. Meine beste Ehefrau von Allen begrüßte es, dass das Autonome Fahrzeug sicher besser einparken würde als sie. Das mit dem Fahren wäre nicht so das Killerfeature.
P.S.
Scheinbar hinkt die Einbettung des autonomen Fahrens in die Gesellschaft den technischen Möglichkeiten hinterher. Wir sollten dabei nicht den Fehler begehen, das Feld durch die Möglichkeiten der Technik bestellen zu lassen: Es dürfen nicht erst in einem unreglementierten Bereich technische Fakten bestehen, die sich nicht mehr revidieren lassen. Der Staat und die Internationale Gemeinschaft müssen einen Rahmen schaffen. Aufhalten lässt sich der Trend nicht, wäre auch nicht sinnvoll, aber unreglementiert will man es sicher auch nicht haben.
Weitere Lektüre
- WikiPedia (englisch): Maschine ethics
- Zeit Online: Autopilot an der Haftungsgrenze
- Zeit Online: Kabinett erlaubt teilautomatisiertes Fahren
- MaschienenEthik.net von Oliver Bendel, Zürich