Moralisches Dilemma für selbstfahrende Fahrzeuge
Zur Zeit wird intensiv an der Entwicklung von selbstfahrenden Autos gearbeitet, sowohl von diversen Automobilherstellern als auch von Technologiefirmen. Am Bekanntesten dürften dabei die Bemühungen von Google sein. Im Prinzip kann so ein selbstfahrendes Auto durchaus eine tolle Sache sein: Man muss nur mehr ins Auto einsteigen und das Ziel eingeben und das Auto bringt einen dann sicher ans Ziel. Das wäre nicht nur komfortabel, da man während der Fahrt ausruhen oder kleinere Arbeiten erledigen kann und sich nicht um den Verkehr kümmern oder sich über den Verkehr ärgern muss, sondern würde wohl auch die Sicherheit auf den Straßen erhöhen. Denn Autos, deren Fahrverhalten programmiert wurde, werden sich - eine entsprechende Programmierung vorausgesetzt - genau an zulässige Höchstgeschwindigkeiten, Mindestabstände und dergleichen halten, sowie weniger von der Umgebung abgelenkt werden. Ganz zu schweigen davon, dass sie auch nicht ermüden werden, es sei denn das System überhitzt oder stürzt ab. In diesem Fall ist aber in den meisten Fällen ohnehin vorgesehen, dass der Fahrer übernimmt, der dann tunlichst fahrtauglich sein sollte. Theoretisch klingt das alles sehr vielversprechend, wenn da nicht in letzter Zeit ein moralisches Dilemma zunehmend in den Fokus gerückt wäre, von dessen Lösung es wohl letztendlich auch abhängen wird, ob solche selbstfahrenden Autos von Kunden überhaupt angenommen werden.
Das Problem
Wie sollen sich selbstfahrende Autos verhalten, das heißt wie soll ihr Verhalten programmiert werden, wenn es im Straßenverkehr zu Situationen kommt, in denen ein Unfall unausweichlich ist?
Szenarien führen zu ethischen Fragen
Mögliche Szenarien führen in diesem Zusammenhang sehr schnell zu ethischen Fragen. Stellen wir uns einmal folgendes vor:
Ein selbstfahrendes Auto fährt auf einer Straße und durch eine Verkettung unglücklicher Umstände tauchen plötzlich 10 Personen auf der Straße auf. Da aufgrund des zu langen Bremswegs ein rechtzeitiges Bremsen unmöglich ist, bleiben nur mehr 2 Möglichkeiten:
- Erste Möglichkeit: Das Auto fährt in die Gruppe, was unter Umständen 10 Todesopfer zur Folge hat.
- Zweite Möglichkeit: Das Auto startet ein Ausweichmanöver, um den Zusammenstoß mit der Gruppe zu verhindern. Dies ist allerdings nur möglich, indem das Auto direkt in eine Mauer fährt, was wohl den Tod der Autoinsassen zur Folge hätte.
Die Frage ist nun, wie soll sich das Auto entscheiden, oder besser wie soll es programmiert werden? Die Beantwortung dieser Frage ist gar nicht so einfach wie es vielleicht auf den ersten Blick scheint. Ganz im Gegenteil: sie wirft sogar neue vornehmlich ethische Fragen auf. Ist ein Leben weniger Wert als 10 andere? Ist das Leben eines Kindes mehr Wert als das von Pensionisten? Sollte ein Verkehrssünder automatisch die Folgen eines Unfalls zu tragen haben? Will ich als Fahrer_in in einem Auto sitzen, wenn ich weiß, dass mich dieses unter Umständen bei entsprechender Konstellation opfert? Dies ist nur ein kleiner exemplarischer Auszug möglicher Fragen, es gäbe da noch sehr viel mehr.
Richtlinien für Entscheidungen
Es stellt sich somit die Frage, nach welchen Kriterien die Programmierung erfolgen soll. Theoretisch wird es da im großen und ganzen 2 mögliche Ansätze geben:
- geringste Verluste: Die entstandenen Verluste sollen möglichst gering ausfallen, vor allem in Hinsicht auf Menschenleben.
- Selbstschutz: Der Schutz der Fahrzeuginsassen hat oberste Priorität.
So weit die Theorie. Aber wer soll die Entscheidungen jetzt treffen? Wie sollen die Fahrzeuge programmiert werden? Oder sollen die Fahrzeuge einfach zufällig einen der beiden Ansätze wählen? Mitentscheidend wenn nicht sogar ausschlaggebend für die Beantwortung dieser Fragen wird die öffentliche Meinung sein, denn selbstfahrende Autos werden wohl nur gekauft werden, wenn sie von der Gesellschaft akzeptiert werden.
Studie zu selbstfahrenden Autos
Um eine Einschätzung über die vorherrschende Meinung zu erhalten, haben die Forscher Jean-François Bonnefon, Azim Shariff und Iyad Rahwan drei Studien durchgeführt, für die 200-400 Amazon Mechanical Turk Worker angeworben wurden. Dabei kamen sie zusammenfassend zu folgenden Ergebnissen:
- Selbstfahrende Fahrzeuge sollen so programmiert werden, dass möglichst wenige Opfer zu beklagen sind, auch wenn das bedeutet, dass die Autoinsassen zu diesen Opfern gehören.
- Die Entscheidung, die Autoinsassen zu opfern, sollte nicht per Gesetz erfolgen und auch nicht vom Lenker bzw. der Lenkerin getroffen werden, sondern am Besten durch den Computer des selbstfahrenden Autos, da dies fairer erscheint.
- Selbstfahrende Autos, die ihre Entscheidungen so ausrichten, dass es möglichst wenige Opfer gibt und die dabei auch den Tod der Autoinsassen in Kauf nehmen, werden gut akzeptiert, solange sie von anderen gefahren werden und man nicht selbst in einem solchen sitzt.
(Quelle: arXiv:1510.03346v1 [cs.CY])
Schlussfolgerung
Der Studie nach scheint es also durchaus so zu sein, dass selbstfahrende Autos in der Gesellschaft akzeptiert werden könnten, sogar wenn diese so programmiert wären, dass bei entsprechenden Konstellationen das Leben der Autoinsassen auf dem Spiel steht. Und ohne diese Akzeptanz in der Gesellschaft werden sich diese Autos wohl nicht durchsetzen. Denn in der Studie kam auch heraus, dass es den Teilnehmer_innen der Umfragen lieber wäre, wenn andere mit diesen Fahrzeugen am Weg wären als sie selbst. Dies ist nicht wirklich überraschend. Denn es besteht zwar oft eine Einigkeit darüber, was für das Wohl der Gesamtheit am Besten wäre, da dies aber in der Regel den eigenen Interessen entgegensteht, hakt es dann oft an der persönlichen Umsetzung. Beispiele dafür gibt es ja viele.
Fazit
Ob sich selbstfahrende Autos letztendlich durchsetzen werden, wird mit Sicherheit auch von der gesellschaftlichen Akzeptanz abhängen. Es bleibt abzuwarten, ob die Gesellschaft damit leben kann, nicht mehr selbst die Kontrolle über das eigene Fahrzeug zu haben und dass das eigene Auto unter Umständen die Entscheidung treffen könnte, das Leben der Insassen zum Wohl der Gesamtheit zu opfern. Bis es so weit ist, sind neben den technischen Fragen also auch noch die ethischen Fragen zu beantworten. Aber zumindest eine gewisse positive gesellschaftliche Einstellung zu diesem Thema scheint vorhanden zu sein.
Links:
- futurezone.at: Dilemma: Wenn selbstfahrende Autos töten
- technologyreview.com: Why self-driving cars must be programmed to kill
- arxiv.org: Autonomous vehicles need experimental ethics: Are we ready for utilitarian cars?
- diepresse.com: Künstliche Moral: Wen soll dieses Auto töten?
- science.orf.at: Technologiegespräche Alpbach: Auch Maschinen brauchen Moral
- deutsche-wirtschafts-nachrichten.de: "Killer-Software": Dürfen Roboter-Autos bei Unfällen den Fahrer töten?
- watson.ch: Selbstfahrende Autos finden wir toll - aber eines das uns im Zweifelsfall tötet, wollen wir nicht
- tibs.at: Amazon Mechanical Turk Worker - arbeiten wann und wo man will
- heise.de: "Es geht darum, sich dem Wandel anzupassen, nicht darum, der Stärkste zu sein" Hans-Arthur Marsiske 19.11.2015 (Jeffrey H. Guyton, Präsident und CEO der Mazda Motor Europe GmbH)