Künstliche Moral: Wen soll dieses Auto töten?

Das Google-Auto. Selbstfahrende Autos könnten die Zahl der Todesfälle im Straßenverkehr um 90 Prozent senken. Aber dafür müssen sie sich auf dem Markt durchsetzen.
Das Google-Auto. Selbstfahrende Autos könnten die Zahl der Todesfälle im Straßenverkehr um 90 Prozent senken. Aber dafür müssen sie sich auf dem Markt durchsetzen. Reuters
  • Drucken

Die Entwickler selbstfahrender Autos stehen vor einem Dilemma: Soll das Fahrzeug, bevor es in eine Menschenmenge kracht, ausweichen, auch wenn es dabei einen unbeteiligten Passanten tötet? Oder gar den Insassen?

Man nennt es das „Trolley-Problem“, und es behandelt ein altbekanntes moralisches Dilemma: Darf man einen Menschen opfern, um andere zu retten? Darf man zu diesem Zweck gar bewusst und aktiv töten? Das grauenhafte Gedankenexperiment, zur Veranschaulichung von Psychologen erfunden: Ein führerloser Zug nähert sich der Station und droht, fünf Gleisarbeiter zu überrollen. Die einzige Möglichkeit, ihn rechtzeitig zu stoppen: Man wirft einen schwergewichtigen Passanten vor den Zug.
Was tun?

Vor einer ähnlichen Frage stehen derzeit die Entwickler selbstfahrender Autos: Sie spielen Szenarios durch – und müssen festlegen, wie das Fahrzeug im Fall eines drohenden Unfalls reagieren soll. Man möchte natürlich die Zahl der Toten minimieren. Aber welche Maßnahmen sind erlaubt? Wie verschafft man der künstlichen Intelligenz so etwas wie künstliche Moral?

Forscher aus Toulouse, Oregon und Cambridge rund um Jean-François Bonnefon haben sich nicht mit theoretischen Überlegungen begnügt, sondern sich an jene gewandt, die solche Autos möglicherweise einmal kaufen werden: Für drei Studien wurden jeweils 200 bis 400 freie Mitarbeiter der Firma Amazon Mechanical Turk befragt, wobei sich das Setting aller drei Studien ähnelte: Ein Auto fährt – wie der Zug beim „Trolley-Problem“ – auf eine Menschenmenge zu. Es könnte auf Kurs bleiben, dann sterben diese Menschen. Es könnte ausweichen und dabei einen unbeteiligten Passanten niedermähen. Oder aber, es fährt gegen eine Wand – opfert sozusagen den Fahrer. Und noch eine weitere Möglichkeit wurde erwogen: Das Auto bekommt eine Art Zufallsmoral programmiert (ArXiv: 1510.03346v1).

Man darf die Käufer nicht verschrecken

Eine überwältigende Mehrheit der Probanden erklärte, sie fänden es prinzipiell gut, wenn ein Auto einen Fußgänger tötet, um zehn andere zu retten. Auch die Zustimmung für ein Fahrzeug, das seinen eigenen Fahrer opfert, war hoch: 75 Prozent der Befragten. Allerdings konnten sich nur zwei Drittel vorstellen, dass ein solches Auto tatsächlich auf den Markt kommt. Und noch ganz anders stellte sich die Sache dar, wenn man wissen wollte, welches Fahrzeug sie selbst kaufen würden: Da entschied sich etwa ein Drittel für jenes, das auch um den Preis des Fahrerlebens auswich. Ein weiteres für das Gefährt mit Zufallsalgorithmus. Ein weiteres wollte gar kein Risiko eingehen.

Wie die Probanden aber tatsächlich handeln würden? Es fällt uns schwer, Kontrolle abzugeben, erst recht an ein Programm, das unsere Interessen nicht oder nur ungenügend berücksichtigt. Käufer nicht zu verschrecken sei aber, so die Forscher, nicht nur eine kommerzielle Notwendigkeit, sondern auch eine moralische: Selbstfahrende Autos könnten die Zahl der Todesfälle im Straßenverkehr um 90 Prozent senken. Aber das geschieht nicht, wenn keiner sie kauft. Möglicherweise muss man also den Fahrer schützen, um Menschenleben zu retten.
Die Studien zu diesem Thema, räumen die Autoren ein, stehen noch ganz am Anfang. Nicht behandelt wurde etwa das Thema Schuld: Darf ein Auto jemanden töten, der eigentlich am Unfall gar nicht beteiligt ist, während die Verursacher des Unfalls – der Fahrer, die Menschenmenge, die unvermutet auf der Fahrbahn auftaucht – ungeschoren davonkommen? Und was, wenn es sich beim Passanten oder bei einem der Insassen um ein Kind handelt? Werden Käufer irgendwann zwischen Modellen mit unterschiedlicher moralischer Ausstattung wählen können? Und tragen sie dann im Fall eines Unfalls mit Todesfolge eine Mitschuld?

Oder wird gar ein Gesetz erlassen, das vorschreibt, in jedem Fall die Zahl der Todesopfer zu minimieren? Die Forscher wollten wissen, ob solch ein Gesetz angenommen würde: Ja, solange das Fahrzeug automatisch fährt. Steuert aber ein Mensch, soll er nicht verpflichtet werden, einen Passanten umzufahren. Das erinnert wieder an das „Trolley-Problem“. Direkt Hand anlegen und den schwergewichtigen Mann auf die Gleise werfen wollten nur 15 Prozent. Die Zustimmungsrate änderte sich rasant, als die Technik dazwischengeschaltet wurde: Muss man nicht selbst töten, sondern nur eine Weiche umlegen, so entschied sich eine überwältigende Mehrheit dafür: 90 Prozent.
Bis jetzt war „Trolley-Problem“ ein reines Gedankenexperiment. Es ließ sich nicht lösen, musste auch nicht gelöst werden: Im Fall des Falles reagiert jeder Einzelne spontan, seinem eigenen moralischen Empfinden folgend. Doch die Algorithmen sind verbindlich, das Auto reagiert bei jedem Käufer gleich. Darum, so die Verfasser der Studie, braucht es einen umfassenden Konsens.

("Die Presse", Print-Ausgabe, 28.10.2015)

Lesen Sie mehr zu diesen Themen:

Mehr erfahren

Daimler-Nutzfahrzeugvorstand Wolfgang Bernhard chauffierte den Ministerpräsidenten Baden Württembergs, Winfried Kretschmann am Beifahrersitz mit Autopilot.
International

"Selbstfahrender" Lkw absolviert erste Autobahntour

"Highway Pilot wird nie abgelenkt und nie müde", sagt Daimler-Manager Bernhart. Bis zur Marktreife dauert es aber. Viele Fragen sind noch offen.
Motor

Selbstfahrende Autos: Steirer wollen Testregion werden

Derzeit ist der Gebrauch autonom fahrender Autos in Österreich durch ein UN-Abkommen verboten. Das gilt auch für Testfahrzeuge. Ein Wettbewerbsnachteil für die heimische Zulieferindustrie.
Apple bald mit eigenem Auto?
Tech

Apple will 2019 Elektroauto auf den Markt bringen

Unter dem Namen "Titan" lässt Apple ein Auto entwickeln, das von abgeworbenen Ingenieuren konstruiert wird.
Innovationen

Google-Auto: Unfall mit drei Verletzten

Erstmals kam es zu Verletzten bei einem Zusammenstoß mit Googles autonomfahrendem Auto. Laut Google war es menschliches und nicht technisches Versagen.

Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.