„Algorithmen können sich ethisch verhalten“

Autonome Maschinen nehmen die Umgebung wahr, analysieren sie und handeln. Doch was passiert, wenn ihnen Fehler passieren? Wer trägt die Schuld? Welches Recht gilt? Wo endet die maschinelle Entscheidungsfreiheit?

Monika Kofler
Schließen
Monika Kofler
Monika Kofler – (c) Katharina Roßboth

Lernende Maschinen sollen den Menschen das Leben erleichtern. Sie sammeln Unmengen von Daten, treffen Vorentscheidungen und helfen beim Einparken oder der Klassifikation von Tumoren. So zumindest die Theorie. Was aber, wenn Maschinen zu autonom werden? Wenn sie Fehler machen und Menschen dabei zu schaden kommen? Für wen soll sich ein motorisierter Roboter entscheiden: für das Kind am Straßenrand oder den bewusstlosen Fahrer im Wageninneren?

„Ein selbstfahrendes Auto wird nie eine ethische Entscheidung treffen müssen“, ist der Informatiker und Forschungsleiter des Ars Electronica Futurelab, Christopher Lindinger, überzeugt. Denn: „Es bleibt einfach stehen – und zwar immer.“ Dafür würden dutzende Sensoren Sorge tragen, die rund um die Karosserie eingesetzt sind. „Das Auto hält an, egal, ob ein Plastiksackerl, eine Katze oder ein Mensch vor ihm auftaucht.“ Die Was-wäre-wenn-Frage könne sich folglich gar nicht erst stellen. „95 Prozent der Autounfälle, die derzeit passieren, werden durch menschliches Versagen verursacht, wären nur selbstfahrende Verkehrsmittel auf den Straßen, ginge das Unfallrisiko folglich in Richtung null.“

Rundum unter Beobachtung

Und zwar nicht nur auf der Straße, sondern auch in deren unmittelbarer Umgebung, meint Lindinger. „Ein selbstfahrendes Auto hat in Wahrheit einen perfekten Rundblick, Spielt ein Kind neben einem geparkten Wagen, kann es von ihm gewarnt werden, sollte sich ein Radfahrer oder ähnliches nähern.“

Nur an der Interaktion mit „menschlichen Verkehrsteilnehmern“, da hapere es noch, räumt Bernhard Nessler vom Institut für Bioanalytik der Johannes Kepler Universität in Linz ein. „Wir müssen es schaffen, Maschinen so zu entwerfen, dass sie auf Winkzeichen, ein Nicken oder Blickkontakt so reagieren, als säße ein Mensch hinter dem Steuer“, sagt der Wissenschaftler, der im Rahmen des „Audi.JKU Deep Learning Centers“ derzeit mit dem Autobauer Audi am intelligenten Pkw forscht. Bis ein solcher auf den Markt kommt, würden aber noch einige Jahre vergehen, prognostiziert er.

Zeit genug, um sich mit rechtlichen Fragestellungen zu befassen. Denn: „Fehler können immer passieren“, sagt Monika Kofler und fordert eine Auseinandersetzung mit Haftungs- und Schadenersatzfragen. „Künstliche Intelligenzen könnten wie juristische Personen behandelt werden.“ Damit befindet sich die bei Amazon tätige Expertin für Metaheuristiken auf einer Linie mit dem Europäischen Parlament, dessen Rechtsausschuss im Jänner die EU-Kommission aufgefordert hat, Rechte und Pflichten von Robotern zu klären. Vorgeschlagen wurde die Einführung einer „elektronischen“ oder „künstlichen“ Person in der Rechtsprechung – neben den derzeit vorhandenen natürlichen (Menschen) und juristischen Personen (Körperschaften, Vereine, Gesellschaften).

"Roboter ist oft nichts anderes als eine dumme Hülle"

Ein Unterfangen, das mit einigem Gegenwind konfrontiert wird. So kritisierte der deutsche Fachverband für Robotik und Automation, dass durch das Gesetz ein „praxisferner Bürokratieaufwand“ erzeugt würde, der „den gesellschaftlichen und wirtschaftlichen Nutzen der Robotik auszubremsen droht“. Lindinger hingegen ortet zwar einen gangbaren Weg darin, Robotik in ein rechtliches Korsett zu gießen, plädiert aber für mehr Feingefühl bei einzelnen Formulierungen: „Die Bezeichnung Person ist in diesem Zusammenhang sehr heikel, am Ende des Tages bleibt ein Roboter eine Maschine.“ Entsprechend ausgeschlossen ist für ihn, dass eine solche je auf einer Anklagebank Platz nehmen wird, vielmehr werde ein Kollektiv zur Verantwortung gezogen werden. Immerhin handle es sich bei neueren Entwicklungen um keine singulären Einheiten. „Ein Roboter ist in vielen Fällen nichts anderes als eine dumme Hülle, die mit einem woanders verorteten Rechensystem, auf dem die künstliche Intelligenz läuft, kommuniziert“, sagt Lindinger. „Ein Server kann in Amerika stehen, der zweite in Irland und der Roboter steht in Japan und verletzt einen Menschen. Hier stellt sich eine weitere Frage, nämlich: Welches Recht ist anwendbar?“

Nicht leichter zu beantworten sind Fragen nach der Ethik lernender Maschinen. Wer entscheidet über moralisches und verwerfliches Verhalten? Die Regierungen, ein Ethikrat, der Hersteller? „Wer auch immer die Entscheidung trifft, fest steht, dass sich Algorithmen ethisch verhalten können, sofern sich die Codierer auf entsprechende Standards geeinigt haben“, sagt Informatikerin Kofler. Konkret: „Es können harte und weiche Regeln programmiert werden; hart meint, dass sie nicht gebrochen werden dürfen, weich, dass es Richtlinien sind, von denen abgewichen werden kann.“

„Es gibt in komplexen Situationen letztlich nur weiche Regeln“, kontert Nessler und verweist auf Unfälle oder eine nicht eindeutig platzierte rote Ampel. „Hier wird es die Möglichkeit brauchen, dass dem selbstfahrenden Auto gesagt werden kann, es dürfe fahren, auch, wenn es anders programmiert ist.“ In anderen Worten: „Praktikable Regeln müssen weich sein; das Problem dabei: Wir wissen nicht, wie die künstliche Intelligenz sie auslegen wird.“ Sein Fazit: „Rechtliche und ethische Fragen werden sich lösen lassen. Unmöglich bleibt, alle Eventualitäten zu testen – eine Restunsicherheit gibt es immer.“

Die Presse - Testabo

Testen Sie jetzt „Die Presse“ und „Die Presse am Sonntag“ sowie das „Presse“-ePaper und sämtliche digitale premium‑Inhalte 3 Wochen kostenlos und unverbindlich.

Jetzt 3 Wochen testen
Lesen Sie mehr zum Thema
Meistgekauft
    Meistgelesen
      Kommentar zu Artikel:

      „Algorithmen können sich ethisch verhalten“

      Schließen

      Sie sind zur Zeit nicht angemeldet.
      Um auf DiePresse.com kommentieren zu können, müssen Sie sich anmelden ›.