Forschungsfrage

Kann man Computern Ethik beibringen?

(c) REUTERS (THOMAS PETER)
  • Drucken

Intelligente, autonome Maschinen müssen vermehrt moralische Entscheidungen fällen. Dabei könnten künftig altindische Texte helfen.

Bei einem selbstfahrenden Auto versagen die Bremsen, als ein Kind davor den Zebrastreifen überquert. Ändert das Fahrzeug die Richtung, kracht es gegen ein festes Hindernis, die Insassen – fünf Pensionisten – sterben. Behält es die Fahrlinie bei, überfährt es das Kind. Das ist eines von 13 makabren Szenarien, die das Massachusetts Institute of Technology (MIT) mit seiner „Moral Machine“ seit 2016 erfragt. Wie soll das intelligente Fahrzeug entscheiden?

Diese ausweglosen Dilemmata werden gezeigt, um die Öffentlichkeit für ethische Fragen rund um künstliche Intelligenz zu sensibilisieren – und in die Debatte miteinzubeziehen. Denn intelligente Maschinen, die in immer mehr Arbeits- und Lebensbereiche vordringen, brauchen tatsächlich für jede Situation eine klare Vorgabe, wie sie agieren sollen. Schon heute führen Roboter Operationen durch, sind in Krisen- oder Katastrophengebieten im Einsatz, lenken Busse oder Schiffe. Begegnen sie dabei Menschen, müssen sie mitunter Entscheidungen über Leib und Leben treffen. Aber: Wie lässt sich Moral programmieren?

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.