Moralischen Kompass für Roboter gesucht

ARCHIVBILD: FORUM ALPBACH / TECHNOLOGIEGESPRAeCHE / PROFESSOR MATTHIAS SCHEUTZ
ARCHIVBILD: FORUM ALPBACH / TECHNOLOGIEGESPRAeCHE / PROFESSOR MATTHIAS SCHEUTZAPA/KELVIN MA
  • Drucken

Wie soll ein das "Leben mit der Maschine" in Zukunft aussehen? Kann es so etwas wie "moralische Algorythmen" geben?

Nicht mehr lange und autonome Roboter könnten wie selbstverständlich auf öffentlichen Straßen umherkreuzen oder in Pflegeheimen ihren Dienst verrichten. Je selbstständiger die Maschinen agieren, desto besser müssen sie mit einer Art moralischem Kompass für Konfliktsituationen ausgestattet sein, so der aus Österreich stammende Computerwissenschafter Matthias Scheutz von der Tufts University (USA).

"Wenn wir mit autonomen Maschinen, vor allem sozialen Robotern, zusammenarbeiten und wohnen werden, dann müssen sich diese Maschinen auf uns und unser normatives Verhalten einstellen können", sagte der Professor für Kognitions- und Computerwissenschaft an der Tufts University bei Boston (US-Bundesstaat Massachusetts), der heute, Donnerstag, bei den Alpbacher Technologiegesprächen zum Thema "Zukünftiges Leben mit der Maschine" spricht, im Gespräch mit der APA. "Wenn das nicht der Fall ist, befürchte ich, dass wir Probleme bekommen werden, dass uns die Maschinen verletzen könnten, emotional oder physisch."

Das Team um Scheutz - von Logikern, Philosophen, Psychologen bis Rechtsexperten - erforscht zum einen Möglichkeiten, wie man mit Robotern in natürlicher Sprache kommunizieren, und zum anderen, wie man ihr Verhalten mit "moralischen Algorithmen" stets berechenbar machen kann. Das sei schon deshalb ein kompliziertes Unterfangen, weil es jeden Aspekt der Kontrollarchitektur betreffe. Ein zentrales zu lösendes Problem seien moralische Dilemma-Situationen, bei denen ein rein logisches Vorgehen im Widerspruch enden würde.

Unvorhersehbare "offene" Welt

Während in einer geschlossenen Umgebung wie einer Fabrikshalle die Handlungsoptionen und der Aktionsradius eines Roboters ziemlich eindeutig definiert werden können, sind die Geschehnisse in der "offenen" Welt schlicht nicht vorhersehbar. Wie also soll sich zum Beispiel ein Roboter verhalten, der bei einer Katastrophe dringend benötigte Medikamente von A nach B bringen soll, unterwegs aber einen schwer verletzten Menschen vorfindet, den es zu versorgen gilt?

"Wenn etwas passiert und der Roboter keine Verbindung mit einem menschlichen Supervisor hat, dann muss er trotzdem irgendeine Lösung finden, wie er mit der Situation umgeht", erklärte der Philosoph und Informatiker. Ähnlich wie Menschen sollten Roboter in der Lage sein, eine Situation an Ort und Stelle zu bewerten und anhand von allgemeinen Prinzipien eine Entscheidung zu treffen - und sie anschließend rechtfertigen können: "Wenn er gefragt wird, warum er so gehandelt hat, muss er sagen können, warum."

Angesichts durchaus unterschiedlicher Vorstellungen von Moral sei es aber nicht Aufgabe der Forscher, das ethische System vorzuschreiben, sondern die technischen Rahmenbedingungen zu schaffen. Einer der vielen Ausgangspunkte, von denen aus man sich an einen moralisch kompetenten Roboter annähere, seien deshalb ganz allgemeine Rechtsgrundlagen, etwa, dass man Menschen nicht angreifen oder herumschubsen darf. Mit Hilfe von sozialpsychologischen Experimenten beobachten die Forscher zunächst, wie Menschen auf Roboter reagieren und mit ihnen interagieren, beispielsweise welche Auswirkungen das Erscheinungsbild der Maschine auf die Einstellungen von Versuchspersonen hat.

Noch viel zu tun

Erst vor kurzem haben die Forscher etwa herausgefunden, dass in dilemmaartigen Szenarien Menschen und Roboter unterschiedlich bewertet werden. In einer Situation, in der ein Mensch entweder fünf Personen retten kann, indem er eine Person "opfert", oder nichts macht und daraufhin alle fünf sterben, hätten die Versuchspersonen den "inaktiven" Menschen nicht zur Verantwortung gezogen. Umgekehrt wurde es als falsch angesehen, wenn der Roboter nichts gemacht hat. "Das ist eine interessante Asymmetrie", so Scheutz, "es scheint, als würden wir den Roboter als jemand ansehen, der eine Situation schnell durchdenken kann und der auch handeln soll."

Für die Forschung gebe es noch viel zu tun, denn ein großes Problem bei sozialen Robotern sei, "dass sie nicht wirklich verstehen, wie Menschen fühlen, denken und welche mentalen Zustände sie haben." Philosophisch eingebettet ist Scheutz' Forschung in die Idee der "Embodied Cognition" (verkörperte Kognition), eine These, wonach Bewusstsein einen Körper benötigt, also eine physikalische Interaktion voraussetzt. "Der Roboter ist hier ein wunderbares Modell, weil der hat einen Körper, eine Perspektive, ist in eine Umwelt eingebettet und da können wir diese Aspekte der Kognition gut studieren."

Scheutz hat an der Uni Wien Studien in Philosophie und Formale Logik und an der Technischen Universität Wien in Informatik abgeschlossen. Nach Absolvierung eines PhD-Studiums in Philosophie an der Uni Wien ging er in die USA, wo er an der Indiana University ein Joint-PhD in Kognitionswissenschaften und Computerwissenschaften absolviert hat.

(APA)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.