Künstliche Intelligenz: Robotiker, wie steht ihr zu Killer-Robotern?!

(C) Sony
  • Drucken

Die näherrückende Perspektive von völlig autonomen Kampf- und Tötungsmaschinen veranlasst einen Computerexperten zum Appell an die eigene Zunft, Position zu beziehen.

Wenn neue Akronyme aufkommen, bedeutet das oft nichts Gutes, der letzte, in den man sich einlernen musste, hieß NSA. Aber da ging es nur um Daten, beim nächsten geht es um Leben und Tod, es heißt LAWS. Das steht für Lethal Autonomous Weapons Systems und droht eines nicht fernen Tages etwa damit: Ein Minihelikopter fliegt durchs Fenster herein, auch durchs geschlossene, wirft einen Blick auf die Menschen im Raum und wählt aus, wem er den Schädel zertrümmert.

Das ist keine Journalistenfantasie, das ist ein Projekt des US-Militärs, es heißt Fast Lightweight Autonomy (FLA). Bei einem anderen – Collaborative Operations in Denied Envvironment (CODE) – schwärmt ein ganzes Heer von Minihelikoptern aus und steuert sich selbst. Das ist der Unterschied zu den halb autonomen Tötungsmaschinen von heute, den Drohnen: Sie können zwar Ziele suchen, aber ob und wann die Schüsse und Bomben fallen, irgendwo in Pakistan, entscheidet ein Mensch, irgendwo in den USA. Immerhin: Der Mensch ist „in the loop“.
Bei den Waffensystemen der Zukunft, die der Einfachheit halber auch Killer-Robots heißen, ist der Mensch „on the loop“ – er kann selbstständige Handlungen der Maschine abbrechen –, oder er ist gänzlich „off the loop“, schaut nur noch zu.

Über solche Details berät die Convention on Certain Conventional Weapons (CCW), das ist eine der UNO-Organisationen, die versuchen, auch im Krieg das Recht hochzuhalten. Das sehen viele durch die Killer-Roboter bedroht, der UN-Menschenrechtsrat etwa hat vergangenes Jahr einen Bericht erarbeitet: „Ein Krieg ohne Nachdenken ist ein mechanisches Abschlachten“, fasste Autor Christoff Heyns bei der Präsentation zusammen.

Roboter: Keine Rache, kein Mitgefühl

Im Bericht stand das nicht, der wies differenziert darauf hin, dass viel Unmenschlichkeit im Krieg nur durch Menschen verursacht wird: „Roboter würden nicht aus Rache, Panik, Ärger, Vorurteil handeln. Roboter vergewaltigen auch nicht.“ In der Gegenrechnung haben Roboter kein Einfühlungsvermögen und kein Mitgefühl, und sie können die für das Kriegsrecht zentrale Frage kaum klären, ob ein Mensch, den sie in Kamera und Fadenkreuz haben, Kombattant ist oder Zivilist.

Auch darum geht es bei der CCW, sie hat gerade in Genf getagt, Stuart Russel, Computerforscher in Berkeley, war als Experte dabei und berichtet darüber in Nature (521, S. 415). Manche Staaten sind strikt gegen Killer-Robots, Deutschland etwa, andere sind ebenso strikt gegen jede rechtliche Regelung, die USA etwa, sie haben schon selbst Vorsorge getroffen. Im November 2012 veröffentlichte das Pentagon ein Teilmoratorium: Bis 2022 dürfen Roboter nicht zum Töten ausrücken, sondern nur zum Erkunden.
Aber Russell berichtet nicht nur, er appelliert auch an seine Zunft – alle, die mit Robotik und künstlicher Intelligenz zu tun haben –, sie möge einen gemeinsamen Standpunkt zu Killer-Robots einnehmen (Nature 521, S. 416). Welchen? Das verrät Russell nur indirekt: „Wir sind verpflichtet, Position zu beziehen, so wie es die Physiker bei Nuklearwaffen, die Chemiker bei Giftgasen und die Biologen bei Biowaffen getan haben.“

Der Appell wird verhallen, die Angesprochen haben anderes zu tun: Auch in Nature (S. 503) präsentiert Antoine Cully (Paris) ein System, mit dem ein lädierter Roboter wieder so auf die Beine kommt wie ein verletztes Tier, das sich bei einem gebrochenen Bein mit den anderen behilft. Das könnte durchaus sinnvoll sein, etwa wenn ein ziviler Roboter beim Erkunden des AKW Fukushima lädiert wird. Aber auch ein Kampfroboter könnte weiterkämpfen, bei allen seinen Bestandteilen geht es um „dual use“: Sie können zum Segen werden oder Tod bringen.

("Die Presse", Print-Ausgabe, 28.05.2015)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.