Elon Musk unterschreibt Abkommen gegen Killerroboter

(c) imago/AFLO (Richard Atrero de Guzman)
  • Drucken

Ein Abkommen, unterzeichnet von führenden Entwicklern im Bereich Künstlicher Intelligenz, soll Waffen mit Künstlicher Intelligenz verhindern.

Vieles was heute als Künstliche Intelligenz (KI) in Geräten und Systemen angepriesen wird, ist im Grunde Machine Learning. Doch die Entwicklung schreitet schnell voran. Roboter wie sie im Film "I, Robot" sind noch Zukunftsmusik. Besonders Waffenindustrie und Militär sind daran interessiert, die Entwicklungen voranzutreiben; besonders im Bereich der KI-gesteuerten Waffensysteme. Ein von führenden Entwicklern und Unternehmen unterzeichnetes Abkommen soll ein Zeichen gegen Waffen mit künstlicher Intelligenz setzen.

Shane Legg, Mustafa Suleyman und Demis Hassabis, Gründer von Googles DeepMind, Skype-Gründer Jaan Tallinn und KI-Forscher wie Stuart Russel, Yoshua Bengio und Jürgen Schmidhuber zählen ebenso zu den Unterstützern. Ebenso unterschrieben hat Elon Musk, ein bekennender Gegner von übermäßigem Einsatz Künstlicher Intelligenz und warnt bei sich jeder bietenden Gelegenheit vor den damit verbundenen Gefahren.

Gesellschaft und Politik werden sich in den kommenden Jahren mit den ethischen und moralischen Grundsätzen künstlicher Systeme beschäftigen müssen. Sich lediglich auf die drei Asimovschen Gesetze zu verlassen, reicht nicht aus. Ebensowenig das Abkommen per se.

Die Asimov’schen Gesetze lauten:

Das US-Militär sucht nach dem Ausstieg Googles aus dem KI-Programm über einen Wettbewerb nach entsprechenden Startups. Gesucht werden Ideen zu "innovativen Waffen" im Bereich Raketen, Artillerie, Panzer und für Nahkampfausrüstung. Außerdem spricht man sich im Abkommen lediglich gegen tödliche Waffen aus, der ohne Zutun eines Menschen agieren kann. Sofern die Maschine und ihr Waffenarsenal von einem Menschen aus der Distanz gesteuert wird, scheint es in Ordnung zu sein.Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

>>> Abkommen

(bagre)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.