Jetzt live: Wer „Alexa“ sagt, der sagt nicht „Bitte“

Charlotte Stix forscht in Cambridge.
Charlotte Stix forscht in Cambridge.Mike Thornton Photography
  • Drucken

Intelligente Maschinen können unser Leben leichter und sicherer machen. Künstliche Intelligenz kann aber auch Meinungen manipulieren und Menschen ausspionieren. KI-Forscherin Charlotte Stix war am Dienstagabend in Graz.

Wer meint, er hätte mit künstlicher Intelligenz (KI) nichts am Hut, der irrt. Mittlerweile steckt sie in vielen Geräten – vom Hörgerät über den Staubsaugerroboter bis zum selbstfahrenden Auto. Das ist bequem, wirft aber auch Fragen auf. Denn der Einsatz von KI wirkt sich auf viele Bereiche aus, sagt Charlotte Stix vom Leverhulme Center for the Future of Intelligence Cambridge: „Es wird den Umgang zwischen den Menschen verändern.“ Kinder und junge Leute seien gewisse soziale Normen nicht mehr gewöhnt. „Es gibt Forscher, die sagen, dass Kinder, die mit Alexa groß werden, nicht mehr ,Bitte‘ und ,Danke‘ sagen, sondern etwas verlangen und erwarten, dass es passiert.“ Zu Alexa sagt man: „Mach das!“ Der Mensch passt sich schnell an: „Ich habe als Kind alle Telefonnummern und Routen auswendig gekannt. Die kennt heute niemand mehr – weil man es in Google Maps eingeben kann.“

Doch KI (auf Englisch Artificial Intelligence, AI) kann weit mehr – z. B. eigenständig Fake-News-Texte erstellen. Das Forschungsunternehmen Open AI hat kürzlich ein Programm herausgebracht: GPT-2 ist ein Textgenerator, der Texte erarbeiten kann, die sich an einem individuellen Schreibstil orientieren – und das klingt dann z. B., als wär's von J. R. R. Tolkien. „Solche Fakes sind immer schwerer zu erkennen“, sagt Stix. Filterblasen und Targeted Messaging seien ein „ganz großes Thema“. Denn: „Den Leuten ist nicht bewusst, wie weit man Nachrichten und Messages spezifizieren und pushen kann.“ Algorithmen registrieren, was man geliked und was man auf Facebook angeschaut oder bestellt hat. „Und dann bekomme ich immer das gezeigt, was ich auch politisch hören möchte. Ein Beispiel dafür ist das Datenanalyse-Unternehmen Cambridge Analytika, das bei den US-Wahlen die Wählermeinung durch Targeted Messaging und Filter Bubbles vermutlich sehr stark verändert hat.“

Und da geht noch mehr: Mit sogenannten Deepfake-Techniken, die u. a. in der Pornografie genutzt werden, kann man sehr realistisch das Gesicht eines Menschen über ein anderes legen, die Person sogar reden lassen. „Es ist oft fast unmöglich zu erkennen, ob das echt ist oder nicht.“ Mithilfe von AI sei auch Voice Cloning (Stimmenreplikation) möglich. „Wenn man beides anwendet, weiß man z. B. nicht mehr, ob ein Politiker dieses oder jenes wirklich gesagt hat oder nicht.“ Über soziale Medien könne sich ein solches Video rasch verbreiten – bis klar sei, dass es ein Fake war, sehen es viele Menschen, und es gibt viele Reaktionen. „Wir denken eben bei einem Video immer noch, dass das, was wir sehen, echt ist“, sagt Stix. „Ganz banal hat sich das auch vor Kurzem mit dem Video von US-Politikerin Nancy Pelosi gezeigt, das bearbeitet wurde, um sie langsamer und betrunkener erscheinen zu lassen.“

Mode gegen Überwachung

Probleme von KI sind die Überwachung durch öffentliche Kameras und die Möglichkeit zur Gesichtserkennung. Als erste Stadt in den USA hat San Francisco Facial Recognition Surveillance durch Behörden untersagt. Begründung: Der Einsatz dieser Technologien könnte die Bürgerrechte verletzen. Man kann die Technik aber auch umgehen: „Wissenschaftler von der KU Leuven aus Belgien beschäftigen sich damit, wie man dieses System mit Mode so austricksen kann, dass es einen nicht mehr erkennt.“ Austricksen kann man auch ein autonomes Auto: Aufkleber auf Verkehrszeichen können dazu führen, dass die KI im Auto das Schild missinterpretiert.

Und noch eine Frage stellt sich: Wer hat Zugriff auf die Daten, die diese Geräte sammeln? Beispiel: Smart-Home-Devices. „Das sind intelligente Geräte, die miteinander ,kommunizieren können‘. Die haben dann aber auch Daten, wie oft man zu Hause ist, in welchen Räumen man sich aufhält, was man gerade macht. Die Frage ist: Wohin werden diese Daten verkauft? Bekommt meine Krankenversicherung gesagt, wie oft ich von der Couch aufstehe? Können andere sehen, wann ich zu Hause bin, oder vorhersagen, wann ich zu Hause sein werde? Diese Geräte machen uns das Leben einfacher, aber nicht unbedingt sicherer.“ Wie die KI-Zukunft aussehen wird, habe viel damit zu tun, was wir erlauben, sagt Stix: „Um Bequemlichkeit im Leben zu haben, erlauben wir, dass Facebook oder Amazon unsere Daten haben. Langsam beginnen die Leute aber zu überlegen, was das heißt.“

Diskussion: „Artificial Intelligence: Mensch – Maschine – Medien – Moral“, Styria Media Center Graz; 4. Juni ab 17 Uhr.

("Die Presse", Print-Ausgabe, 01.06.2019)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.