Suizidprävention

Stört Datenschutz die künstliche Intelligenz?

Künstliche Intelligenz werde sprachliche Nuancen erkennen können, sagte Facebook-Chef Zuckerberg. Suizidprävention wird Facebook in Europa aber unterlassen.
Künstliche Intelligenz werde sprachliche Nuancen erkennen können, sagte Facebook-Chef Zuckerberg. Suizidprävention wird Facebook in Europa aber unterlassen.(c) REUTERS (Stephen Lam)
  • Drucken

Die Datenschutzgrundverordnung wirft ihre Schatten voraus: Facebook setzt in Europa keine intelligente Suizidprävention ein.

Wien. Im Gefolge mehrerer Livestreams von Selbstmorden gab Facebook Ende 2017 bekannt, in Zukunft Algorithmen einzusetzen, die mit künstlicher Intelligenz ausgestattet und in der Lage seien, selbstmordgefährdete Nutzer zu identifizieren. In Zusammenarbeit mit einschlägigen Organisationen seien „first responder“ geschult worden, die mit solchen Nutzern dann direkt in Kontakt treten: „Es gab Fälle, in denen ein first responder noch während des Livestreams beim Nutzer eintraf“, berichtet Guy Rosen, Produktchef von Facebook, aus der Testphase, bei der über hundert gefährdete Nutzer identifiziert worden seien. Wie dies genau funktioniert, wurde nicht erklärt. Mark Zuckerberg meinte dazu nur: „Künstliche Intelligenz wird in der Lage sein, sprachliche Nuancen zu erkennen.“

Das deutet darauf hin, dass es bei der neuen Software nicht nur um die Erkennung expliziter Begriffe geht. Das von Facebook erwähnte Aufspüren solcher Phrasen wie „kill myself“ oder von Fragen anderer User wie „Do you need help?“ könnte nämlich auch mit herkömmlichen Suchfunktionen bewältigt werden. Künstliche Intelligenz ist demgegenüber vor allem durch Lernfähigkeit charakterisiert, also dadurch, dass ein Programm sich selbst weiterentwickeln kann. Dies wäre im vorliegenden Zusammenhang z. B. dann der Fall, wenn erkannt wird, dass in Kombination mit eindeutigen Phrasen („kill myself“) immer wieder Formulierungen vorkommen, die weniger einschlägig sind (z. B. „can't go on“). Kann das Programm entsprechende User auch dann als gefährdet einstufen, wenn sie, ohne von „kill myself“ zu sprechen, Phrasen wie „can't go on“ gehäuft verwenden, hat es gelernt. Dann kann es, bei entsprechender Reaktion, früh zur Verhinderung von Suiziden beitragen – ein unbestreitbar wünschenswertes Ergebnis.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.