Facebooks schwacher Kampf gegen Hasspostings in Myanmar

REUTERS
  • Drucken

Seit 2013 weiß Facebook, dass in Myanmar die Plattform dazu verwendet wird, um gegen muslimische Minderheiten Stimmung zu machen und dazu aufzurufen sie zu "töten und an Schweine zu verfüttern". Jetzt reagiert das Unternehmen.

Facebook hat versagt. Schon wieder. Man ackert sich durch die Welt; um die Konsequenzen kümmern wir uns später. Diese Einstellung kostet Menschenleben. Facebook ist in Myanmar der wichtigste Internetdienst. Der Dienst ist voll von Aufrufen zu Gewalt gegen Minderheiten. Und Facebook wusste davon. Einem Bericht zufolge seit Jahren.

Facebook ist die erste Anlaufstelle bei der Beschaffung von Informationen. Doch trotz dieser Position gibt es in dem Land keinen einzigen Facebook-Mitarbeiter. Sätze wie "Wir müssen die Rohingya [muslimische Minderheit; Anm. der Redaktion] bekämpfen, wie es Hitler mit den Juden getan hat", stehen seit 2013 auf Facebook.

Laut Reuters soll es nach wie vor mehr als 1000 solcher Einträge geben. Kommentare, Bilder und Videos, die dazu aufrufen, die Minderheit zu bekämpfen, "zu erschießen" und "an Schweine zu verfüttern". Die Uno berichtet von "ethnischen Säuberungen". Facebook spiegelt die aktuelle Stimmungslage im Land wider. 700.000 Muslime seien im letzten Jahr aus Myanmar nach Bangladesch geflohen.

2014 wurden Meldungen auf Facebook verbreitet, dass ein Muslime eine Buddhistin vergewaltigt haben soll. Diese Falschmeldung hatte einen Aufstand zur Folge. Zwei Menschen wurden dabei getötet und zahlreiche verletzt.

Wie auch in anderen Teilen der Welt schafft Facebook es nicht, Teams aufzustellen, die den Kommentaren Herr werden. In Myanmar gibt es 18 Millionen Nutzer. Dem stehen 60 Personen gegenüber, die von einer Drittfirma mit der Kontrolle der Postings beauftragt sind. Mit wenig Erfolg, wie die Erkenntnisse von Reuters zeigen. Beiträge aus 2013 stehen nach wie vor auf der Plattform und auch aktuelle Beiträge werden nicht kuratiert; auch wenn sie klar gegen die Nutzungsbedingungen verstoßen. Facebook selbst hat insgesamt drei Angestellte, die von Dublin aus für die Facebook-User aus Myanmar zuständig sind. Nicht wirklich viel.

Facebook hat nach dem Reuters-Bericht in einem Blogeintrag Verbesserungen versprochen. Bis Ende des Jahres sollen 40 weitere Prüfer eingestellt werden.

Das grundlegende Problem ist aber, dass das Meldeverfahren in Unicode-Standard dargestellt wird. Das wird aber von 90 Prozent der User nicht genutzt, diese setzen auf die lokale Alternative Zawgyi. Daher komme es oft zu Verständnisschwierigkeiten. Außerdem ist die Sprache eine zusätzliche Barriere. Die selbst entwickelte Funktion, mit der Nutzer Burmesisch ins Englisch übertragen kann, trägt seltsame Früchte: Aus dem von Reuters entdeckten burmesischen Eintrag "Tötet alle Kalars (Schimpfwort für Rohingya - die Red.), die ihr in Myanmar seht; keiner sollte am Leben gelassen werden" wird im Englischen "Ich sollte keinen Regenbogen in Myanmar haben".

Eine Verbesserung nicht in Sicht

Für die Erkennung von Hassrede werde aber laut Facebook ein eigenes System verwendet. Welches, wollte das Unternehmen nicht sagen. Außerdem nannte man auch keine Zahlen, wie viele Beiträge durch die Umstellung auf das neue System nun mehr gelöscht werden als noch zuvor.

Probleme, die Facebook schon seit nunmehr fünf Jahren kennt. Menschenrechtsaktivisten weisen seitdem regelmäßig auf die Missstände in dem Land mit Facebook hin. Ob der Reuters-Bericht Abhilfe schafft, bleibt abzuwarten. Ausgehend davon, dass Facebook auch in englisch- und deutschsprachigen Ländern Probleme hat, Falschmeldungen und Hasspostings zeitnah zu löschen, ist eine Änderung der jetzigen Situation als unwahrscheinlich einzustufen.

>>> Guardian

(bagre)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.