Facebook ärgert Nutzer mit Psycho-Test

Attendees use their laptops at the Google I/O developers conference in San Francisco
Attendees use their laptops at the Google I/O developers conference in San FranciscoREUTERS
  • Drucken

Facebook manipulierte ungefragt die Seiten von rund 690.000 Nutzern. Die meisten dürften dem Netzwerk dennoch treu bleiben.

Menlo Park. Eines ist klar: Wer Facebook nutzt, dessen Daten sind eben nicht mehr privat. Wie das soziale Netzwerk jüngst mit Daten zahlreicher Mitglieder umging, sorgte dennoch einigermaßen für Aufregung. Für eine Studie manipulierte Facebook den Nachrichtenstrom (Newsfeed) von 690.000 Nutzern der englischsprachigen Version. Den einen wurden mehr positive Nachrichten angezeigt, den anderen mehr negative. Mit dem Experiment wollte Facebook erforschen, wie sich Emotionen in Netzwerken verbreiten.

Ergeben hat die Studie, dass Menschen, die mehr positive Nachrichten sahen, etwas eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen. Und umgekehrt.

Doch die Studienergebnisse sind für viele Facebook-Nutzer im Moment weniger interessant – weit größer ist die Empörung darüber, wie die Studie zustande kam. Ohne Vorwarnung war der Newsfeed von zahlreichen Nutzern gefiltert worden, mehr als drei Millionen Einträge wurden mittels einer Software ausgewertet, die per Wortanalyse die Emotion zuordnete. In der Nacht auf Montag rechtfertigte Facebook das Vorgehen. Es sei wichtig für das Online-Netzwerk zu verstehen, wie Mitglieder auf diverse Inhalte reagierten. „Wir überlegen vorsichtig, welche Forschung wir betreiben, und haben ein striktes internes Aufsichtsverfahren“, hieß es vom Unternehmen.

„Keine langfristigen Folgen“

Adam Kramer, Datenforscher bei Facebook und Ko-Autor der Studie, schrieb auf seiner Facebook-Seite, es tue ihm leid, falls der Bericht zu Verunsicherung geführt habe. Zudem sei die Aufsicht über solche Studien seither verbessert worden. Er versicherte, dass an der Studie die mindestmögliche Zahl von Nutzern für statistisch relevante Ergebnisse beteiligt gewesen sei.

Bei der im Februar 2012 einwöchig durchgeführten Studie seien keine Daten gesammelt worden, die einzelnen Nutzern zugeordnet werden könnten. Ein Anstoß für das Experiment seien Bedenken gewesen, dass viele negative Einträge von Freunden Nutzer veranlassen könnten, Facebook zu meiden. Man habe überprüfen wollen, ob sich Menschen ausgeschlossen fühlen, wenn sie positive Nachrichten ihrer Freunde sehen.

Das Online-Netzwerk, das bereits rund 1,2 Milliarden Nutzer hat, wird regelmäßig für seinen freizügigen Umgang mit Nutzerdaten kritisiert. Experten vermuten aber, dass auch die jüngste Aufregung keine großen Auswirkungen haben wird: „Der Ärger wird keine langfristigen Folgen haben“, sagt James Grimmelmann, Professor für Technologie und Recht an der Universität Maryland. Manche Nutzer würden vielleicht drohen, das Netzwerk zu verlassen, aber die meisten Menschen wollten dort sein, wo ihre Freunde sind – und es gebe keine Alternative, die mehr Privatsphäre biete: „Facebook hat in den letzten Jahren so viele Dinge getan, die Menschen verängstigt und verärgert haben.“

Dessen dürfte sich auch Facebook recht sicher sein. Entsprechend halbherzig liest sich jedenfalls ein Kommentar der Firma zur aktuellen Causa: Es gebe „keine unnötige Sammlung von Nutzerdaten im Zusammenhang mit solchen Forschungsinitiativen.“ Was „unnötig“ ist, liegt wohl im Auge des Betrachters. (APA/Bloomberg)

AUF EINEN BLICK

Für ein Experiment filterte Facebook unangekündigt den Newsfeed (Nachrichtenstrom) von 690.000 Nutzern. Damit wollte das Online-Netzwerk erforschen, wie sich Emotionen in Netzwerken verbreiten. Die Studie ergab, dass Menschen, die mehr positive Nachrichten sahen, etwas eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen – und umgekehrt. Dafür wurden über drei Millionen Einträge ausgewertet.

("Die Presse", Print-Ausgabe, 01.07.2014)

Lesen Sie mehr zu diesen Themen:

Mehr erfahren

Facebook manipulierte Nachrichtenstrom der Nutzer
Internet

Facebook manipulierte Nachrichtenstrom der Nutzer

Bei dem Experiment sollte erforscht werden, wie sich positive und negative Emotionen in Netzwerken ausbreiten.
A portrait of the Facebook logo in Ventura
Internet

Britische Behörde prüft umstrittenes Facebook-Experiment

Datenschützer prüfen, ob Facebook mit seinem Experiment gegen Gesetze verstoßen hat.
Facebook manipulierte Nachrichtenstrom der Nutzer
Internet

Facebook manipulierte Nachrichtenstrom der Nutzer

Bei dem Experiment sollte erforscht werden, wie sich positive und negative Emotionen in Netzwerken ausbreiten.

Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.