Neue Entdeckungen: Was Facebook nicht heilen kann

Neue Entdeckungen: Was Facebook nicht heilen kann


exklusiv

Stand: 25.10.2021 13:59 Uhr

Die internen Dokumente, die NDR, WDR Und SZ ist vorhanden, und sie zeigen hartnäckige Probleme mit Facebook: Polarisierungsalgorithmen, Schwächen in der Moderation vor allem außerhalb der USA und mangelnde Popularität bei jüngeren Nutzern.

Von Svea Eckert, Lena Kampf und Georg Mascolo, WDR/NDR

Es gibt mehr als tausend interne Dokumente, Mitarbeiterchats und Facebook-Untersuchungen, die die Whistleblowerin Frances Haugen dem US-Kongress zur Verfügung gestellt hat. Datenspezialist Haugen arbeitete von 2019 bis 2021 als Produktmanager bei Facebook im Civic Integrity Team, das im Vorfeld der US-Wahl Strategien entwickeln sollte, um Nutzer vor Fehlinformationen zu schützen.

Anfang Oktober sagte Haugen vor dem US-Kongress aus, heute wird sie vor dem britischen Parlament erscheinen. Der Whistleblower wird nun von einem größeren Team von Anwälten beraten, auch von denen, die der Demokratischen Partei nahe stehen.

Detective Hogan machte auf die Probleme aufmerksam.

Foto: Umweltschutzbehörde

Das European Media Consortium teilte die Dokumente mit NDR, WDR Die „Süddeutsche Zeitung“ (SZ) wertet weiter aus. Dies offenbart neue Details aus dem Innenleben der Gruppe. Facebook selbst bezeichnet die geleakten Dokumente als unvollständig, aus dem Zusammenhang gerissen und nicht mehr aktuell. Das sind die neuen zentralen Erkenntnisse:

1. Facebook selbst weiß, wie schnell Nutzer abdriften können

In Tests mit gefälschten Nutzern haben Facebooks interne Forscher eindrucksvoll gezeigt, wie schnell Facebook Nutzern gefährliche Inhalte vorschlägt. Carol Smith und Karen Jones werden im Sommer 2019 auf Facebook registriert. Beide 41 Jahre alt und aus einer Kleinstadt im Südosten der USA stammend, haben sie auf Facebook die gleichen Interessen bekundet: Elternschaft. Christentum. Aber Carol unterstützt Donald Trump und Karen ist ein Fan von Bernie Sanders.

Eine Handvoll Likes reichte aus, um wenige Tage später extrem hasserfüllte, frauenfeindliche und anstößige Inhalte auf die Plattform zu bringen. „Carol“ sind auch vorgeschlagene Seiten von QAnon, einer Handlungsgeschichte.

Das Fazit der Facebook-Forscher: Die Inhalte, die „im Wesentlichen unseren Empfehlungssystemen folgen“, hätten in „extrem kurzer Zeit“ „eher besorgniserregende Polarisierungsmerkmale“ angenommen. Die Forscher replizieren auch die Erfahrungen in Indien, so dass es nur wenige Tage dauerte, bis die Empfehlungen zu einem endlosen Strom von antimuslimischem Hass und Hetze wurden.

2. KI ist schlimmer als Facebook behauptet

Zehntausende Menschen sehen sich problematische Inhalte im Namen von Facebook an. Sogenannte Content Broker können mit der Löschung oft nicht mithalten. Deshalb will Facebook Menschen durch Maschinen ersetzen. Facebook-Chef Mark Zuckerberg lobt seit Jahren die beachtlichen Fortschritte, die Facebooks Systeme bei der Erkennung von Hassreden, grausamen Videos oder terroristischen Inhalten gemacht haben.

Einige Facebook-Mitarbeiter trauen diesem Einlösungsversprechen nicht. „Wir werden wahrscheinlich nie ein Modell haben, das die meisten Integritätsverletzungen erkennt, insbesondere in sensiblen Bereichen“, schrieb ein Forscher 2019. Er spricht von einer Erkennungsrate von 2 Prozent, eine andere interne Studie spricht von drei bis fünf Prozent. Facebook stellt fest, dass es immer unwahrscheinlicher wird, dass Nutzer auf der Plattform Hassreden sehen. Diese Metrik ist relevanter als die Erkennungsrate.

3. Außerhalb der USA sieht es schlimmer aus

Beispiel Arabisch: Obwohl mehr als 220 Millionen Nutzer Arabisch sprechen und damit die drittgrößte Gruppe auf den Plattformen bilden, herrscht ein akuter Mangel an Vermittlern für verschiedene Länder. Eine interne Studie bemängelt, dass Makler hauptsächlich aus Marokko und Syrien kommen, können die Inhalte aber beispielsweise aus dem Jemen oder der Golfregion nicht wirklich einordnen.

Der interne Bericht zeigt, dass Facebook fast jedes Land, in dem Arabisch gesprochen wird, als „Hochrisikoland“ einstuft. Die Entwicklung einer künstlichen Intelligenz, die Hass und Anstiftung erkennen soll, bevor den Nutzern Inhalte angezeigt werden, ist in anderen Sprachen teuer und sehr umständlich. Im Arabischen beispielsweise können Algorithmen nicht zwischen Koranzitaten und tatsächlichen Gewaltaufrufen unterscheiden. Facebook beschäftigt nach eigenen Angaben 15.000 Vorgesetzte in mehr als 70 Sprachen auf der ganzen Welt, darunter Arabisch im Jemen, Libyen, Saudi-Arabien und im Irak.

4. Facebook verliert an junge Nutzer

In einer Vielzahl von Grafiken und Tabellen zeigen interne Auswertungen, dass eine kleine Zielgruppe abwandert. Die meisten Leute haben Facebook schon immer als Plattform für ihre Eltern betrachtet, und Instagram wird immer „unfreundlicher“. Jetzt gilt es gegenzusteuern: Bisher gibt es nur ein Produkt für Kids mit Messenger Kids, für alle anderen Apps bewirbt sich der 13-Jährige offiziell. In der Realität ist es für Facebook jedoch sowieso schwierig zu kontrollieren, wer sich anmeldet. Daher sollte man eine Kinderversion von Instagram erstellen, die nach Kritik pausiert wird.

Gewinne an erster Stelle

Whistleblowerin Frances Hogan kommentiert die Dokumente in einem Interview: „Ich habe immer wieder gesehen, wie Facebook damit umgeht, wenn es zwischen Profit und Sicherheit einen Konflikt gibt.“ Facebook legt diese Streitigkeiten regelmäßig zugunsten seiner Gewinne bei. Laut Hogan gibt es tatsächlich Lösungen, die Hass und Aufstachelung stärker eindämmen werden. Die Entscheidung trifft am Ende fast immer die Marketingabteilung. Und es wird immer vom Wachstum abhängen.

Facebook-Zähler-Impression auf Anfrage NDR, WDR und SZ „Die Zahl der Hassreden ist seit Beginn der Berichterstattung in drei aufeinander folgenden Quartalen zurückgegangen. Dies ist auf Verbesserungen bei der proaktiven Erkennung von Hassreden und Änderungen im Ranking im News Feed zurückzuführen.“

Die sogenannten #FacebookFiles, über die erstmals das Wall Street Journal berichtete, wurden in einigen Fällen Reportern zur Verfügung gestellt, ihre Identität wurde von einem US-Kongressmitarbeiter vorenthalten und anonymisiert. In Europa, „Süddeutsche Zeitung“, so Und WDR Zusammen mit Le Monde aus Frankreich, Tamedia Publishing aus der Schweiz, der dänischen Zeitung Berlingsky, der belgischen Zeitschrift Knack und der investigativen Plattform OCCRP.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here