Moritz Riesewieck, Autor, über die digitale Müllabfuhr von Facebook

»Viele motivieren sich mit ihrer Religion«

Moritz Riesewieck hat auf den Philippinen über Service-Center recherchiert, die im Auftrag von Facebook Gräuelbilder löschen.
Interview Von

Täglich werden Facebook-Einträge als unangemessen gemeldet. Löschungen erfolgen durch Computerprogramme oder durch Content-Moderatoren. Einige Hundert Mitarbeiter arbeiten in Callcentern in Berlin und Dublin, die meisten allerdings auf den Philippinen im Großraum Manila. Die dort Beschäftigten sind unterbezahlt, schlecht ausgebildet und müssen sich ohne angemessene psychologische Betreuung täglich durch Tausende Hasspostings, Hinrichtungs- und Pornovideos klicken.
Moritz Riesewieck hat in dem Land recherchiert und schildert in seinem Buch »Digitale Drecksarbeit. Wie uns Facebook & Co. von dem Bösen er­lösen« die Mechanismen von Zensur und Ausbeutung.

Anzeige

 

In Ihrem Buch bezeichnen Sie Face­book als »walled garden«. Was hat es damit auf sich?
Das ist ein Begriff aus der Ökonomie: Unternehmen versuchen, ihre Kunden möglichst lange innerhalb des eigenen »Gartens« zu halten. Nutzer müssen Facebook beispielsweise nicht mehr verlassen, weil sie dort alles finden, was sie brauchen: Telefon, Messenger, Zeitungsartikel. Deshalb müssen die Unternehmen dem Nutzer suggerieren, dass er sich in einem natürlichen Umfeld be­findet, der Garten muss seine Künstlichkeit verstecken.

Content-Moderatoren verrichten im Hintergrund die digitale Drecksarbeit: Sie sichten täglich Unmengen von Bildmaterial, das als »unangemessen« gemeldet wurde, darunter Kinderpornos und Aufnahmen von Hinrichtungen. Welche Wirkung hat das auf die Psyche der Beschäftigten?
Ähnlich wie bei Soldaten nach Kriegseinsätzen häufen sich dort Fälle von posttraumatischen Belastungsstörungen (PTS). Manche erleben Flashbacks; Farben, Gegenstände und Bilder tauchen wie aus dem Nichts auf. Andere Symptome sind Libdioverlust, Essstörungen, Depressionen. Manche begehen Selbstmord, weil sie es nicht mehr aushalten. Was ihnen im Umgang mit traumatisierenden Situationen helfen könnte, wäre die Möglichkeit, mit anderen zu sprechen. Die Geheimhaltungspolitik des Arbeitgebers verhindert aber genau das. Die Firmen beauftragen zwar manchmal eigene Therapeuten für Gruppensitzungen, doch die Mitarbeiter trauen sich oft nicht, offen mit ihnen zu sprechen, schließlich sind die Therapeuten von der Firma angestellt. Zudem sind es keine ausgebildeten Psychotherapeuten. Die machen eher Esoterik als Psychothe­rapie. Auch im privaten Umfeld können die Betroffenen meist nicht sprechen: Psychische Probleme sind auf den Philippinen stigmatisiert. Angesichts der herrschenden Armut, des Hungers und weitverbreiteter gesundheitlicher Probleme gelten psychische Belastungen oftmals als lächerlich.

Welche Rolle spielt die Religion auf den Philippinen für den Standort?
Die Outsourcing-Firmen werben damit, dass die Philippinen im Zuge der Kolonialisierung christianisiert wurden: »Die Leute teilen unsere Werte.« Die Vorstellung, die Philippinos seien den Amerikanern ähnlich, ist aber vermessen: Sie sind extrem strenggläubig. Sie posten Bibelzitate auf Facebook oder tragen T-Shirts mit Sprüchen wie »My faith makes me ­limitless«. Dementsprechend haben sie grundlegend andere Einstellungen: Sie sind obrigkeits­treu, Sex und Rebellion stehen im Verdacht, ein Werkzeug des Teufels zu sein. Das wirkt sich natürlich auf ihre Arbeit als Content-Moderatoren aus. Viele ­motivieren sich mit ihrer Religion. Wie Jesus am Kreuz opfern sie sich für die Sünden der Menschen. Nur geben sie nicht ihre körperliche, sondern ihre seelische Unversehrtheit auf.

Kann die Arbeit der Callcenter-Mitarbeiter in absehbarer Zeit durch Algorithmen verrichtet werden?
Alle seriösen Wissenschaftler sagen: Das geht nicht. Es gibt schlicht zu viele Grauzonen, zum Beispiel ist Ironie und Satire für Maschinen schwer erkennbar, der kulturelle Kontext erschließt sich ihnen nicht. Selbst, wo es für Maschinen also technisch ­einfach sein sollte, Bildinhalte zu identifizieren, sind sie wegen ihrer Kontextblindheit nicht einsetzbar. Darüber hinaus ist es technisch extrem schwierig, Bildinhalte maschinell zu identifizieren, von Videos ganz zu schweigen.

»Unternehmen wie Facebook werden sich nicht aus Märkten zurückziehen, nur weil die autokratischen Regierungen in den betreffenden Ländern die Meinungsfreiheit nicht achten.«

Welche Legitimation hat Facebook, Inhalte zu löschen? Was ist problematisch an dieser Praxis?
Zum einen bleibt es völlig intransparent, wie darüber entschieden wird, ob eine Person als Terrorist gilt oder als Widerständler. Facebook gleicht das mit einer Terrorliste der CIA ab, diese wird jedoch nicht veröffentlicht. Zum anderen werden bestimmte Bilder, etwa wenn sie islamistische oder faschistische Kennzeichen abbilden, einfach gelöscht. Es gibt viele Beispiele dafür, dass bei der Löschung der Kontext ungenügend ­berücksichtigt wird. Es wird oft nicht genau unterschieden, ob es sich um eine Karikatur handelt, um Propaganda, Berichterstattung oder Kritik. Die Content-Moderatoren haben zwischen drei und fünf Sekunden Zeit, um diese Unterscheidung zu treffen. Die kulturellen und politischen ­Hintergründe sind ihnen meist unbekannt, ihnen fehlt eine beson­dere Qualifizierung. Das führt ständig zu Missverständnissen. Im Zweifelsfall wird eher zu viel als zu wenig gelöscht. Es bedeutet letzlich auch eine Einschränkung der Freiheit des Ausdrucks, einen Zwang zur Vereinfachung. So wurde zunächst ein wichtiges Dokument der Kriegsfotografie, das nackte Mädchen, das in Vietnam vor einem US-amerikanischen ­Napalm-Angriff flieht, gelöscht, weil die Content-Moderatoren es für Kinderpornographie hielten.

Im Juni 2017 verabschiedete der Bundestag das Netzwerkdurchsetzungsgesetz. Dieses verlangt von sozialen Netzwerken, strafbare Inhalte innerhalb von 24 Stunden zu löschen. Erhöht dieses Gesetz die Gefahr staatlicher Internetzensur?
Ja, absolut, die Gefahr erhöht sich. Durch die staatlichen Sanktionen, die Facebook drohen, erhöht sich der Druck, im Zweifel eher zu viel zu ­löschen als zu wenig. Als einzelner hat man aber kaum eine Chance, eine Löschung oder Freischaltung durchzusetzen. Die wenigsten können es sich leisten, einfach so gegen Facebook vor Gericht zu ziehen. Zudem schaffen die Löschaufträge ­demokratischer Regierungen Präzedenzfälle für autokratische Regierungen. Politiker wie Erdoğan fragen dann: »Warum sollte ich das nicht auch dürfen?« Unternehmen wie Facebook werden sich auch nicht aus Märkten zurückziehen, nur weil die autokratischen Regierungen in den betreffenden Ländern die Meinungsfreiheit nicht achten. Im Zweifel arrangiert sich Facebook immer mit der lokalen Gesetzgebung und den bestehenden Machtverhältnissen.

Wie könnte man die Arbeitsverhältnisse der »Löscharbeiter« verbessern?
Die kleine, gerade im Aufbau befindliche philippinische Gewerkschaft Bien fordert zum Beispiel einen vernünftigen Lohn. Momentan arbeiten viele Löscharbeiterinnen für umgerechnet einen Dollar pro Stunde. Darüber hinaus bräuchte es eine umfassende psychologische Einzelbetreuung, mehr Pausen und Ruhetage. Diese Maßnahmen greifen aber nur kurzfristig. Langfristig müssen wir die Frage stellen: Wer soll diese Arbeit eigentlich machen? Überforderte, schlecht eingearbeitete Billigarbeiter sollen Inhalte löschen, die aus einem für sie oft völlig unverständlichen kulturellen Kontext stammen?

Was wäre ein Ansatz für ein »besseres Facebook«?
Die Facebook-Utopie einer vernetzten Welt sollte nicht aufgegeben werden. Was wir brauchen, ist eine Art basisdemokratische Uno für Facebook. Unser Ansatz sollte sein, Facebook zu übernehmen. Die Utopie besteht im globalen demokratischen Prozess selbst. Was wir brauchen, ist Transparenz und eine digitale demokra­tische Diskussion über Werte und Richtlinien.

Sie haben recherchiert, dass die Callcenter auf den Philippinen eine eigene Polizei beschäftigen, die die Mitarbeiter kontrolliert.
Immer mehr staatliche Aufgaben werden an Privatfirmen ausgelagert. Facebook selbst ist ein gutes Beispiel dafür: Die digitale Öffentlichkeit konzentriert sich in der Hand eines multinationalen Unternehmens. Aber diesem Unternehmen arbeiten Call­center zu, die dessen Inhalte kontrollieren und dabei ihre eigenen Mit­arbeiter mit Hilfe einer Privatpolizei kontrollieren. So wird den Mitarbeitern gesagt, sie sollten Gespräche mit ausländischen Journalisten unterlassen. Die Androhung von Geld- und Gefängnisstrafen wirken ex­trem einschüchternd, auch wegen des ökonomischen Drucks, die Mitarbeiter müssen mit ihrem Lohn oft eine ganze Großfamilie durchbringen. Im Zuge unserer Recherchen dort haben wir eine Studentin angeheuert und beauftragt, für uns im Umfeld eines solchen Callcenters zu recherchieren. Wenig später tauchten Fotos von ihr auf, versehen mit der Warnung: Mit dieser Frau nicht sprechen!

Haben Facebook und Google politische Ambitionen?
Nein. Ganz im Gegenteil glaube ich, dass die vorgebliche politische Neutra­lität dazu führt, dass Facebook sich in Widersprüche verstrickt. Unter gegebenen Umständen ist es schlicht unmöglich, weltweit gültige Richtlinien für die User zu erstellen. Die scheinbare Neutralität und die wirtschaftlichen Ambitionen von Facebook führen dazu, dass der Konzern in aller Regel mit Regierungen kooperiert, auch mit autokratischen. Informationen über Nutzer werden an Regierungen weitergegeben, zum Beispiel an die türkische.

Mark Zuckerberg möchte, dass in Zukunft jeder Nutzer selbst wählen kann, welche Inhalte er sehen will und welche nicht, also zum Beispiel keine Gewalt, dafür aber Sex. Wäre das ein Weg, die Meinungsfreiheit zu wahren?
Wir dürfen den Einzelnen nicht aus der Pflicht für das große Ganze entlassen. Wenn jeder in seinen Serviceeinstellungen einen individuellen Filter dafür erstellt, was er sehen will und was nicht, würde das gesellschaftliche Problembewusstsein für die Inhalte verlorengehen. Wir müssen uns als Gesellschaft immer wieder mal ermahnen, dass wir ein gemeinsames Bewusstsein dafür brauchen, wo wir stehen. Facebook ist nicht mehr nur ein Service unter vielen. Große Teile des öffentlichen ­Lebens finden nur noch dort statt. Insofern hat das Netzwerk auch eine Verantwortung für die Gesellschaft.

 

Moritz Riesewieck: Digitale Drecksarbeit. Wie uns Facebook & Co. von dem Bösen erlösen. DTV, 303 Seiten, 16,90 Euro