Die Dokumentation “The Cleaners” auf Amazon Prime gewährt einen verstörenden Einblick in die Welt der Content-Moderatoren, die im Schatten agieren und dafür sorgen, dass soziale Medien frei von anstößigen und gefährlichen Inhalten sind. Mit der Aufgabe, täglich durch 25.000 Bilder zu gehen, stehen diese Moderatoren vor einer enormen Verantwortung, die weitreichende Konsequenzen für die Nutzer und die Gesellschaft haben kann.

Was sind Content-Moderator*innen?

Die Content-Moderatoren sind die unsichtbaren Wächter*innen der sozialen Netzwerke. Sie überwachen und moderieren den Inhalt der Nutzer*innen von Facebook, X und Co., um sicherzustellen, dass nichts Anstößiges hochgeladen wird. Als „anstößig“ gilt alles, was gegen die Nutzungsrichtlinien der jeweiligen Plattformen verstößt. Content-Moderator, die auch Click-Worker genannt werden, müssen bis zu 25.000 Bilder und Videos pro Tag sichten und mittels eines einzigen Mausklicks die Materialien entweder löschen oder ignorieren (= freigeben).

Das Problem dabei: Bei den Bildern und Videos handelt es sich um die allerschlimmsten Abgründe des Internets! Die Moderatoren bekommen hauptsächlich hochgeladene Bilder und Videos von Vergewaltigungen, (Kinder-)Pornografien, Enthauptungsvideos von Terrororganisationen, Nacktbilder aller Art, ärgste Gewaltvideos und vieles mehr. Sobald das gesichtete Material gegen die Richtlinien der Netzwerke verstoßen, muss es von den Content Moderatoren manuell per Mausklick gelöscht oder freigegeben werden. Erst dann wird das Bild oder Video überhaupt erst auf Social Media sichtbar!

Es ist besonders beunruhigend, dass große Technologiekonzerne wie Facebook und Google ihre Content-Moderation an Drittfirmen auslagern, oft in Länder wie die Philippinen. Die Content-Moderatoren machen die Jobs, weil sie für dortige Verhältnisse recht gut bezahlt werden (ca. 2 Dollar pro Stunde) und weil der Job keine Ausbildung erfordert. Im Film ist zu sehen, dass die Alternative für die Ärmsten in Manila oft nur ein Job als Müllsammler ist.

Die täglichen Millionen Nutzer*innen der sozialen Netzwerke sind sich nicht bewusst, wer hinter den Kulissen dafür sorgt, dass ihre Plattformen sauber bleiben. Die Content-Moderatoren, die ohne angemessene Anerkennung und unter extremen Bedingungen arbeiten, sind die unbekannten Helden dieser digitalen Ära.

KI-generiert mit Leonardo.ai

Warum übernimmt nicht KI die Content-Moderation?

Wichtig in dem Zusammenhang ist anzumerken, dass der Film „The Cleaners“ bereits im Jahr 2018 erschienen ist und deshalb auch das Thema KI noch in weiter Ferne war. Richtig ist, dass die Content-Moderation bei den sozialen Netzwerken mittlerweile durch ein Zusammenspiel zwischen menschlichen Content-Moderatoren und KI-Systemen erledigt wird. Ganz ohne menschliche Arbeitsleistung geht es (zum Glück) natürlich nicht.

KI-Systeme können mittlerweile große Mengen an Daten in kurzer Zeit verarbeiten und bestimmte sprachliche Besonderheiten wie Hassreden, Cybermobbing, Inhalte für Erwachsene und Fake News erkennen. KI-basierte Content Moderation ist kostengünstiger, effizienter und skalierbarer als menschliche Moderation.

Menschliche Content Moderation hingegen erfordert, dass Teams von Content Moderatoren eingesetzt werden, die benutzergenerierte Inhalte manuell prüfen. Sie überprüfen auch gemeldete Inhalte, also wenn Nutzer*innen Bilder z. B. direkt an Facebook, Instagram usw. melden, weil sie anstößig sind. Die menschlichen Moderatoren wenden dann die Richtlinien an und treffen Entscheidungen darüber, ob ein Inhalt entfernt werden sollte oder nicht. Menschen können besser als KI den Kontext, die Absicht und die Nuancen von Inhalten verstehen und berücksichtigen.

Die Türkei als Beispiel für staatliche Zensur

Die Doku zeigt auch, wie in der Türkei staatliche Zensur die sozialen Medien beeinflusst. In einem Land, in dem traditionelle Medien zunehmend von der Regierung kontrolliert werden, wenden sich die Menschen vermehrt den sozialen Medien zu. Doch auch hier versuchen die Behörden, Inhalte zu blockieren oder zu löschen, was die Meinungsfreiheit erheblich beeinträchtigt.

David Kaye, der UN-Sonderberichterstatter, hebt im Film hervor, wie vor allem die türkische Regierung hinter den Kulissen mit Unternehmen verhandeln und diese dazu drängen, bestimmte Meinungen oder Inhalte zu verbieten. Die Unternehmen werden dadurch zunehmend gedrängt, genau solche Entscheidungen von sich aus zu treffen. Sie müssen also entscheiden, was gesetzwidrig und was legal ist. Genau das sollte die Menschen in demokratischen Gesellschaften zutiefst beunruhigen.

Die Verantwortung der Content-Moderatoren

Die Content-Moderatoren tragen eine immense Verantwortung und dürfen sich bei ihrer Arbeit keine Fehler erlauben. Ihre Entscheidungen können Leben beeinflussen, Kriege auslösen oder sogar Suizide provozieren. Die Art und Weise, wie soziale Medien politische Spaltungen verstärken, wird durch den ehemaligen Facebook-Produktmanager Antonio García Martínez treffend beschrieben:

Facebook ist ein Technologiekonzern, geführt von Ingenieuren, denen es ums Produkt geht: um Infrastrukturen, um Größe, Nutzererfahrung. Facebook ist kein Medienunternehmen. Es macht sich keine Gedanken über Inhalte, redaktionelle Entscheidungen oder Urheberschaft. Das ist einfach nicht Teil seiner DNA. Facebook streitet jegliche Verantwortung für die Inhalte auf der Plattform ab. 

Antonio García Martínez, Produktmanager von Facebook 2014-2016

Das Credo der sozialen Netzwerke lautet: Wir betreiben nur Mathematik mit diesem Algorithmus. Ihr bekommt, was ihr wollt und wir mischen uns nicht ein. In einigen Live-Mitschnitten aus Gerichtsverhandlungen gegen Facebook wird gezeigt, wie sich hochrangige Facebook-Manager mit genau dieser Argumentation die Hände abputzen.

Das Spiel mit der Angst

Die Rohingya in Myanmar sind die am meisten verfolgte Minderheit der Welt. Die meisten Leute in Myanmar kennen überhaupt nur Facebook als einzige soziales Netzwerk und Hauptnachrichtenquelle. Dort werden aber sehr viele falsche Informationen verbreitet, Hass-Nachrichten gegen die Rohingya sind extrem geliebt, werden geteilt und geliked. Die Mehrheit der Menschen in Myanmar hasst deshalb die Rohingya und es kommt zu einem Genozid. In Bangladesch leben eine Million Rohingya in Flüchtlingslagern und Facebook trägt maßgeblich dazu bei, dass der Hass auf sie immer weiter angefeuert wird.

Denn wenn man sich eine bestimmte Art von Videos auf Facebook und anderen sozialen Medien anschaut und liked, dann bekommt man automatisch immer weitere Videos dieser Art angezeigt. Facebook stoppt all diesen Hass nicht. Dieser Genozid wird von einer Handvoll Menschen im Silicon Valley, am anderen Ende der Welt ausgelöst, aber es wird nichts dagegen unternommen.

Die unsichtbaren Folgen für die Moderatoren

Trotz der enormen Verantwortung und psychischen Belastung, die mit der Arbeit als Content-Moderator*innen einhergeht, werden diese unbeachteten Helden oft im Dunkeln gelassen. Nur drei Fehler pro Monat sind erlaubt, und diejenigen, die Gewaltvideos übersehen, werden zur Rechenschaft gezogen. Fehler werden umgehend an die Qualitätskontrolle gemeldet und geahndet.

Die psychischen Auswirkungen, die einige Moderator*innen bis zum Suizid treiben, werden von den Unternehmen wissentlich in Kauf genommen und einfach vertuscht. Trotz der massiven psychischen Belastungen sehen es die Content Moderator*innen als ihre Aufgabe, „sündhaften“ Bildern und Videos zuvorzukommen und zu verhindern, dass sie sich in sozialen Netzwerken ausbreiten.

Content Moderatoren
Quelle: Tinnakorn, stock.adobe.com

Fazit

Content-Moderation bleibt ein essenzieller Aspekt für die Sicherheit und Qualität von Online-Plattformen. Die Dokumentation auf Amazon Prime ist wirklich sehr empfehlenswert, aber Achtung! Sie ist wirklich nichts für Zartbesaitete. In der Doku sind Originalaufnahmen von verstörenden Bildern und Videos zu sehen, mit denen die Moderator*innen tagtäglich zu tun haben. Außerdem sind die Schilderungen und persönlichen Geschichten der Betroffenen im Zusammenhang mit dem „Reinigungs-Job“ nicht minder verstörend. Das Ansehen lohnt sich aber auf jeden Fall! Leider ist der Film nicht kostenlos erhältlich.

Insgesamt verdeutlicht “The Cleaners” die wichtige Rolle der Content-Moderatoren und macht auf die drängenden Herausforderungen aufmerksam, die mit dieser unsichtbaren, aber entscheidenden Arbeit verbunden sind. Es ist an der Zeit, ihre Anstrengungen zu würdigen und die Diskussion über die Ethik und den Schutz der Content-Moderator*innen zu intensivieren.

Quelle:
Dokumentation „The Cleaners“, erhältlich auf Amazon Prime, Regie: Hans Block und Moritz Riesewieck, 2018 erschienen


Ähnlich verstörend ist die App WeChat, die das öffentliche Leben in China dominiert. Alles dazu HIER.