Commercial Content Moderation: die digitale Müllabfuhr für Online-Inhalte

Commercial Content Moderation: die digitale Müllabfuhr

Fachliches Kommentare (1)

In meiner Arbeit sprechen wir viel darüber, wie wir Online-Inhalte generieren. Genauso wichtig ist es aber auch, Inhalte zu löschen – nämlich dann, wenn es um Hasstiraden, Hetzreden, menschenfeindliche Kommentare, Gewalt verherrlichende Videos und ähnlichen Schmutz geht. Doch wer kümmert sich darum, dass der Müll wieder aus dem Internet verschwindet? Dazu gab es auf der re:publica zwei interessante Vorträge.

Mehr als 100 Stunden Videomaterial wird pro Minute auf YouTube hochgeladen. Zwischen knuddeligem Cat Content und Schmink-Tutorials findet sich dort auch die Aufnahme des Terroristen, der einem Menschen den Kopf abschlägt – und viele andere Inhalte, die laut den Community-Richtlinien verboten sind. Normalerweise werden anstößige Videos bereits maschinell aussortiert, noch bevor sie veröffentlicht werden können. Die, die es dennoch online schaffen, können von Nutzern als unangemessen gemeldet werden. Dann setzt sich ein Prozess in Gang, der die Plattform von eben jenen Elementen reinigen soll. Dafür reicht die Maschinenintelligenz jedoch nicht mehr aus. Die Algorithmen sind heute noch nicht so weit, dass sie z.B. einen klassischen Tizian von Pornografie unterscheiden können. Es müssen also Menschen ran.

Die menschlichen Internet-Filter

Welche Menschen das sind und was es psychisch mit ihnen macht, wenn sie täglich stundenlang mit dem Bodensatz des Internets konfrontiert werden – damit setzen sich Sarah T. Robers und Moritz Riesewieck auseinander. Auf der diesjährigen re:publica sensibilisieren die kanadische Lehrbeauftragte der University of Western Ontario und der Regisseur das Publikum für dieses Thema. In ihren Vorträgen “Behind the Screen: The People and Politics of Commercial Content Moderation” und “Commercial Content Moderation – die Müllabfuhr im Internet!“ prangern sie die Praktiken der großen Firmen an, die die „kommerziellen Inhaltsmoderatoren“ anheuern, das englischsprachige Internet zu reinigen. Wie die Arbeiter täglich tausende von Bildern und Videos ansehen und bewerten müssen – für etwa einen Cent pro Bild, wovon etwa jedes zehnte verstörend ist. Wie sie wegen strenger Vertraulichkeitsvereinbarungen nicht mit ihren Freunden und Verwandten darüber sprechen dürfen, was sie sehen. Und wie sie genau das gar nicht wollen, denn: „You don’t really want to talk about it. You kind of feel like you spent eight hours just in this hole of filth that you don’t want to really bring into the rest of your life”, so einer der Arbeiter. Die daraus resultierende soziale Isolation belastet zusätzlich. Dennoch: Ohne diese menschlichen Filter wäre das Internet nur schwer zu ertragen. „Without the CCM workers“, so Roberts „most of us couldn’t stomach what we see on the internet“.

Digitaler Bodensatz, der krank macht – „Dein Frühstück ist Bier“

Als das Zentrum für Commercial Content Moderation haben inzwischen die Philippinen die frühere Nummer Eins, Indien, abgelöst. Das katholische Wertesystem des Landes, in Kombination mit dem guten Englisch der Einwohner (was zwar für die Bildauswahl nicht relevant ist, aber für geschriebenen Müll) macht sie ideal für amerikanische Unternehmen wie YouTube oder Facebook. Berufsanfänger mit Uni-Diplom erhoffen sich mit dieser Arbeit einen Einstieg in das Unternehmen. Sie fangen mit einem Ein-Jahres-Vertrag an, machen drei Monate Pause und hängen dann noch einmal ein Jahr dran. Doch danach ist für sie Schluss, so Roberts. Was bleibt, sind die psychischen Schäden. Manche der Arbeiter, die acht Stunden am Tag Videos von Sex mit Tieren, Kindern und Vergewaltigungen aussortieren, sind total desensibilisiert und tun sich mit Intimität inzwischen sehr schwer. Einer erzählt, wie beim Schmusen mit seiner Freundin plötzlich Bilder aus dem Arbeitsalltag vor seinen Augen aufblitzten. Ein gelebter Alptraum, aus dem es kein Entrinnen gibt. Auch wenn sie körperlich nicht beeinträchtigt sind, sind sie psychisch genauso kaputt wie ihre Landsleute wenige Kilometer weiter, die „Müllmenschen“ von Manila.

Dabei ist die Frage, welche Inhalte denn nun „Müll“ sind, nicht eindeutig. Die US-Außenpolitik spielt eine große Rolle. Ein Arbeiter erzählt, dass er schreckliche Bilder aus dem syrischen Kriegsgebiet, das Leute vor Ort gefilmt hatten, nicht aussortieren sollte. Dafür aber Bilder vom mexikanischen Drogenkrieg. Moritz Riesewieck erzählt von dem Fall der amerikanischen Freiberufler-Vermittlungsplattform Odesk, deren Community-Richtlinien 2012 von der britischen Daily Mail geleakt worden waren. Darin stand etwa, dass Nacktheit nicht in Ordnung sei, Blut und ein zertrümmerter Kopf aber sehr wohl. Da kann man den CCM worker verstehen, der meint „Your breakfast is beer.“ Anders ist es nicht auszuhalten.

Über Elke Brown

Kommunikative Kontakterin, kreative Texterin und Frau für alles Technische bei candid communications. InDesign-, WordPress- und Pixelwelten-Fan.

» Fachliches » Commercial Content Moderation: die digitale...
Am 3. Mai 2016
Von
, , , ,

Eine Antwort auf "Commercial Content Moderation: die digitale Müllabfuhr"

  1. […] die Content-Moderation in Manila haben wir bereits in einem früheren Beitrag berichtet. Jetzt hat der Laokoon-Gründer Moritz Riesewieck  seine Recherchen zu den Moderatoren, […]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

« »