The Bots, 2020

Videoinstallation
Schauspieler:innen: Irina Cocimarov, Jesse Hoffman, Jake Levy, Alexandra Marzella, Ruby McCollister, Bobbi Salvör Menuez
Sechs maßgefertigte OKA-Tische, Monitore, Videos, Kopfhörer, Kabel
Größe und Länge variabel
Courtesy die Künstler:innen und Apalazzo Gallery

Für The Bots haben Eva und Franco Mattes mit dem investigativen Journalist Adrian Chen und den Schauspieler:innen Irina Cocimarov, Jesse Hoffman, Jake Levy, Alexandra Marzella, Ruby McCollister und Bobbi Salvör Menuez zusammengearbeitet. Sie präsentieren anonyme Zeugenaussagen von Content-Moderator:innen, die in Berlin für Facebook gearbeitet haben. Es sind sechs Videos entstanden. Im Raum sehen die Besucher:innen hochgestellte Tischplatten, die eine minimalistische Installation bilden. Die Tischplatten verweisen auf das Mobiliar des Berliner Moderationszentrums, in dem die Befragten arbeiteten. Die Videos werden für die Betrachter:innen erst sichtbar, wenn sie hinter die errichtete Barriere treten und hinter die Arbeitsoberfläche schauen.

Was wissen wir über die Mechanismen und Regulierungen von Social-Media-Kanälen, die wir täglich verwenden? Welche Inhalte bleiben sichtbar und welche werden herausgefiltert? Und gibt es klare Richtlinien, nach denen Inhalte gelöscht werden?

Die Filme wurden mit der typischen Ästhetik und den Merkmalen von online Make-Up-Tutorials umgesetzt. Die Aussagen in den Filmen stammen aus investigativen Recherchen, aus Interviews bei denen zahlreiche Zeug:innen befragt wurden, die als Dienstleistungsanbieter:innen für Facebook angestellt waren. Um die Aussagen der Content-Moderator:innen zu anonymisieren, wurden die Filme von Schauspieler:innen interpretiert. Sie spielen die Rolle von Influencer:innen, die sich in direkter Ansprache an ihre Follower:innen wenden. Sie haben die Videos mit ihren Smartphones aufgezeichnet. Aus diesem Grund handelt es sich bei den Bildern um Hochformate. Ratschläge zu Make-up-Produkten wechseln sich mit erschütternden Beschreibungen ihrer Arbeit ab.

Inhalte auf sozialen Kanälen unterliegen Beschränkungen und werden somit überprüft und überwacht. Die Plattformen geben an, ihre Inhalte durch Gemeinschaftsrichtlinien (community guidelines) zu regeln. Vereinzelte Kanäle wie Telegram lassen auch unzensierte und problematische Inhalte zu. Die Richtlinien können allerdings nicht vermeiden, dass täglich tausende von „verbotenen“ Inhalten online gepostet werden: Gewalt, sexuelle Übergriffe, Hassreden, Terrorismus und Pornografie sind nur einige der Kategorien von unerwünschtem Content auf Social Media. Die meisten dieser Inhalte bekommen wir nicht zu sehen, weil sie zuvor gelöscht werden. Diese Überprüfung kritischer Bilder und Videos findet immer über Menschen statt. Es handelt sich nicht um eine automatisierte Bereinigung, die von Algorithmen erledigt wird. Programme filtern zwar Inhalte, die gegen die Richtlinien der jeweiligen Plattform zu verstoßen scheinen, können aber meistens nicht den Kontext eines Beitrags eigenständig interpretieren.

Eva & Franco Mattes machen in ihrer Arbeit The Bots explizit darauf aufmerksam, dass kritische Inhalte in großen Mengen von Individuen gesehen und bearbeitet werden. Es sind eben nicht Bots, nicht Programme, sondern Menschen. Sie heißen „Content-Moderator:innen“ und ihr Beruf zählt zu den „nicht regulierten” Jobs, die mit dem Aufkommen von Tech-Unternehmen entstanden sind (z.B. Amazons Mechanical Turk).

Im Fall von Crowdsourcing-Arbeitsvermittlung wissen Content-Moderator:innen oft nicht für welche Firmen sie arbeiten. Sie werden von sogenannten contractors angestellt, die zwischen Tech-Giganten wie Google, Meta, Youtube, Twitter und den Arbeitnehmer:innen vermitteln. Somit wird die Anonymität der Firmen gewahrt, deren rechtliche Verantwortlichkeit minimiert und dank einer Verschwiegenheitserklärungen geschützt. Die Arbeitsbedingungen werden weder öffentlich debattiert noch politisch reguliert. Dienstleistungen werden durch Leiharbeitsverträge geregelt und minimal bezahlt.

Dank investigativer journalistischer Arbeit drangen in den letzten Jahren dennoch immer wieder Berichte über Missstände an die Öffentlichkeit. Der Journalist Adrian Chen war 2014 der Erste, der mit seinem Artikel The Laborers Who Keep Dick Pics and Beheadings Out of Your Facebook Feed in Wired das Thema beleuchtete. Eva & Franco Mattes arbeiten mit Chen seit Jahren zusammen.

Eines der wesentlichen Probleme ist, dass Content-Moderator:innen täglich tausende Beiträge sichten müssen, bevor sie sie löschen. Enthauptungen, Kinderpornografie, grobe Gewalt jeglicher Art, fanatische Hassreden und viele weitere Ausdrucksformen menschlicher Abgründe sowie auch die einfache Flut banaler Uploads hinterlassen Traumata und tiefe Verstörung bei den Menschen.

Zwar existieren guidelines über die Klassifizierung anstößiger Inhalte. Diese werden aber nicht öffentlich gemacht und müssen von Content-Moderator:innen geheim gehalten werden. Die Regularien werden täglich verändert. Zur Quantifizierung der Arbeitsleistung muss die Mindestquote von 95 % der zu löschenden Beiträge erreicht werden, ansonsten droht eine Entlassung. Über die anonymen Aussagen ist bekannt, dass Arbeiter:innen überwacht werden und unter starkem Leistungsdruck stehen.

In vielen Kulturkreisen werden die Regeln an das entsprechende Moralempfinden angepasst. Oft findet Content-Moderation durch Arbeiter:innen im Globalen Süden, Asien und in ehemaligen Kolonien statt. Der Grund hierfür ist neben unreguliertem Arbeitsrecht, die Kenntnis westlicher Sprachen und ein Verständnis für westliches Moralempfinden.

Doch auch Moderator:innen sind keine objektiven Filter. Der Prozess ist trotz Richtlinien subjektiv und von individuellen Interpretationen geprägt. Inhalte werden entfernt, wenn sie beispielsweise politisch oder ideologisch als unangemessen angesehen werden. Die eigene politische Gesinnung wirkt sich unter Umständen auf die Moderationsentscheidung aus.

Eva & Franco Mattes erzeugen mit der gewählten Ästhetik einen bewusst harten Bruch zu den Inhalten. Sie nutzen die Inszenierung von Make-Up-Tutorials für ihre künstlerische Arbeit. Um Zensuren zu umgehen, werden politische Inhalte getarnt. Diese Vorgehensweise kommt von Aktivist:innen, die politische Botschaften und Menschenrechtsverletzungen in autokratischen Staaten so an die Öffentlichkeit tragen. Es war die junge TikTok-Nutzerin und Aktivistin Feroza Azis, die sich vor wenigen Jahren beim Schminken filmte, um die Zensur der chinesischen Regierung zu umgehen. Somit konnte sie frei über die systematische Unterdrückung und Überwachung von Uiguren im Nordwesten Chinas sprechen, bevor sie von der Plattform gesperrt wurde.

Gleichzeitig ist das Sujet Make-Up sinnbildlich zu verstehen. Wie die Künstler:innen selber aussagen: „Make-up ist eine Möglichkeit, Unvollkommenheiten in unserem Gesicht zu kaschieren, nicht viel anders als die Moderation von Inhalten, die die Oberfläche des Internets verschönert, indem sie unerwünschte Inhalte entfernt.“