Abuse Standards Violations, 2016, 2018, 2021
An der Wand montierte Plexiglastafeln
UV-Druck auf Plexiglas, verschiedene Dämmmaterialien, Abstandshalter, Schrauben
100 x 100 cm / 150 x 100 cm
Courtesy die Künstler:innen und Apalazzo Gallery
Die Präsentation von The Bots wird von der neunteiligen Arbeit Abuse Standards Violations ergänzt, die den Beginn der Recherche von Eva & Franco Mattes mit dem Thema Content-Moderation markiert. Thematisiert wird die Frage nach der Moral der sozialen Medien und Tech-Giganten.
In neun Plexiglasrahmen, die mit Isoliermaterial gefüllt sind, werden Richtlinien von Unternehmen präsentiert, zum Beispiel Auszüge der Facebook-Community-Standards, die nicht für die Öffentlichkeit und nur für interne Zwecke bestimmt sind. Die Unternehmen, die diese Richtlinien erstellt haben, sind fast alle unbekannt, weil sie anonym bleiben wollen. Meistens wissen sogar die Moderator:innen selbst nicht, wer ihre Arbeitgeber:innen sind – eine:r von ihnen sagte zu Eva & Franco Mattes: „Ich bin mir ziemlich sicher, dass ich für Google arbeite.“ Die Richtlinien gegen Verletzungen der Missbrauchsstandards legen moralische Grenzen fragwürdiger Inhalte auf Social Media fest und entscheiden, wann diese als rassistisch, hasserfüllt, kontrovers, terroristisch, pornografisch oder gewalttätig definiert und somit entfernt werden. Clean oder ok to show bezieht sich auf Bilder, die als angemessen angesehen werden und daher in den sozialen Medien zirkulieren können, wie z. B. „ohne Hemd, aber mit Hose oder Hemd (und nicht mehr als der obere Streifen der Unterwäsche ist sichtbar)“, während „unangemessene“ Bilder Politik und kontroverse soziale Themen beinhalten können und gefiltert werden sollten. Zu den „sicheren“ Inhalten gehören Kunst und Klatsch und Tratsch über Prominente. Trotz festgelegter Richtlinien fehlt eine Eindeutigkeit darin, wann ein Inhalt entfernt werden sollte. Hier ist menschliche Interpretation erforderlich, eine algorithmische Einschätzung reicht nicht aus.
Richtlinien großer Social Media-Plattformen ändern sich täglich. Sie passen sich den aktuellen sozialen und politischen Ereignissen an. Da die meisten IT-Unternehmen ihren Sitz in Kalifornien haben, folgen sie meist den Richtlinien der US-Gesetze und der US-amerikanischen „Moral“, versuchen aber gleichzeitig, lokale und kulturspezifische Moralvorstellungen aufzugreifen. Die Schwierigkeit besteht darin, Content-Moderation für alle kulturellen Kontexte so auszuüben, dass die Gefahr vermieden wird, kulturelle Bias zu politischen Interpretationen werden zu lassen.