<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>the bots | Frankfurter Kunstverein</title>
	<atom:link href="https://www.fkv.de/tag/the-bots/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.fkv.de</link>
	<description>fkv.de</description>
	<lastBuildDate>Tue, 01 Aug 2023 11:05:47 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.fkv.de/wp-content/uploads/2018/10/cropped-fkv_website-32x32.png</url>
	<title>the bots | Frankfurter Kunstverein</title>
	<link>https://www.fkv.de</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Abuse Standards Violations, 2016, 2018, 2021</title>
		<link>https://www.fkv.de/abuse-standards-violations-2016-2018-2021/</link>
		
		<dc:creator><![CDATA[FKV]]></dc:creator>
		<pubDate>Thu, 13 Jul 2023 14:49:34 +0000</pubDate>
				<category><![CDATA[Unkategorisiert]]></category>
		<category><![CDATA[adrian chen]]></category>
		<category><![CDATA[alexandra marzella]]></category>
		<category><![CDATA[Amazon]]></category>
		<category><![CDATA[arbeitsbedingungen]]></category>
		<category><![CDATA[arbeitsrecht]]></category>
		<category><![CDATA[art]]></category>
		<category><![CDATA[Berlin]]></category>
		<category><![CDATA[bias]]></category>
		<category><![CDATA[bobbi salvör menuez]]></category>
		<category><![CDATA[bots]]></category>
		<category><![CDATA[community guidelines]]></category>
		<category><![CDATA[contemporary art]]></category>
		<category><![CDATA[content]]></category>
		<category><![CDATA[content moderation]]></category>
		<category><![CDATA[content moderators]]></category>
		<category><![CDATA[content-moderatoren]]></category>
		<category><![CDATA[cultural bias]]></category>
		<category><![CDATA[Eva & Franco Mattes]]></category>
		<category><![CDATA[Eva and Franco Mattes]]></category>
		<category><![CDATA[Eva und Franco mattes]]></category>
		<category><![CDATA[facebook]]></category>
		<category><![CDATA[fake views]]></category>
		<category><![CDATA[feroza azis]]></category>
		<category><![CDATA[filter]]></category>
		<category><![CDATA[Frankfurt]]></category>
		<category><![CDATA[Frankfurter Kunstverein]]></category>
		<category><![CDATA[Franziska Nori]]></category>
		<category><![CDATA[gemeinschaftsrichtlinien]]></category>
		<category><![CDATA[gewalt]]></category>
		<category><![CDATA[google]]></category>
		<category><![CDATA[inhalt]]></category>
		<category><![CDATA[Instagram]]></category>
		<category><![CDATA[installation]]></category>
		<category><![CDATA[irina cocimarov]]></category>
		<category><![CDATA[jake levy]]></category>
		<category><![CDATA[jesse hoffman]]></category>
		<category><![CDATA[kulturelle bias]]></category>
		<category><![CDATA[kunst]]></category>
		<category><![CDATA[make-up]]></category>
		<category><![CDATA[make-up tutorial]]></category>
		<category><![CDATA[mechanical turk]]></category>
		<category><![CDATA[meta]]></category>
		<category><![CDATA[moral]]></category>
		<category><![CDATA[online inhalt]]></category>
		<category><![CDATA[online jobs]]></category>
		<category><![CDATA[pornographie]]></category>
		<category><![CDATA[regulierierung]]></category>
		<category><![CDATA[richtlinien social media]]></category>
		<category><![CDATA[ruby mccollister]]></category>
		<category><![CDATA[Social Media]]></category>
		<category><![CDATA[soziale medien]]></category>
		<category><![CDATA[telegram]]></category>
		<category><![CDATA[the bots]]></category>
		<category><![CDATA[Tiktok]]></category>
		<category><![CDATA[trauma]]></category>
		<category><![CDATA[tutorial]]></category>
		<category><![CDATA[twitter]]></category>
		<category><![CDATA[uploads]]></category>
		<category><![CDATA[verbotene inhalte]]></category>
		<category><![CDATA[video]]></category>
		<category><![CDATA[video installation]]></category>
		<category><![CDATA[videoinstallation]]></category>
		<category><![CDATA[views]]></category>
		<category><![CDATA[youtube]]></category>
		<category><![CDATA[zänsur]]></category>
		<category><![CDATA[zeitgenössische kunst]]></category>
		<guid isPermaLink="false">https://www.fkv.de/?p=39422</guid>

					<description><![CDATA[An der Wand montierte Plexiglastafeln UV-Druck auf Plexiglas, verschiedene Dämmmaterialien, Abstandshalter, Schrauben 100 x 100 cm / 150 x 100 cm Courtesy die Künstler:innen und Apalazzo Gallery Die Präsentation von The Bots wird von der neunteiligen Arbeit Abuse Standards Violations ergänzt, die den Beginn der Recherche von Eva &#38; Franco Mattes mit dem Thema Content-Moderation <a href="https://www.fkv.de/abuse-standards-violations-2016-2018-2021/" class="more-link">...</a>]]></description>
										<content:encoded><![CDATA[<p>An der Wand montierte Plexiglastafeln<br />
UV-Druck auf Plexiglas, verschiedene Dämmmaterialien, Abstandshalter, Schrauben<br />
100 x 100 cm / 150 x 100 cm<br />
Courtesy die Künstler:innen und Apalazzo Gallery</p>
<p>Die Präsentation von <em>The Bots</em> wird von der neunteiligen Arbeit <em>Abuse Standards Violations</em> ergänzt, die den Beginn der Recherche von Eva &amp; Franco Mattes mit dem Thema Content-Moderation markiert. Thematisiert wird die Frage nach der Moral der sozialen Medien und Tech-Giganten.</p>
<p>In neun Plexiglasrahmen, die mit Isoliermaterial gefüllt sind, werden Richtlinien von Unternehmen präsentiert, zum Beispiel Auszüge der Facebook-Community-Standards, die nicht für die Öffentlichkeit und nur für interne Zwecke bestimmt sind. Die Unternehmen, die diese Richtlinien erstellt haben, sind fast alle unbekannt, weil sie anonym bleiben wollen. Meistens wissen sogar die Moderator:innen selbst nicht, wer ihre Arbeitgeber:innen sind – eine:r von ihnen sagte zu Eva &amp; Franco Mattes: „Ich bin mir ziemlich sicher, dass ich für Google arbeite.“ Die Richtlinien gegen Verletzungen der Missbrauchsstandards legen moralische Grenzen fragwürdiger Inhalte auf Social Media fest und entscheiden, wann diese als rassistisch, hasserfüllt, kontrovers, terroristisch, pornografisch oder gewalttätig definiert und somit entfernt werden. <em>Clean</em> oder <em>ok to show</em> bezieht sich auf Bilder, die als angemessen angesehen werden und daher in den sozialen Medien zirkulieren können, wie z. B. „ohne Hemd, aber mit Hose oder Hemd (und nicht mehr als der obere Streifen der Unterwäsche ist sichtbar)“, während „unangemessene“ Bilder Politik und kontroverse soziale Themen beinhalten können und gefiltert werden sollten. Zu den „sicheren“ Inhalten gehören Kunst und Klatsch und Tratsch über Prominente. Trotz festgelegter Richtlinien fehlt eine Eindeutigkeit darin, wann ein Inhalt entfernt werden sollte. Hier ist menschliche Interpretation erforderlich, eine algorithmische Einschätzung reicht nicht aus.</p>
<p>Richtlinien großer Social Media-Plattformen ändern sich täglich. Sie passen sich den aktuellen sozialen und politischen Ereignissen an. Da die meisten IT-Unternehmen ihren Sitz in Kalifornien haben, folgen sie meist den Richtlinien der US-Gesetze und der US-amerikanischen „Moral“, versuchen aber gleichzeitig, lokale und kulturspezifische Moralvorstellungen aufzugreifen. Die Schwierigkeit besteht darin, Content-Moderation für alle kulturellen Kontexte so auszuüben, dass die Gefahr vermieden wird, kulturelle Bias zu politischen Interpretationen werden zu lassen.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>The Bots, 2020</title>
		<link>https://www.fkv.de/the-bots-2020/</link>
		
		<dc:creator><![CDATA[FKV]]></dc:creator>
		<pubDate>Thu, 13 Jul 2023 14:46:20 +0000</pubDate>
				<category><![CDATA[Unkategorisiert]]></category>
		<category><![CDATA[adrian chen]]></category>
		<category><![CDATA[alexandra marzella]]></category>
		<category><![CDATA[Amazon]]></category>
		<category><![CDATA[arbeitsbedingungen]]></category>
		<category><![CDATA[arbeitsrecht]]></category>
		<category><![CDATA[art]]></category>
		<category><![CDATA[Berlin]]></category>
		<category><![CDATA[bobbi salvör menuez]]></category>
		<category><![CDATA[bots]]></category>
		<category><![CDATA[community guidelines]]></category>
		<category><![CDATA[contemporary art]]></category>
		<category><![CDATA[content]]></category>
		<category><![CDATA[content moderation]]></category>
		<category><![CDATA[content moderators]]></category>
		<category><![CDATA[content-moderatoren]]></category>
		<category><![CDATA[Eva & Franco Mattes]]></category>
		<category><![CDATA[Eva and Franco Mattes]]></category>
		<category><![CDATA[Eva und Franco mattes]]></category>
		<category><![CDATA[facebook]]></category>
		<category><![CDATA[fake views]]></category>
		<category><![CDATA[feroza azis]]></category>
		<category><![CDATA[filter]]></category>
		<category><![CDATA[Frankfurt]]></category>
		<category><![CDATA[Frankfurter Kunstverein]]></category>
		<category><![CDATA[Franziska Nori]]></category>
		<category><![CDATA[gemeinschaftsrichtlinien]]></category>
		<category><![CDATA[gewalt]]></category>
		<category><![CDATA[google]]></category>
		<category><![CDATA[inhalt]]></category>
		<category><![CDATA[Instagram]]></category>
		<category><![CDATA[installation]]></category>
		<category><![CDATA[irina cocimarov]]></category>
		<category><![CDATA[jake levy]]></category>
		<category><![CDATA[jesse hoffman]]></category>
		<category><![CDATA[kunst]]></category>
		<category><![CDATA[make-up]]></category>
		<category><![CDATA[make-up tutorial]]></category>
		<category><![CDATA[mechanical turk]]></category>
		<category><![CDATA[meta]]></category>
		<category><![CDATA[moral]]></category>
		<category><![CDATA[online inhalt]]></category>
		<category><![CDATA[online jobs]]></category>
		<category><![CDATA[pornographie]]></category>
		<category><![CDATA[regulierierung]]></category>
		<category><![CDATA[richtlinien social media]]></category>
		<category><![CDATA[ruby mccollister]]></category>
		<category><![CDATA[Social Media]]></category>
		<category><![CDATA[soziale medien]]></category>
		<category><![CDATA[telegram]]></category>
		<category><![CDATA[the bots]]></category>
		<category><![CDATA[Tiktok]]></category>
		<category><![CDATA[trauma]]></category>
		<category><![CDATA[tutorial]]></category>
		<category><![CDATA[twitter]]></category>
		<category><![CDATA[uploads]]></category>
		<category><![CDATA[verbotene inhalte]]></category>
		<category><![CDATA[video]]></category>
		<category><![CDATA[video installation]]></category>
		<category><![CDATA[videoinstallation]]></category>
		<category><![CDATA[views]]></category>
		<category><![CDATA[youtube]]></category>
		<category><![CDATA[zänsur]]></category>
		<category><![CDATA[zeitgenössische kunst]]></category>
		<guid isPermaLink="false">https://www.fkv.de/?p=39420</guid>

					<description><![CDATA[Videoinstallation Schauspieler:innen: Irina Cocimarov, Jesse Hoffman, Jake Levy, Alexandra Marzella, Ruby McCollister, Bobbi Salvör Menuez Sechs maßgefertigte OKA-Tische, Monitore, Videos, Kopfhörer, Kabel Größe und Länge variabel Courtesy die Künstler:innen und Apalazzo Gallery Für The Bots haben Eva und Franco Mattes mit dem investigativen Journalist Adrian Chen und den Schauspieler:innen Irina Cocimarov, Jesse Hoffman, Jake Levy, <a href="https://www.fkv.de/the-bots-2020/" class="more-link">...</a>]]></description>
										<content:encoded><![CDATA[<p>Videoinstallation<br />
Schauspieler:innen: Irina Cocimarov, Jesse Hoffman, Jake Levy, Alexandra Marzella, Ruby McCollister, Bobbi Salvör Menuez<br />
Sechs maßgefertigte OKA-Tische, Monitore, Videos, Kopfhörer, Kabel<br />
Größe und Länge variabel<br />
Courtesy die Künstler:innen und Apalazzo Gallery</p>
<p>Für <em>The Bots</em> haben Eva und Franco Mattes mit dem investigativen Journalist Adrian Chen und den Schauspieler:innen Irina Cocimarov, Jesse Hoffman, Jake Levy, Alexandra Marzella, Ruby McCollister und Bobbi Salvör Menuez zusammengearbeitet. Sie präsentieren anonyme Zeugenaussagen von Content-Moderator:innen, die in Berlin für Facebook gearbeitet haben. Es sind sechs Videos entstanden. Im Raum sehen die Besucher:innen hochgestellte Tischplatten, die eine minimalistische Installation bilden. Die Tischplatten verweisen auf das Mobiliar des Berliner Moderationszentrums, in dem die Befragten arbeiteten. Die Videos werden für die Betrachter:innen erst sichtbar, wenn sie hinter die errichtete Barriere treten und hinter die Arbeitsoberfläche schauen.</p>
<p>Was wissen wir über die Mechanismen und Regulierungen von Social-Media-Kanälen, die wir täglich verwenden? Welche Inhalte bleiben sichtbar und welche werden herausgefiltert? Und gibt es klare Richtlinien, nach denen Inhalte gelöscht werden?</p>
<p>Die Filme wurden mit der typischen Ästhetik und den Merkmalen von online Make-Up-Tutorials umgesetzt. Die Aussagen in den Filmen stammen aus investigativen Recherchen, aus Interviews bei denen zahlreiche Zeug:innen befragt wurden, die als Dienstleistungsanbieter:innen für Facebook angestellt waren. Um die Aussagen der Content-Moderator:innen zu anonymisieren, wurden die Filme von Schauspieler:innen interpretiert. Sie spielen die Rolle von Influencer:innen, die sich in direkter Ansprache an ihre Follower:innen wenden. Sie haben die Videos mit ihren Smartphones aufgezeichnet. Aus diesem Grund handelt es sich bei den Bildern um Hochformate. Ratschläge zu Make-up-Produkten wechseln sich mit erschütternden Beschreibungen ihrer Arbeit ab.</p>
<p>Inhalte auf sozialen Kanälen unterliegen Beschränkungen und werden somit überprüft und überwacht. Die Plattformen geben an, ihre Inhalte durch Gemeinschaftsrichtlinien (<em>community guidelines</em>) zu regeln. Vereinzelte Kanäle wie Telegram lassen auch unzensierte und problematische Inhalte zu. Die Richtlinien können allerdings nicht vermeiden, dass täglich tausende von „verbotenen“ Inhalten online gepostet werden: Gewalt, sexuelle Übergriffe, Hassreden, Terrorismus und Pornografie sind nur einige der Kategorien von unerwünschtem Content auf Social Media. Die meisten dieser Inhalte bekommen wir nicht zu sehen, weil sie zuvor gelöscht werden. Diese Überprüfung kritischer Bilder und Videos findet immer über Menschen statt. Es handelt sich nicht um eine automatisierte Bereinigung, die von Algorithmen erledigt wird. Programme filtern zwar Inhalte, die gegen die Richtlinien der jeweiligen Plattform zu verstoßen scheinen, können aber meistens nicht den Kontext eines Beitrags eigenständig interpretieren.</p>
<p>Eva &amp; Franco Mattes machen in ihrer Arbeit <em>The Bots </em>explizit darauf aufmerksam, dass kritische Inhalte in großen Mengen von Individuen gesehen und bearbeitet werden. Es sind eben nicht Bots, nicht Programme, sondern Menschen. Sie heißen „Content-Moderator:innen“ und ihr Beruf zählt zu den „nicht regulierten” Jobs, die mit dem Aufkommen von Tech-Unternehmen entstanden sind (z.B. Amazons Mechanical Turk).</p>
<p>Im Fall von Crowdsourcing-Arbeitsvermittlung wissen Content-Moderator:innen oft nicht für welche Firmen sie arbeiten. Sie werden von sogenannten <em>contractors</em> angestellt, die zwischen Tech-Giganten wie Google, Meta, Youtube, Twitter und den Arbeitnehmer:innen vermitteln. Somit wird die Anonymität der Firmen gewahrt, deren rechtliche Verantwortlichkeit minimiert und dank einer Verschwiegenheitserklärungen geschützt. Die Arbeitsbedingungen werden weder öffentlich debattiert noch politisch reguliert. Dienstleistungen werden durch Leiharbeitsverträge geregelt und minimal bezahlt.</p>
<p>Dank investigativer journalistischer Arbeit drangen in den letzten Jahren dennoch immer wieder Berichte über Missstände an die Öffentlichkeit. Der Journalist Adrian Chen war 2014 der Erste, der mit seinem Artikel <em>The Laborers Who Keep Dick Pics and Beheadings Out of Your Facebook Feed </em>in Wired das Thema beleuchtete. Eva &amp; Franco Mattes arbeiten mit Chen seit Jahren zusammen.</p>
<p>Eines der wesentlichen Probleme ist, dass Content-Moderator:innen täglich tausende Beiträge sichten müssen, bevor sie sie löschen. Enthauptungen, Kinderpornografie, grobe Gewalt jeglicher Art, fanatische Hassreden und viele weitere Ausdrucksformen menschlicher Abgründe sowie auch die einfache Flut banaler Uploads hinterlassen Traumata und tiefe Verstörung bei den Menschen.</p>
<p>Zwar existieren <em>guidelines</em> über die Klassifizierung anstößiger Inhalte. Diese werden aber nicht öffentlich gemacht und müssen von Content-Moderator:innen geheim gehalten werden. Die Regularien werden täglich verändert. Zur Quantifizierung der Arbeitsleistung muss die Mindestquote von 95 % der zu löschenden Beiträge erreicht werden, ansonsten droht eine Entlassung. Über die anonymen Aussagen ist bekannt, dass Arbeiter:innen überwacht werden und unter starkem Leistungsdruck stehen.</p>
<p>In vielen Kulturkreisen werden die Regeln an das entsprechende Moralempfinden angepasst. Oft findet Content-Moderation durch Arbeiter:innen im Globalen Süden, Asien und in ehemaligen Kolonien statt. Der Grund hierfür ist neben unreguliertem Arbeitsrecht, die Kenntnis westlicher Sprachen und ein Verständnis für westliches Moralempfinden.</p>
<p>Doch auch Moderator:innen sind keine objektiven Filter. Der Prozess ist trotz Richtlinien subjektiv und von individuellen Interpretationen geprägt. Inhalte werden entfernt, wenn sie beispielsweise politisch oder ideologisch als unangemessen angesehen werden. Die eigene politische Gesinnung wirkt sich unter Umständen auf die Moderationsentscheidung aus.</p>
<p>Eva &amp; Franco Mattes erzeugen mit der gewählten Ästhetik einen bewusst harten Bruch zu den Inhalten. Sie nutzen die Inszenierung von Make-Up-Tutorials für ihre künstlerische Arbeit. Um Zensuren zu umgehen, werden politische Inhalte getarnt. Diese Vorgehensweise kommt von Aktivist:innen, die politische Botschaften und Menschenrechtsverletzungen in autokratischen Staaten so an die Öffentlichkeit tragen. Es war die junge TikTok-Nutzerin und Aktivistin Feroza Azis, die sich vor wenigen Jahren beim Schminken filmte, um die Zensur der chinesischen Regierung zu umgehen. Somit konnte sie frei über die systematische Unterdrückung und Überwachung von Uiguren im Nordwesten Chinas sprechen, bevor sie von der Plattform gesperrt wurde.</p>
<p>Gleichzeitig ist das Sujet Make-Up sinnbildlich zu verstehen. Wie die Künstler:innen selber aussagen: „Make-up ist eine Möglichkeit, Unvollkommenheiten in unserem Gesicht zu kaschieren, nicht viel anders als die Moderation von Inhalten, die die Oberfläche des Internets verschönert, indem sie unerwünschte Inhalte entfernt.“</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
