Wie das Internet vom Müll befreit wird

Mann an Notebook im Hintergrund Logos verschiedener Sozialen Plattformen
Bildquelle: sozial-medien-manager-online-1958774 / pixabay.com/de/sozial-medien-manager-online-1958774 / geralt / CC0

Haben Sie sich auch schon einmal gefragt, wie und von wem unerwünschte Inhalte im Internet gelöscht werden? Nein? Vielleicht ist es Ihnen so wie mir gegangen. Sie haben entweder nicht darüber nachgedacht, oder Sie sind der Meinung, dass die Arbeit selbstverständlich von Computern erledigt wird, wie soll das auch sonst bei den unzähligen Seiten und Beiträgen im Internet funktionieren? Wenn man sich etwas mehr mit dem Thema beschäftigt, werden einige interessante Fragen aufgeworfen, deren Beantwortung einem nicht immer so gefallen wird.

Was wäre zu löschen?

Wenn man jemandem die Frage stellt, was gelöscht werden soll, werden die meisten Menschen sofort wissen, was aus ihrer Sicht nichts im Internet zu suchen hat und somit gelöscht werden sollte. Stellt man diese Frage mehreren Personen, wird man naturgemäß merken, dass zwar (zumeist) eine gewisse Grundübereinstimmung besteht, es aber doch graduelle Unterschiede gibt. Und genau dies ist auch die Schwierigkeit für Anbieter wie Facebook und dergleichen: Soll man alles löschen, was in irgendeiner Art und Weise andere Personen verletzen könnte, und somit Inhalte zensieren oder soll man die Freiheit des Internet hochhalten und jeglichen Inhalt tolerieren, auch wenn damit andere Personen verletzt werden könnten? Wie sieht es aus mit strafrechtlich relevanten Inhalten? Und wenn die Inhalte nur in einigen Staaten strafrechtlich relevant sind? Wie soll man dann entscheiden? Dies sind gar nicht so leicht zu lösende Probleme, wie man auch an den unterschiedlichsten Debatten erkennen kann, die immer wieder über zweifelhafte Bilder, Texte oder Kommentare geführt werden. Da gibt es meist ein Lager, das vehement gegen die Veröffentlichung des entsprechenden Videos agiert, während auf der anderen Seite ein Lager steht, das auf die Veröffentlichung aus Gründen der Pressefreiheit besteht. Und wenn man diese Diskussionen verfolgt, wird man bemerken, dass man selbst einmal auf der einen und ein anderes Mal auf der anderen Seite steht. Während man sich aber bei Gewalt, Extremismus und dergleichen vielleicht noch auf eine gemeinsame einheitliche Linie einigen könnte, ist das bei bewusst durch Staaten oder Entscheidungsträger gefilterter Information nicht mehr ganz so einfach. Denn was für Entscheidungsträger unbequem und daher aus deren Sicht vielleicht zu löschen oder zumindest nicht zu veröfffentlichen ist, kann für die Bevölkerung eines Landes eine sehr wichtige Entscheidungshilfe sein.

Halten wir also fest: Man wird sich wohl nie im Detail darüber einig sein, was nicht veröffentlicht bzw. im Fall einer Veröffentlichung wieder gelöscht werden soll. Trotzdem braucht es gewisse Grundregeln.

Was wird gelöscht?

Die Kriterien, was gelöscht wird, werden üblicherweise von den jeweiligen Betreibern selbst definiert. So existieren etwa von Seiten Facebooks Löschregeln, die allerdings nicht veröffentlicht werden. Über die Gründe für diese fehlende Transparenz können nur Vermutungen angestellt werden. Einer Theorie zu Folge befürchtet Facebook, dass durch Kenntis der Löschregeln diese bewusst umgangen werden könnten, was eben nicht der Fall ist, wenn niemand weiß was in den eigenen Postings zu vermeiden ist, um nicht Gefahr zu laufen dass sie wieder entfernt werden. Obwohl die Löschregeln also streng geheim sind, gelang es Medien doch einen gewissen Einblick in diese zu erreichen, und der zeigte weinig überraschend ein sehr diffuses Bild, das - wenn die Quellen vertrauenswürdig sind, was ich nicht überprüfen konnte - teilweise auch (zumindest für mich) nicht nachvollziehbar ist. Zur Veranschaulichung sei ein Beispiel angebeben: Es gibt scheinbar Kategorien, die schützenswert sind und welche die dies eben nicht sind. So weit so gut. Jetzt kann es natürlich zu Kombinationen mit Begriffen aus beiden Kategorien kommen. Kombiniert man 2 Begriffe aus der Kategorie "schützenswert", so ist diese Kombination logischerweise auch wieder schützenswert. Kombiniert man einen Begriff aus den Kategorien "schützenswert" und "nicht schützenswert" miteinander, so ist diese Kategorie dann... Falsch gedacht: sie ist nicht mehr schützenswert. Während es also nicht gestattet ist "Österreichische Männer sind dumm" zu schreiben (weil Österreich als nationale Herkunft und Männer als Geschlechtsbezeichnung schützenswert sind), ist es kein Problem "Österreichische Jugendliche sind dumm" zu schreiben. Denn Jugendliche wird als nicht schützenswerte Altersbezeichnung klassifiziert, und somit ist der ganze Satz nicht mehr schützenswert. Wenn man sich dieses Beispiel anschaut, könnte man durchaus geneigt sein, der Erklärung von oben Glauben zu schenken, warum Facebook die eigenen Löschregeln nicht öffentlich publizieren will.

Halten wir also fest: Vermutlich verfügen alle größeren Dienste und Plattformen und nicht nur Facebook über Löschregeln, die aber nicht kommuniziert werden. Anhand dieser sollen Nutzer_innen der Dienste vor unerwünschten Inhalten geschützt werden.

Von wem wird gelöscht?

Wer jetzt davon ausgeht, dass Computer die Inhalte durchsuchen, gemäß programmierter Löschparameter unerwünschte Inhalte entdecken und anschließend entsprechende Inhalte löschen oder zumindest ausblenden, irrt. Denn die Arbeit wird in der Regel von Menschen erledigt. Facebook und Co. setzen bei dieser Arbeit auf so genannte "commercial content moderation". Gewerbliche Inhalsmoderatoren sollen dafür sorgen, dass Inhalte dem entsprechen, was den jeweiligen Vorstellungen und Verhaltenskodizes entspricht. Da diese Dienstleistung prinzipiell überall auf der Welt erbracht werden kann, gibt es Moderationsabteilungen in den unterschiedlichsten Gegenden der Erde (aufgrund der großen Menge an zu bewätligenden Seiten macht eine Vergabe dieser Arbeit an Einzelpersonen für Firmen in der Regel keinen Sinn). So finden sich Firmen, die content moderation anbieten, (n)irdendwo in Iowa genauso wie Mitten in Berlin und sehr viele auch auf den Philippinen. Die Philippinen bieten anscheinend beste Voraussetzungen für commercial content moderation. Laut dem Berliner Regisseur Moritz Riesewick, der intensiv über diese Thematik recherchiert hat, gibt es dafür vor allem 2 Gründe: zum einen haben die Philippinen dieselben ethischen und moralischen Maßstäbe wie die westliche Bevölkerung und zum anderen sind 95 % der Philippinen katholisch, viele davon sogar sehr katholisch - aus westlicher Sicht vielleicht sogar extrem katholisch (man denke nur an die freiwilligen Kreuzigungen vieler Philippinen in der Karzeit). Dies bietet ideale Voraussetzungen um Commercial Content Moderatoren zu finden.

Halten wir also fest: Um die eigenen Seiten von unerwünschten Inhalten zu befreien, werden von den meisten Plattformen wohl Firmen angestellt, deren Mitarbeiter_innen - die Commercial Content Moderatoren - fragwürdige Inhalte sichten und diese dann bei Bedarf entfernen.

Das Berufsbild Commercial Content Moderator

Als Commercial Content Moderator stellt man sozusagen die Müllabfuhr des Internet dar, ist man doch mit der Löschung von Inhalten beschäftigt, die nicht den Richtlinien der Auftrgaggeber_innen entsprechen.  Das Berufsbild bedingt somit, dass man sich täglich mehrere Stunden mit Inhalten beschäftigt, die teilweise nur schwer zu ertragen sind. Von Pornographie über Propaganda, Gewalt und Bildern bzw. Filmen direkt aus Kriegsgebieten ist da alles dabei. Sehr schwere Kost also und so ist es nicht verwunderlich, dass Angestellte diesen Beruf nicht lange ausüben. Laut interviewten ehemaligen Mitarbeiter_innen, werden die Content Moderatoren oft nur als Vertragsmitarbeiter_innen angestellt, da die Firmen ohnehin davon ausgehen, dass diesen Job niemand viel länger als 2 Jahre machen kann, bevor er_sie entweder an Burnout leidet oder ein Suchtproblem entwickelt hat. Dies ist kein Wunder, wenn man mehrere Stunden pro Trag nur mit verstörenden Inhalten konfrontiert wird, über die man dann aus Datenschutzgründen natürlich nicht einmal sprechen darf. Und dies alles bei durchschnittlicher und nicht überdurchschnittlicher Bezahlung.

Was macht man, wenn Inhalte nicht gelöscht werden können?

Bleibt noch ein Problem. Was macht man mit Inhalten, die nicht den eigenen Vorstellungen entsprechen und welche man gerne gelöscht haben möchte, die aber nicht löschbar sind, weil sie entweder bereits viel zu weit verbreitet sind oder diese einfach nicht gegen rechtliche Bestimmungen oder moralische und ethische Vorstellungen verstoßen? Seit Neuestem gibt es auch dafür eine einfache Lösung: man bezeichnet die entsprechenden Inhalte einfach als "Fake" und präsentiert "alternative Fakten". Eine entsprechende Fangemeinde vorausgesetzt, scheint diese Vorgehensweise sehr erfolgreich zu sein - wie man gerade in den Medien verfolgen kann.

 

Links:

 
Bildquelle: 
sozial-medien-manager-online-1958774 / pixabay.com/de/sozial-medien-manager-online-1958774 / geralt / CC0

Suchen