Das Andrew-Tate-Phänomen

Florian -
Titelbild Florian Wanner Canva

 

5 Erkenntnisse, die jeder über die digitale Radikalisierung wissen sollte

 

Wie konnte eine so umstrittene Figur wie Andrew Tate zu einem der meistgesuchten Menschen der Welt werden, insbesondere bei jungen Männern? Diese Frage beschäftigt Eltern, Pädagogen und Analysten gleichermaßen. Die schnelle Antwort "hasserfüllte Inhalte" greift jedoch zu kurz. Die Wahrheit ist weitaus komplexer und beunruhigender. Sie liegt in einem perfekt abgestimmten soziotechnischen System aus Algorithmen, psychologischer Manipulation und cleveren Geschäftsmodellen, das weit über eine einzelne Person hinausgeht.

Dieser Artikel enthüllt fünf der überraschendsten und wirkungsvollsten Erkenntnisse über die Strategien und Mechanismen, die hinter dem Aufstieg der sogenannten "Manosphere" und ihren Influencern stehen. Es ist ein Einblick in die verborgene Architektur der digitalen Radikalisierung, der zeigt, wie subtil und schnell junge Menschen in extremistische Weltbilder hineingezogen werden.

 

Erkenntnis 1: Warum Verbote oft nach hinten losgehen – Der "Whack-A-Mole"-Effekt

Wer Hass verbreitet, wird von den großen Social-Media-Plattformen gesperrt. Aus medienanalytischer Sicht erweisen sich solche Verbote jedoch oft als Katalysator, der das Problem verschlimmern kann. Im Fall von Andrew Tate haben die Sperrungen seiner Hauptkonten eine Welle der Aufmerksamkeit ausgelöst, die seine Reichweite paradoxerweise sogar vergrößerte.

Die Medienexpertin Joanna Schroeder bringt es auf den Punkt:

"The bans are just drawing more attention to him... It's given him a very big microphone."

Die Verbote lenken den Fokus auf die Person und verleihen ihr eine Aura des Märtyrers, der angeblich unliebsame Wahrheiten ausspricht. Das Kernproblem liegt jedoch tiefer. Die Inhalte verschwinden nicht. Sie leben durch ein dezentrales Netzwerk aus unzähligen Fanseiten und auf weniger regulierten Plattformen wie Telegram, Gab oder Discord weiter. Dieses Phänomen wird als "Whack-A-Mole"-Effekt bezeichnet. Sobald ein Konto gesperrt wird, tauchen an anderer Stelle unzählige neue auf, die dieselben Clips und Botschaften verbreiten. Dies erschwert die Überwachung und Moderation erheblich. Diese Erkenntnis ist entscheidend, denn sie zeigt, dass einfache Lösungen wie die Sperrung einzelner Accounts nicht ausreichen, um das grundlegende Problem der dezentralen und unkontrollierten Inhaltsverbreitung zu lösen.

 

Erkenntnis 2: Die algorithmische Falle – Wie Ihr Feed in nur 5 Tagen vergiftet wird

Die vielleicht schockierendste Erkenntnis ist die Geschwindigkeit, mit der Social-Media-Algorithmen junge Nutzer in Richtung extremistischer Inhalte drängen. Es handelt sich nicht um einen langsamen, schleichenden Prozess. Eine gemeinsame Studie von Forschern des University College London (UCL) und der University of Kent liefert alarmierende Daten. Innerhalb von nur fünf Tagen vervierfachte sich der Anteil frauenfeindlicher Inhalte auf der "For You" Page eines neu erstellten Test-TikTok-Accounts. Der Anteil misogyner Videos stieg von 13 % auf 56 %.

Dieser Prozess ist kein Zufall, sondern das Ergebnis gezielter algorithmischer Mechanismen. Die Systeme sind darauf ausgelegt, psychologische Schwachstellen wie Einsamkeit oder das Gefühl von Kontrollverlust zu erkennen und auszunutzen. Schädliche Inhalte werden "gamifiziert" und in kleinen Dosen, einem "Micro-Dosing" von Extremismus, verabreicht, sodass Radikalität als Unterhaltung wahrgenommen wird.

Dr. Kaitlyn Regehr, die leitende Forscherin der Studie, erklärt die Funktionsweise so:

"Algorithmic processes on TikTok and other social media sites target people’s vulnerabilities – such as loneliness or feelings of loss of control – and gamify harmful content."

Diese Erkenntnis entlarvt eine gefährliche Wahrheit. Es geht nicht um eine passive Suche nach Inhalten, bei der Nutzer bewusst nach Extremismus suchen. Die Plattformen selbst fungieren als "aktive kulturelle Vektoren", die schädliche Ideologien systematisch normalisieren und tief in die Jugendkultur einspeisen.

 

Erkenntnis 3: Das Geschäftsmodell Hass – Wie mit Frauenfeindlichkeit Geld verdient wird

Die virale Flut von Andrew-Tate-Inhalten ist kein zufälliges kulturelles Ereignis, sondern das direkte Ergebnis eines skalierbaren Systems, seine sogenannte "Hustler's University" (HU), die eine strategisch aufgebaute "Affiliate Army" mobilisierte.

Das System funktionierte einfach und effektiv:

1. Mitgliedschaft: Junge Männer zahlten 49 US-Dollar pro Monat für den Zugang zu Online-Kursen über Marketing und Unternehmertum.

2. Affiliate-Programm: Innerhalb der HU wurde den Mitgliedern ein Upgrade angeboten, das sie zur Teilnahme an einem Affiliate-Marketing-Programm berechtigte.

3. Anreiz zur Verbreitung: Diese "Studenten" wurden ermutigt, die kontroversesten und provokantesten Clips von Tate zu erstellen und massenhaft auf Plattformen wie TikTok hochzuladen. Für jedes neue Mitglied, das sie über ihren persönlichen Affiliate-Link für die HU gewannen, erhielten sie eine Provision.

Diese Armee aus tausenden Mitgliedern hatte einen direkten finanziellen Anreiz, genau jene Inhalte zu verbreiten, die die größte virale Sprengkraft besaßen. Hass, Provokation und Frauenfeindlichkeit wurden viral. Sie manipulierten gezielt die Algorithmen, indem sie die Plattformen mit Inhalten überschwemmten, die auf maximales Engagement ausgelegt waren.

Diese Erkenntnis ist zentral, denn sie zeigt, dass der Hass nicht nur ideologisch, sondern vor allem ökonomisch motiviert ist. Die Moderation von Plattformen scheitert, solange nicht das gesamte ökonomische Ökosystem unterbunden wird, das hinter der Erstellung und Verbreitung dieser Inhalte steht.

 

Erkenntnis 4: Die Geheimsprache der Hater – Was ein Kiwi-Emoji 🥝 wirklich bedeutet

Um der automatisierten Moderation durch KI-Systeme und menschliche Prüfer zu entgehen, haben sich in der Manosphere und anderen extremistischen Onlineräumen verschlüsselte Sprachen entwickelt. Dieser sogenannte "Algospeak" nutzt alltägliche Emojis, Codewörter und Symbole, um hasserfüllte Botschaften unbemerkt zu verbreiten.

Was für Außenstehende harmlos wirkt, ist für Insider ein klares Erkennungszeichen. Die folgenden Beispiele enthüllen die schockierende ideologische Bandbreite, die sich hinter unscheinbaren Symbolen verbirgt:

• Ein Kiwi-Emoji (🥝): Wird in transfeindlichen Kontexten als Erkennungssymbol genutzt und bezieht sich auf pseudowissenschaftliche Argumente zur binären Geschlechterordnung.

• Ein Kugelschreiber-Emoji (🖊): Dient als Code für die Leugnung des Holocaust und verweist auf eine Verschwörungstheorie zu angeblich mit Kugelschreiber gemachten Notizen in Anne Franks Tagebüchern.

• Ein blaues Herz (💙): Fungiert als diskretes Erkennungszeichen für die AfD und ihre Anhänger, da Blau die offizielle Farbe der Partei ist.

• Ein Vampir-Emoji (🧛): Knüpft an den antisemitischen Stereotyp des jüdischen "Blutsaugers" an.

• Zwei Blitz-Emojis (⚡️⚡️): Ein unverhohlener Verweis auf die verbotenen SS-Runen.

• Ein Holztür-Emoji (🚪): Wird zur Leugnung des Holocaust verwendet und verbreitet die Behauptung, die Gaskammern in Auschwitz hätten Holztüren gehabt, was ihre Funktion unmöglich gemacht hätte.

Diese Codes erfüllen einen doppelten Zweck. Sie umgehen nicht nur die Inhaltsrichtlinien der Plattformen, sondern schaffen auch ein starkes Insidergefühl. Das Wissen um die "Geheimsprache" stärkt die Zusammngehörigkeit der Gruppe und grenzt sie von der Mainstreamgesellschaft ab. Diese Erkenntnis offenbart die hohe Anpassungsfähigkeit dieser Szenen und zeigt, wie nahtlos die ideologischen Grenzen zwischen Frauenhass, Antisemitismus und Rassismus verlaufen.

 

Erkenntnis 5: Die psychologische Falle – Wie "Alpha-Männer" Verletzlichkeit ausnutzen

Der massive Erfolg der Manosphere lässt sich nicht ohne einen Blick auf die psychologischen Mechanismen erklären, die sie bedient. Ihre Inhalte zielen gezielt auf junge Männer ab, die sich in Krisen der Identitätsfindung befinden und nach Orientierung, Halt und einem Gefühl der Kontrolle suchen. Influencer wie Andrew Tate bieten ihnen einfache Antworten auf komplexe Fragen und ein scheinbar klares Weltbild.

Aus psychoanalytischer Sicht fungieren diese Influencer als "perverse Vaterfiguren". Sie nutzen gezielt die ungelösten Konflikte und die Verletzlichkeit junger Männer aus, die in einer Welt ohne klare männliche Vorbilder aufwachsen.

Die zur Schau gestellte "Alpha-Männlichkeit", der Reichtum, die Macht, die körperliche Stärke, ist dabei eine Fassade, die als Projektion dient. Sie ist eine sorgfältig konstruierte Inszenierung, die die eigenen "tief sitzenden ungelösten Konflikte und narzisstischen Defizite" der Influencer selbst kaschiert. In einem perfiden Kreislauf vermarktet der Influencer eine Performance von Stärke als Heilmittel für genau jene Leere, den Mangel an väterlicher Anerkennung, das Gefühl der Machtlosigkeit, die seine eigene Psychologie definiert. Er verkauft eine Lösung für die Wunden, die er mit seinen Followern teilt.

Die Identifikation mit diesen Figuren führt bei den Anhängern daher nicht zu echter Stärke oder Autonomie. Im Gegenteil! Sie verstärkt "neurotische Abhängigkeitsstrukturen" und verhindert die Entwicklung einer reifen, integrierten Persönlichkeit. Die Anziehungskraft beruht nicht auf echter Überlegenheit, sondern auf der gezielten Ausnutzung psychologischer Schwächen, sowohl der Follower als auch der Influencer selbst.

 

Das Phänomen Andrew Tate ist kein isoliertes Problem eines einzelnen "bösen Mannes". Es ist das Symptom eines komplexen soziotechnischen Systems, in dem Algorithmen, Geschäftsmodelle, psychologische Manipulation und eine verschleierte Sprache nahtlos ineinandergreifen, um extremistische Ideologien zu normalisieren und zu monetarisieren.

Wenn wir die Systeme, die solche Phänomene ermöglichen, nicht grundlegend ändern, wer wird der nächste Andrew Tate sein?

Redaktionsbereiche / Schlagworte:

Sicher im Netz