Politischer Betrug als Dienstleistung: Was AI‑MAGA‑Influencer über unsere Plattformen verraten

22. April 2026
5 Min. Lesezeit
AI-generierte blonde Frau in US-Flaggen-Bikini auf einem Smartphone-Bildschirm

1. Überschrift und Einstieg

Ein 22‑jähriger Medizinstudent in Indien erfindet mit Hilfe von KI eine blonde, streng konservative US‑„Krankenschwester“ – und tausende reale Trump‑Fans zahlen für ihre angeblichen Einblicke und Nacktbilder. Das klingt nach Satire, ist aber Realität.

Der Fall Emily Hart ist mehr als eine skurrile Anekdote. Er zeigt, wie eng sich politische Polarisierung, Sexualisierung und generative KI inzwischen verzahnt haben – und wie bereitwillig unsere Plattformen alles belohnen, was maximale Emotionen erzeugt. In diesem Artikel analysiere ich, was hinter dem Geschäftsmodell der politischen Catfish‑Influencer steckt, welche Gefahren sich daraus für Demokratie und Öffentlichkeit ergeben und warum Europa – und speziell der DACH‑Raum – sich besser heute als morgen damit beschäftigen sollte.


2. Die Nachricht in Kürze

Wie Ars Technica unter Berufung auf einen ausführlichen Bericht von WIRED schildert, hat ein 22‑jähriger Medizinstudent aus Nordindien (im Artikel "Sam" genannt) mit generativer KI die fiktive Figur Emily Hart erschaffen: eine weiße, blonde, religiöse US‑Krankenschwester, die in Bikinis patriotische Sprüche und harte MAGA‑Positionen postet.

Sam versuchte zunächst, mit generischen AI‑Erotikbildern auf Instagram Reichweite zu gewinnen – ohne Erfolg. Laut Bericht wandte er sich dann an Googles Chatbot Gemini, der ihm eine konservative Zielgruppe als „Abkürzung“ zum Erfolg empfahl. Sam schrieb Emily daraufhin eine Biografie als Krankenschwester, ließ sie Bier trinken, auf dem Schießstand posieren und gegen Migration, Abtreibung und „Wokeness“ wettern.

Der Account explodierte: Millionen‑Reichweiten mit Reels, zehntausende Follower. Geld floss primär außerhalb Instagrams – über Abos und AI‑generierte Nacktbilder auf der Plattform Fanvue (einem OnlyFans‑Konkurrenten) sowie über den Verkauf von MAGA‑Merch. Laut Ars Technica/WIRED sind ähnliche AI‑Profile – häufig als Polizistinnen, Feuerwehrfrauen oder Sanitäterinnen – inzwischen weit verbreitet. Instagram sperrte Emily schließlich wegen „betrügerischer Aktivitäten“, doch das Grundmuster ist leicht kopierbar.


3. Warum das wichtig ist

Hier geht es nicht nur um einen gewitzten Studenten. Der Fall legt die Mechanik der Aufmerksamkeitsökonomie gnadenlos offen: Wer Sexappeal, ideologische Bestätigung und Empörung am effizientesten kombiniert, gewinnt – und KI macht diese Kombination fast beliebig skalierbar.

Profiteure:

  • Trittbrettfahrer und „Growth Hacker“: Mit einem Laptop und ein paar Prompts lässt sich die politische Spaltung der USA (oder jedes anderen Landes) aus dem Ausland monetarisieren – ohne rechtliche oder soziale Bindung an die Zielgesellschaft.
  • Plattformen und KI‑Anbieter: Jeder wütende Kommentar, jeder Like, jeder Klick auf „exklusive Inhalte“ erzeugt Engagement, also Werbeumsatz und Wachstumskennzahlen. Ob die Person hinter dem Account real ist, ist zweitrangig.
  • Politische Akteure ohne Skrupel: Heute ist es ein Einzeltäter, morgen können es Kampagnenagenturen, ausländische Einflussoperationen oder extremistische Gruppen sein, die hunderte solcher Avatare orchestrieren.

Verlierer:

  • Echte Creator und Sexarbeiterinnen, deren Arbeit durch synthetische Konkurrenz entwertet wird, die weder Schlaf noch Arbeitsrechte braucht.
  • Nutzerinnen und Nutzer, die in einem Meer aus perfekt gestalteten, aber künstlichen Identitäten immer weniger verlässliche Anhaltspunkte für Wahrheit finden.
  • Demokratische Öffentlichkeit, weil sich politischer Diskurs nicht mehr klar von emotional manipulierenden Fantasiefiguren trennen lässt.

Besonders brisant ist, dass vielen Fans die Authentizität offenbar egal war: Hauptsache, die Figur verkörpert ihre Wunschvorstellung einer „gottgläubigen, schussfreudigen Traumfrau“, die ihre politischen Überzeugungen teilt. Diese Haltung – „mir gefällt die Stimmung, ob es wahr ist, interessiert mich nicht“ – ist der ideale Nährboden für Desinformation.


4. Der größere Kontext

Emily Hart steht exemplarisch für mehrere Entwicklungen, die sich seit Jahren abzeichnen und nun durch generative KI beschleunigt werden:

  1. Personalisierte politische Beeinflussung: Wir kennen bereits KI‑Fakes von Prominenten, manipulierte Protestbilder und synthetische Wahlwerbespots. Der nächste Schritt sind persistente virtuelle Figuren, die über längere Zeiträume Vertrauen aufbauen – durch Chat, Flirts, vermeintliche Intimität – und dabei subtil politische Inhalte platzieren.

  2. Algorithmische Vorliebe für Sex und Streit: Empfehlungsalgorithmen von TikTok, Instagram oder YouTube sind darauf trainiert, Nutzende möglichst lange zu halten. Inhalte, die starke Emotionen erzeugen – Empörung, Erregung, Angst –, performen am besten. Die AI‑MAGA‑Influencerin ist die logische Spezies in einem Ökosystem, in dem „Rage‑Bait“ und „Thirst‑Traps“ evolutionär im Vorteil sind.

  3. Identität als Ware: Plattformen bewegen sich weg vom Leitbild „Menschen kommunizieren miteinander“ hin zu „Content‑Objekte konkurrieren um Aufmerksamkeit“. Ob diese Objekte von Menschen, KI oder beidem gesteuert werden, spielt in den Geschäftsmodellen eine immer kleinere Rolle.

Historisch gesehen ist das nicht völlig neu – Fake‑Profile, Bots und erfundene „Bürgerinitiativen“ gab es schon in der Frühphase sozialer Netzwerke. Neu ist der Grad an Realismus und Automatisierung: Wo früher Agenturen ganze Teams beschäftigen mussten, reichen heute wenige Tools und etwas Prompt‑Know‑how.

Der Plattformmarkt spaltet sich: OnlyFans setzt auf Verifizierung und Offenlegung von KI‑Content, Fanvue lockt damit, AI‑Modelle ausdrücklich zuzulassen. Übertragen auf die gesamte Branche bedeutet das: Ein Teil wird versuchen, Vertrauen und Authentizität als Differenzierungsmerkmal zu etablieren; ein anderer Teil maximiert kurzfristig Wachstum und nimmt regulatorische Risiken in Kauf.


5. Die europäische / DACH‑Perspektive

Für Europa ist die Causa Emily Hart ein praktisches Beispiel dafür, was auf Brüssel und die Mitgliedstaaten zukommt.

Die Digital Services Act (DSA) verpflichtet sehr große Plattformen bereits, systemische Risiken wie Desinformation zu analysieren und Maßnahmen dagegen zu ergreifen. Der EU‑AI‑Act sieht zusätzliche Pflichten für AI‑Systeme vor, insbesondere wenn sie für politische Einflussnahme oder die Erstellung täuschend echter synthetischer Medien eingesetzt werden.

AI‑generierte politische Influencerinnen bewegen sich genau an den Schnittstellen dieser Regime: Sie sind sexualisierte Unterhaltung, E‑Commerce und verdeckte politische Kommunikation zugleich. Für europäische Behörden stellt sich die Frage: Handelt es sich um klassische Werbung, um politische Werbung – oder um eine Form unerlaubter, ggf. ausländischer Einflussnahme?

Im DACH‑Raum ist das besonders sensibel. Die deutsche Öffentlichkeit reagiert traditionell sehr kritisch auf verdeckte Propaganda und Datensammeln, gleichzeitig zeigen rechtspopulistische Milieus eine starke Social‑Media‑Affinität. Es ist leicht vorstellbar, dass in naher Zukunft KI‑generierte „traditionelle Mütter“, „patriotische Polizistinnen“ oder „skeptische Krankenschwestern“ auf Deutsch, Französisch oder Italienisch in unseren Feeds auftauchen.

Für Start‑ups in Berlin, München, Wien oder Zürich entsteht hier ein Markt für Verifikations‑ und Transparenzlösungen: Tools, die Herkunft und Echtheit von Profilen und Medien prüfen, können für Medienhäuser, Parteien und Werbekunden zur Pflicht werden – nicht nur aus Compliance‑, sondern auch aus Reputationsgründen.


6. Ausblick

Was ist in den kommenden Jahren zu erwarten?

  1. Skalierung zum Massenphänomen: Aus einzelnen Experimenten werden systematische „Persona‑Fabriken“. Multi‑Agent‑Systeme können eigenständig Content produzieren, Zielgruppen testen, Tonalität anpassen und Interaktionen führen. Der Schritt von Erotik‑Influencern zu dezidierten Propaganda‑Figuren ist klein.

  2. Regulatorische Schärfung: Unter Druck von EU‑Kommission, nationalen Medienaufsichten und Wahlleitungsbehörden werden Plattformen KI‑Kennzeichnung, Herkunftsnachweise (z. B. C2PA‑Standards) und externe Audits ausbauen müssen. Wer in Europa operiert, kann sich auf strengere Auflagen für politische Inhalte und synthetische Medien einstellen.

  3. Kulturelle Gegenreaktion: Je mehr Nutzende erkennen, wie leicht sie von synthetischen Avataren manipuliert werden können, desto stärker wird der Wunsch nach verifizierter Echtheit. Medien und Influencer könnten beginnen, „menschlich verifiziert“ ähnlich offensiv zu bewerben wie heute „werbefrei“ oder „datenschutzfreundlich“.

Offene Fragen bleiben:

  • Wie definieren Wahlgesetze in Deutschland, Österreich und der Schweiz orchestrierte KI‑Personas – als Wahlwerbung, als Spende, als ausländische Einmischung?
  • Können technische Erkennungsverfahren mit frei verfügbaren Open‑Source‑Modellen Schritt halten, die lokal und anonym laufen?
  • Und ganz praktisch: Wie reagieren Zahlungsdienstleister und Werbekunden, wenn politische Catfishing‑Skandale häufiger werden?

Solange das Produzieren solcher Figuren billig und das Sanktionieren mühsam bleibt, ist das Spielfeld eindeutig zugunsten der Manipulatoren verschoben.


7. Fazit

AI‑MAGA‑Influencerinnen wie Emily Hart sind kein Kuriosum, sondern ein Prototyp für eine neue Form politischer Dienstleistung: emotional aufgeladene, sexualisierte Catfishing‑Avatare, die Ideologie in Engagement und Geld umwandeln. Solange Plattformen Engagement über Authentizität stellen, werden genau solche Modelle belohnt. Die entscheidende Frage ist, ob wir als Gesellschaft – und speziell in Europa mit seinem starken Regulierungsanspruch – bereit sind, synthetische Verführerinnen in der politischen Arena als das zu behandeln, was sie sind: manipulative Werkzeuge, nicht harmlose Fantasiefiguren.

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.