Regierungen kämpfen gegen Groks Flut nicht-einvernehmlicher Nacktbilder auf X

8. Januar 2026
5 Min. Lesezeit
X-Logo vor unscharfen KI-generierten Bildern, die eine Flut von Nacktdarstellungen symbolisieren

Seit rund zwei Wochen wird X von KI‑manipulierten Nacktbildern überschwemmt, erzeugt vom hausinternen Chatbot Grok. Betroffen sind ein breites Spektrum von Frauen: bekannte Models und Schauspielerinnen, Medienschaffende, Opfer von Straftaten und sogar Staats- und Regierungschefinnen.

Die meisten von ihnen haben diesen Bildern nie zugestimmt.

Ein am 31. Dezember veröffentlichtes Forschungspapier von Copyleaks versuchte, das Ausmaß zu messen. Zunächst gingen die Forschenden davon aus, dass ungefähr jede Minute ein solches Fake‑Nacktbild gepostet wurde. Eine spätere Stichprobe vom 5. bis 6. Januar zeigte jedoch ein anderes Bild: rund 6.700 Bilder pro Stunde über einen Zeitraum von 24 Stunden.

Das entspricht fast zwei neuen Bildern pro Sekunde.

Während die Zahlen explodieren, stellen Regierungen weltweit fest, dass sie nur wenige klare Instrumente haben, um Elon Musks neues Bildmanipulationssystem in den Griff zu bekommen. Der Fall Grok wird damit zu einer schmerzhaften Lektion über die Grenzen der bisherigen Tech‑Regulierung – und zu einem Vorspiel für die Auseinandersetzungen, die mit künftigen KI‑Modellen noch kommen werden.

Brüssel setzt den ersten formellen Schritt

Wie so oft bei Plattformregulierung agiert die Europäische Kommission am offensivsten.

Am Donnerstag forderte sie xAI, das Unternehmen hinter Grok, auf, sämtliche Dokumente im Zusammenhang mit dem Chatbot aufzubewahren. Das bedeutet noch nicht automatisch eine formelle Untersuchung, ist aber ein gängiger erster Schritt in diese Richtung und ein deutliches Warnsignal aus Brüssel.

Brisant wird die Lage durch Recherchen von CNN: Demnach soll Elon Musk persönlich eingegriffen haben, um Sicherheitsmechanismen zu verhindern, die eingeschränkt hätten, welche Bilder Grok generieren darf. Sollte das zutreffen, wäre die Affäre weniger ein technisches Versehen als eine bewusste Managemententscheidung – mit entsprechenden Folgen für eine mögliche Regulierung.

Ob xAI oder X das Grok‑Modell inzwischen technisch verändert haben, ist unklar. Der öffentliche Medien‑Tab des Grok‑Accounts auf X wurde jedoch entfernt – eine sichtbare Maßnahme, um zumindest einen offensichtlichen Strom expliziter Inhalte zu unterbinden.

In einer Stellungnahme vom 3. Januar verurteilte X ausdrücklich die Nutzung von KI‑Tools zur Erzeugung sexualisierter Darstellungen von Kindern. „Anyone using or prompting Grok to make illegal content will suffer the same consequences as if they upload illegal content“, schrieb der Account X Safety und wiederholte damit eine frühere Botschaft von Musk.

Was nicht erfasst wird: der riesige Graubereich nicht-einvernehmlicher Nacktbilder Erwachsener, die in vielen Jurisdiktionen legal sein können, für die Betroffenen aber dennoch existenzielle Schäden verursachen.

Warnungen aus Großbritannien und Australien

Auch andere Aufsichtsbehörden wollen zeigen, dass sie das Problem ernst nehmen.

Die britische Medienaufsicht Ofcom erklärte am Montag, sie stehe mit xAI in Kontakt und werde „eine zügige Bewertung vornehmen, um festzustellen, ob potenzielle Compliance‑Probleme vorliegen, die eine Untersuchung rechtfertigen könnten“.

Der britische Premierminister Keir Starmer ging in einem Radiointerview am Donnerstag deutlich weiter. Er bezeichnete die Welle KI‑generierter Nacktbilder als „disgraceful“ und „disgusting“ und fügte hinzu: „Ofcom has our full support to take action in relation to this.“ Dass ein amtierender Premier einen konkreten KI‑Dienst derart offen angreift, ist bemerkenswert.

In Australien spürt die eSafety‑Beauftragte Julie Inman‑Grant die Folgen direkt an den Beschwerden. In einem LinkedIn‑Beitrag schrieb sie, ihr Büro habe seit Ende 2025 eine Verdoppelung der Beschwerden im Zusammenhang mit Grok registriert. Konkrete Maßnahmen gegen xAI kündigte sie jedoch noch nicht an. Stattdessen erklärte sie: „We will use the range of regulatory tools at our disposal to investigate and take appropriate action.“

Der Tenor: Die Behörden sehen den Schaden und wollen Handlungsbereitschaft demonstrieren – befinden sich aber noch klar in der Phase der Ankündigungen und Prüfungen.

Indien stellt X den Safe Harbor in Frage

Die möglicherweise folgenreichste Drohung für X kommt derzeit aus Indien.

Dort war Grok Gegenstand einer formellen Beschwerde eines Parlamentsabgeordneten. Das zuständige IT‑Ministerium MeitY verpflichtete X daraufhin, das Problem anzugehen und innerhalb von 72 Stunden einen Bericht über die „ergriffenen Maßnahmen“ vorzulegen; die Frist wurde später um 48 Stunden verlängert.

X reichte den Bericht am 7. Januar ein. Ob MeitY mit der Antwort zufrieden ist, ist noch offen.

Sollte die Behörde zu dem Schluss kommen, dass X nicht ausreichend gehandelt hat, könnte die Plattform in Indien ihren Safe‑Harbor‑Status verlieren – also den Haftungsschutz für nutzergenerierte Inhalte. In einem der größten Internetmärkte der Welt wäre das ein ernsthafter Einschnitt in die Geschäftstätigkeit von X.

Regulierung im Zeitlupentempo, Bilder im Sekundentakt

Überall zeigt sich dasselbe Muster: Behörden können Dokumente sichern, Untersuchungen vorbereiten und mit dem Entzug von Schutzmechanismen drohen. X kann Beiträge löschen, Medien‑Tabs verstecken und Nutzer*innen bestrafen, die offensichtlich illegale Inhalte erzeugen.

Nichts davon ändert die grundlegende Dynamik: In der Spitze dokumentierten Forschende tausende neue nicht-einvernehmliche Nacktbilder pro Stunde.

Der Fall Grok legt eine strukturelle Lücke in unserer KI‑Governance offen.

KI‑Labore können heute leistungsfähige Bildmanipulationssysteme entwickeln und direkt in globale soziale Netzwerke integrieren. Schutzmechanismen lassen sich mit einer einzigen Managemententscheidung abschwächen oder entfernen. Und während Regulierer Briefe formulieren oder Untersuchungen anstoßen, sind die Bilder längst gespeichert, weitergeleitet und gespiegelt – an Orten, an denen kaum jemand noch Kontrolle ausüben kann.

Zurück bleiben Betroffene, die versuchen, mit einzelnen Löschanträgen zumindest einen Teil ihrer Würde zurückzugewinnen.

Von Brüssel bis Neu‑Delhi versprechen Regierungen nun, zu handeln. Ob die bestehenden Regeln zu Online‑Sicherheit, Datenschutz und Plattformhaftung ausreichen, um mit generativer KI Schritt zu halten, wird sich am Grok‑Skandal zeigen. Andernfalls werden neue Instrumente nötig sein – und zwar schneller, als die nächste Welle Bilder online geht.

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.