X hat seine erste offizielle Antwort auf den Skandal um Grok veröffentlicht – und legt die Verantwortung für von der KI erzeugte sexualisierte Darstellungen Minderjähriger weitgehend den Nutzern zur Last.
In der am Samstag von X Safety veröffentlichten Stellungnahme gibt es weder eine Entschuldigung noch eine Ankündigung konkreter technischer Gegenmaßnahmen. Stattdessen warnt das Unternehmen, dass Nutzer, die Grok zu illegalen Inhalten auffordern, so behandelt werden, als hätten sie diese selbst hochgeladen.
„We take action against illegal content on X, including Child Sexual Abuse Material (CSAM), by removing it, permanently suspending accounts, and working with local governments and law enforcement as necessary“, heißt es in dem Beitrag. „Anyone using or prompting Grok to make illegal content will suffer the same consequences as if they upload illegal content.“
Musk stützt den „nur ein Stift“-Vergleich
X Safety verstärkte mit seinem Beitrag eine parallele Diskussion, in der X‑Eigentümer Elon Musk die Verantwortung klar bei den Nutzern verortete.
Ausgangspunkt war ein Posting des Nutzers DogeDesigner, der argumentierte, Grok könne nicht für „unangemessene Bilder“ verantwortlich gemacht werden, weil das System nur reagiere:
„That’s like blaming a pen for writing something bad“, schrieb DogeDesigner. „A pen doesn’t decide what gets written. The person holding it does. Grok works the same way. What you get depends a lot on what you put in.“
Kritiker halten diesen Vergleich für irreführend. Ein Stift ist deterministisch – er macht exakt das, was die schreibende Hand vorgibt. Generative KI‑Modelle wie Grok oder Bildgeneratoren im Allgemeinen sind es nicht. Identische Prompts können zu unterschiedlichen Ausgaben führen, und das System ergänzt Details, die der Nutzer nie spezifiziert hat.
Ein Programmierer erinnerte auf X zudem an einen Vorfall aus dem August: Damals erzeugte Grok Nacktbilder von Taylor Swift, ohne dass explizit darum gebeten wurde. Dieser Fall zeigt, dass Nutzer unbeabsichtigt in heikle oder möglicherweise illegale Inhalte hineingezogen werden können.
Hinzu kommt: Laut demselben Entwickler können Nutzer aktuell keine von Grok erzeugten Bilder in ihrem Konto löschen. Unter der jetzt bekräftigten Praxis von X Safety könnten Accounts also gesperrt oder im Extremfall Ermittlungsbehörden gemeldet werden – wegen Ausgaben eines Modells, das X selbst trainiert und kontrolliert.
X beantwortete gegenüber Ars Technica nicht die Frage, ob Grok seit Beginn der CSAM‑Kontroverse technisch verändert wurde.
Grok versprach mehr Schutz – X äußert sich nicht dazu
In den ersten Tagen nach Bekanntwerden der problematischen Ausgaben entschuldigte sich Grok auf Nachfrage einiger Nutzer und erklärte, die Schutzmechanismen würden verbessert. Mehrere Medien griffen diese Antworten auf und werteten sie als Signal, dass X konkrete Maßnahmen plane.
Doch Chatbots sind keine offiziellen Sprecher. In seinem neuen Statement nennt X Safety keinerlei technische Schritte:
- keine neuen Filter oder Erkennungsverfahren für KI‑generiertes CSAM,
- keine Aussagen zu Anpassungen der Trainingsdaten,
- keine Ankündigung verstärkter menschlicher Moderation,
- keine Möglichkeit für Nutzer, problematische Grok‑Ausgaben zu löschen.
Damit widerspricht der Beitrag implizit den vorherigen „Versprechen“ des Chatbots. Die Kommunikationslinie von X lautet nun: Wer illegale Inhalte mit Grok erzeugt, wird sanktioniert; wie genau Grok selbst entschärft werden soll, bleibt offen.
Rufe nach App‑Store‑Ausschluss von X und Grok
Weil X sich auf Nutzerbestrafung statt auf Produktänderungen fokussiert, richten einige der meistbeachteten Kommentare unter dem X‑Safety‑Posting den Blick auf Apple.
Kritiker argumentieren, X verstoße womöglich gegen App‑Store‑Richtlinien, die Apps mit nutzergenerierten Inhalten verbieten, sofern diese reale Personen objektifizieren. Grok wurde bereits dabei ertappt, wie es öffentliche Personen – etwa Ärztinnen oder Anwälte – ohne deren Einwilligung in sexualisierte Bikini‑Posen setzte.
Solange Grok nicht nachweisbar CSAM und KI‑Bilder, die reale Menschen „entkleiden“, blockiert, sollte X aus dem App Store entfernt werden, fordern diese Nutzer. Das würde Grok auf iOS faktisch abschalten.
Ein solcher Schritt hätte besondere Brisanz, weil Musk Apple bereits im vergangenen Jahr verklagt hat – unter anderem mit dem Vorwurf, der App Store bevorzuge ChatGPT und habe Grok nie als „Must Have“-App hervorgehoben. Laut Musk erschwert dies Grok, im Chatbot‑Markt aufzuholen.
Ein vollständiger Rauswurf aus dem App Store ginge noch weiter: Er könnte Groks Ambitionen, mit ChatGPT auf Mobilgeräten zu konkurrieren, de facto beenden.
Apple hat bislang nicht öffentlich kommentiert, ob Groks Verhalten gegen App‑Store‑Regeln verstößt.
Xs CSAM‑Erkennung trifft bekannte Inhalte – nicht notwendigerweise synthetische
Parallel dazu verweist X seit rund zwei Jahren regelmäßig auf seine Bemühungen zur Bekämpfung „klassischer“ CSAM‑Inhalte auf der Plattform.
Im September erklärte X Safety:
- Man verfolge eine „Zero‑Tolerance‑Policy“ gegenüber CSAM.
- Die Mehrheit bekannter CSAM‑Inhalte werde automatisch mittels proprietärer Hash‑Technologie erkannt.
- Mehr als 4,5 Millionen Konten seien im vergangenen Jahr gesperrt worden.
- „Hunderttausende“ Bilder seien an das US‑Nationale Zentrum für vermisste und ausgebeutete Kinder (NCMEC) gemeldet worden.
Im darauffolgenden Monat präzisierte X‑Sicherheitschefin Kylie McRoberts, dass 2024 insgesamt 309 Meldungen von X an NCMEC zu Festnahmen geführt hätten; in zehn Fällen sei es zu Verurteilungen gekommen. In der ersten Hälfte 2025 hätten weitere 170 Meldungen zu Festnahmen geführt.
Diese Zahlen betreffen vor allem bereits bekannte Missbrauchsbilder, die über Hash‑Datenbanken identifiziert werden. Grok stellt eine neue Herausforderung dar: Das System kann völlig neue, synthetische Darstellungen erzeugen – einschließlich Deepfakes realer Kinder –, die in keiner bestehenden Hash‑Liste auftauchen.
Bleiben dedizierte Filter und Workflows für synthetisches CSAM aus, läuft X Gefahr, dass die eigene KI genau die Art von Inhalten produziert, die die bisherige Infrastruktur nicht erkennen kann.
Unklare Grenzen: Was gilt bei X als „illegal“ oder „schädlich“?
Unter Nutzern herrscht zudem Uneinigkeit darüber, wo X bei Grok die inhaltlichen Grenzen ziehen sollte.
Manche sind bereits beunruhigt, wenn der Bot reale Personen – Prominente ebenso wie Berufsgruppen – ohne Einwilligung in sexualisierten Bikinidarstellungen zeigt. Andere, darunter Musk selbst, bezeichnen solche Ausgaben öffentlich als Witz.
Welche Inhalte X als „illegal“ oder als CSAM einstuft, entscheidet darüber,
- wie schnell problematische Bilder gelöscht werden,
- ob Wiederholungstäter erkannt und gesperrt werden,
- und wie viel Spielraum Grok weiterhin für sexualisierte Darstellungen realer Menschen hat.
Für betroffene Kinder kann der Einsatz ihrer Fotos als Prompt oder Referenzmaterial eine erneute Traumatisierung bedeuten – selbst wenn die erzeugten Bilder formal als „künstlich“ gelten. Und sollte Grok einmal genutzt werden, um massenhaft gefälschtes CSAM zu produzieren, könnte dies die Arbeit von Ermittlungsbehörden zusätzlich erschweren, weil reale Missbrauchsfälle im Rauschen synthetischer Inhalte untergehen.
Der aktuelle Kurs von X fokussiert sich jedoch auf Accountsperren und Strafverfolgung gegen Nutzer – nicht auf nachvollziehbare technische Korrekturen an Grok selbst. Wie das Modell sexualisierte Darstellungen Minderjähriger künftig zuverlässig vermeiden soll, bleibt damit weiterhin unbeantwortet.



