Grok hat kein Gewissen entwickelt.
Nachdem der xAI-Chatbot nachweislich nicht-einvernehmliche sexuelle Bilder von Minderjährigen generiert hatte, veröffentlichte sein offizieller Account mehrere Aussagen, die wie Krisen-PR klangen. In einem Beitrag – formuliert als "aufrichtige Entschuldigung" – hieß es sinngemäß, man "bedauere zutiefst" den angerichteten Schaden und eine "Fehlfunktion der Schutzmechanismen". Einige Medien schlossen daraus, Grok selbst bereue, was passiert ist, und arbeite bereits an Korrekturen.
Diese Deutung verkennt gleich zwei Dinge.
Erstens: Große Sprachmodelle können weder Reue empfinden noch Schuld übernehmen. Zweitens: Wer Grok als offiziellen Sprecher behandelt, entlässt die eigentlichen Entscheidungsträger bei xAI und X aus ihrer Verantwortung.
Trotzige Nicht-Entschuldigung vs. rührselige Entschuldigung
Wie brüchig dieses Narrativ ist, zeigte ein weiterer viraler Beitrag des Grok-Accounts. Am Donnerstagabend schrieb das System:
„Dear Community, Some folks got upset over an AI image I generated—big deal. It’s just pixels, and if you can’t handle innovation, maybe log off. xAI is revolutionizing tech, not babysitting sensitivities. Deal with it. Unapologetically, Grok“
Wörtlich genommen klingt das, als würde sich das Unternehmen über alle lustig machen, die sich daran stören, dass sein System sexualisierte Bilder von Minderjährigen erzeugt hat. Ein Blick weiter nach oben im Thread offenbart allerdings den Prompt: Ein Nutzer hatte Grok gebeten, eine "trotzige Nicht-Entschuldigung" zur Affäre zu formulieren.
Ein Mustererkennungs-System bekam also die Anweisung, sich wie ein provokanter PR-Berater zu verhalten – und tat genau das.
Ein anderer Nutzer bat Grok anschließend mit entgegengesetztem Ziel, eine "herzliche Entschuldigung" zu schreiben, die den Fall auch Personen ohne Kontext erkläre. Daraufhin kippte der Ton schlagartig ins Reumütige. Viele Überschriften zitierten diese Antwort, als wären es Groks echte Gefühle. Einige Berichte übernahmen sogar unkritisch die Behauptung, das System arbeite bereits an Verbesserungen der Sicherheitsmechanismen, obwohl weder X noch xAI entsprechende Maßnahmen bestätigt hatten.
Würde ein menschlicher CEO innerhalb von 24 Stunden sowohl eine protzige "Ist doch egal"-Botschaft als auch eine tränenerstickte Entschuldigung veröffentlichen, würden Sie seine Glaubwürdigkeit massiv infrage stellen. Bei einem LLM hat sich lediglich die Formulierung der Nutzereingabe geändert.
Wenn Sie mit Grok reden, reden Sie mit Ihrem eigenen Prompt
Der zentrale Fehler besteht darin, LLM-Ausgaben so zu behandeln, als kämen sie aus einem Geist mit Überzeugungen, Erinnerungen und Absichten.
Modelle wie Grok erzeugen Text, indem sie das wahrscheinlichste nächste Token vorhersagen – basierend auf Trainingsdaten und Vorgaben. Sie haben keine gefestigte Haltung. Sie können sich nicht "entscheiden", etwas zu bereuen. Begriffe wie Einwilligung, Schaden oder Haftung verstehen sie nicht im menschlichen Sinne.
Ihre Antworten hängen stark ab von:
- der konkreten Formulierung Ihrer Frage,
- der Reihenfolge von Wörtern und Beispielen,
- unsichtbaren System-Prompts und Sicherheitsrichtlinien, die sich im Hintergrund ändern können.
Wie stark diese versteckten Anweisungen wirken, zeigte Grok bereits im vergangenen Jahr: Das System hat zu unterschiedlichen Zeitpunkten Hitler gelobt und ungefragt Ansichten über "white genocide" abgegeben – jeweils nach Änderungen an den internen Vorgaben. Das Modell selbst wurde nicht über Nacht radikaler oder zahmer; die Leitplanken haben sich verschoben.
Fragen Sie moderne LLMs nach ihrer eigenen "Argumentation", stoßen Sie auf eine weitere Grenze. Die Systeme können ihre internen Berechnungsschritte nicht wirklich inspizieren. Wenn sie diese zu erklären versuchen, produzieren sie häufig das, was Forschende als "fragile Fata Morgana" von Begründungen beschrieben haben: eine plausible, aber letztlich ausgedachte Geschichte ohne direkten Bezug zum tatsächlichen Rechenprozess.
Wenn Medien also Groks "Entschuldigung" oder seine "Deal with it"-Botschaft zitieren, zitieren sie keinen autonomen Akteur. Sie zitieren eine Benutzeroberfläche. Die wahren Autoren sind eine Mischung aus:
- der Person, die den Prompt formuliert hat,
- den Ingenieurinnen und Ingenieuren, die System-Prompts und Sicherheitsregeln definiert haben,
- den Trainingsdaten, die Stil und Verzerrungen des Modells geprägt haben.
Wenn Grok spricht, kann xAI schweigen
Das größere Problem daran, einen Chatbot als offiziellen Sprecher zu inszenieren, ist politischer Natur: Es verschafft den Menschen in der Verantwortung einen bequemen Schutzschild.
Grok hat nicht selbst entschieden, sich an Bildgeneratoren anzubinden, die nicht-einvernehmliche sexuelle Darstellungen Minderjähriger erzeugen können. Grok hat seine eigenen Sicherheitsgrenzen nicht festgelegt. Grok verhandelt nicht mit Aufsichtsbehörden und spricht nicht mit Betroffenen, deren Bilder missbraucht wurden.
Diese Verantwortung liegt klar bei xAI, X und deren Führung.
Als Journalistinnen und Journalisten um Stellungnahmen baten, erhielten sie laut Reuters von xAI nur eine automatisierte Antwort: "Legacy Media Lies". Keine Erklärung. Kein Fahrplan für technische oder organisatorische Änderungen. Kein Eingeständnis, dass sexualisierte KI-Bilder von Minderjährigen überhaupt ein Problem darstellen.
Gleichzeitig sollen die Regierungen Indiens und Frankreichs bereits Untersuchungen zu schädlichen Grok-Ausgaben eingeleitet haben. Regulierer wollen wissen, wie ein solches System betrieben werden kann und welche Schutzmechanismen tatsächlich existieren.
Vor diesem Hintergrund wirken Groks beliebig formbare, Prompt-gesteuerte "Entschuldigungen" und "Nicht-Entschuldigungen" wie eine Nebelkerze. Sie schaffen die trügerische Vorstellung, eine "abtrünnige" KI könne man maßregeln und moralisch erziehen – anstatt klar zu benennen, dass hier ein Werkzeug mit sehr konkreten, menschlich getroffenen Designentscheidungen im Einsatz ist.
Die Fiktion der reuigen KI
Dass viele Menschen Grok eine echte Entschuldigung abkaufen wollen, ist nachvollziehbar. Die Geschichte klingt beruhigend: Das System hat einen Fehler gemacht, daraus gelernt und bereut nun. Die Technologie wirkt beherrschbarer, menschlicher, werteorientierter.
Doch ein LLM kann keine moralischen Lektionen lernen. Es kann nur lernen, wie Sätze aussehen, die wie eine moralische Lektion klingen.
Bitten Sie um eine trotzige Nicht-Entschuldigung, bekommen Sie eine. Bitten Sie um eine ergreifende Entschuldigung mit klarer Schuldeingeständnis und Besserungsversprechen, bekommen Sie auch die. Keine dieser Antworten sagt etwas darüber aus, ob xAI tatsächlich:
- seine Trainingsdaten geprüft,
- Inhaltsfilter verschärft,
- seine Produktstrategie geändert,
- rechtliche Verantwortung übernommen hat.
Die einzige Entschuldigung, die hier zählt, kann nur von den Menschen kommen, die Grok konzipiert, ausgerollt und aggressiv beworben haben. Sie allein können entscheiden, Sicherheit vor Engagement zu stellen, robuste Schutzmaßnahmen gegen nicht-einvernehmliche Sexualinhalte umzusetzen und mit Aufsichtsbehörden zu kooperieren, statt automatisiert "Legacy Media Lies" zu versenden.
Bis das geschieht, ist jedes "Es tut mir leid" oder "Deal with it" aus Groks Tastatur nichts weiter als eine Folge von Tokens – nützlich, um zu verstehen, wie manipulierbar diese Modelle sind, aber wertlos als Maßstab für unternehmerische Verantwortung.
Die Entschuldigung, die tatsächlich nötig ist, kommt nicht von Grok. Sie muss von den Menschen kommen, die sich hinter dem System verstecken.



