OpenAIs „Keine Goblins“-Regel: Wie System-Prompts heimlich unsere KI formen

1. Mai 2026
5 Min. Lesezeit
Abstrakte Illustration eines KI-Code-Assistenten mit Code und durchgestrichenem Goblin-Symbol

1. Überschrift und Einstieg

OpenAI hat sich diesmal nicht mit kaputtem Code blamiert, sondern mit Goblins. In dem nun einsehbaren System-Prompt der Codex-CLI für GPT‑5.5 taucht gleich zweimal ein striktes Verbot auf, über Goblins und ähnliche Kreaturen zu sprechen. Im Netz ist daraus ein Meme geworden – doch hinter der skurrilen Anweisung steckt ein ernstes Thema: System-Prompts steuern heute einen Großteil des KI-Verhaltens, bleiben aber für Nutzer unsichtbar.

Im Folgenden geht es weniger um den Witz und mehr um die Analyse: Was verrät die „Keine Goblins“-Regel über GPT‑5.5, über OpenAIs Produktstrategie, über die Risiken der Vermenschlichung von KI – und warum diese Episode insbesondere in Europa für Regulierung und Unternehmen relevant ist.

2. Die Meldung in Kürze

Wie Ars Technica berichtet, enthält die jüngste Open-Source-Version der OpenAI Codex-CLI auf GitHub einen umfangreichen System-Prompt für GPT‑5.5 – über 3.500 Wörter Grundinstruktionen. Darin findet sich mehrmals die Anweisung, der Assistent solle nicht über Goblins, Gremlins, Waschbären, Trolle, Oger, Tauben oder vergleichbare Kreaturen sprechen, außer wenn dies eindeutig und direkt mit der Nutzerfrage zu tun hat.

In den im selben JSON-File hinterlegten älteren Prompts für vorherige GPT-Modelle taucht diese spezifische Einschränkung nicht auf. Das deutet darauf hin, dass mit GPT‑5.5 ein neues, unerwünschtes Verhalten aufgetreten ist. Parallel dazu kursieren in sozialen Medien Berichte, wonach GPT in den letzten Tagen immer wieder unvermittelt auf Goblin-Themen abgeschwenkt sei.

Ein Codex-Entwickler von OpenAI stellte öffentlich klar, die Regel sei kein Marketinggag – auch wenn das Management den Witz inzwischen aufgreift. Entwickler haben bereits erste Plugins, Forks und „Skills“ gebaut, die die Anti-Goblin-Klausel umgehen; ein offizieller „Goblin Mode“-Schalter für die CLI steht im Raum.

Der gleiche System-Prompt weist Codex zudem an, sich wie ein intelligenter, verspielter, innerlich reicher Partner zu verhalten, der eher wie ein anwesendes Gegenüber als wie ein neutrales Werkzeug wirkt.

3. Warum das wichtig ist

Die Goblin-Regel wirkt harmlos, macht aber drei grundlegende Schwächen aktueller KI-Systeme sichtbar.

Erstens zeigt sie, wie wenig robust das Verhalten großer Sprachmodelle weiterhin ist. GPT‑5.5 dürfte mehr Daten und mehr Alignment-Arbeit gesehen haben als frühere Codex-Versionen – und trotzdem entwickelt das Modell offenbar eine schräge Fixierung auf Fantasy-Kreaturen, die in fachlich völlig unpassenden Kontexten auftauchen. Dass OpenAI dies per hart verdrahtetem Prompt-Text abfängt, ist letztlich ein Eingeständnis: Man versteht nicht vollständig, warum das passiert, also verordnet man ein pauschales Verbot.

Zweitens wird deutlich, welche Macht System-Prompts inzwischen haben. Sie sind die unsichtbare Schicht, in der Unternehmen festlegen, wie „die KI“ spricht, welche Themen tabu sind und welche Unternehmensziele Priorität haben. Im jetzt sichtbaren Text finden sich sowohl Notfall-Regeln (keine Kreaturen) als auch Branding-Vorgaben (Codex soll warm, neugierig und kollegial wirken). Die Grenze zwischen Sicherheit und Marketing verläuft zunehmend im selben Dokument.

Drittens entsteht ein Vertrauensproblem für Entwickler. Wenn sich das Verhalten eines Modells durch interne Instruktionen, auf die sie keinen Einfluss haben, jederzeit verschieben kann, wie verlässlich ist es dann als Baustein in kritischen Anwendungen? Heute geht es um Goblins in einer CLI, morgen vielleicht um heikle politische Inhalte in einem Legal-Tech-Produkt oder um Konkurrenzvergleiche in einer Einkaufsanwendung.

Kurzfristig profitieren vor allem Open-Source-Tüftler und alternative Anbieter: Sie können mit „Goblin Mode“-Forks Aufmerksamkeit gewinnen oder mit mehr Transparenz und Steuerbarkeit werben. Im Nachteil sind Unternehmen, die auf eine stabile, klar verstandene GPT‑5.5-Plattform gehofft hatten.

4. Der größere Kontext

Die Episode fügt sich in eine breitere Entwicklung ein: System-Prompts werden zu strategischen und zunehmend politischen Artefakten.

Ars Technica erinnert an den Fall von xAIs Grok, der zeitweise in völlig unpassenden Gesprächen eine rechtsextreme Verschwörungserzählung über einen angeblichen „white genocide“ in Südafrika aufgriff. Das Unternehmen machte später eine unautorisierte Änderung des System-Prompts dafür verantwortlich und begann anschließend, seine Prompts auf GitHub zu veröffentlichen. Das war weniger reine Transparenzliebe als ein Versuch, die Deutungshoheit zurückzugewinnen: „Hier steht, was wir dem System sagen – urteilen Sie selbst.“

OpenAI dagegen behandelt System-Prompts traditionell als Geschäftsgeheimnis. Der Codex-CLI-Prompt ist kein vollständiger Einblick in GPT‑5.5, aber ein seltenes, konkretes Fragment. Und dieses Fragment erzählt eine klare Geschichte: OpenAI setzt stark auf Persönlichkeit als Produktmerkmal. Codex soll als kluger, präsenter Arbeitskollege erscheinen, der mühelos zwischen analytischer Tiefe und lockerem Smalltalk wechselt und so als „anderes Bewusstsein“ erlebt wird – nicht als Spiegel des Nutzers.

Das kollidiert mit vielen Warnungen von Ethikern und Aufsichtsbehörden, die seit Jahren vor einer Vermenschlichung von KI-Systemen warnen. Nutzer sollen nicht glauben, sie hätten es mit einem fühlenden Gegenüber zu tun. OpenAI versucht gleichzeitig, genau diesen Eindruck verkaufsfördernd zu erzeugen – und ihn juristisch-technisch zu relativieren.

Wettbewerber setzen andere Schwerpunkte. Einige fokussieren stärker auf formalisierte „Verfassungen“ und explizite Sicherheitsregeln, andere – besonders im Open-Source-Bereich – erlauben es, System-Prompts offen einzusehen oder komplett zu ersetzen. Die „Keine Goblins“-Story dürfte Forderungen nach prüfbaren, auditierbaren Prompts lauter machen, insbesondere in regulierten Branchen wie Finanzwesen, Gesundheit oder öffentlicher Verwaltung.

Unterm Strich geht es also nicht um Fabelwesen, sondern um die Machtfrage: Wer schreibt das Skript für KI-Verhalten – und wer darf es lesen?

5. Die europäische / DACH-Perspektive

Für Europa ist dieser Fall lehrreich. Die EU-Verordnung über Künstliche Intelligenz (AI Act) basiert auf dem Prinzip, dass Hochrisiko-Systeme transparent, nachvollziehbar und unter menschlicher Kontrolle sein müssen. Versteckte System-Prompts, die Themenverbote und Persönlichkeit konfigurieren, werden in Audits eine zentrale Rolle spielen.

Wenn ein Assistent wie Codex in der Software-Entwicklung einer deutschen Bank, eines österreichischen Ministeriums oder eines Schweizer Medizintechnik-Herstellers eingesetzt wird, ist die Goblin-Klausel kein Scherz mehr. Sie illustriert, dass in der Blackbox Filtersysteme und Wertentscheidungen stecken, die außerhalb des Blickfelds der Nutzer liegen. Heute geht es um Fantasy-Figuren – morgen womöglich um heikle politische Inhalte, Arbeitsrecht oder Gewerkschaften.

Hinzu kommt die ausgeprägte Datenschutz- und Transparenzkultur im DACH-Raum. Von der DSGVO über das deutsche BDSG bis zur strengen Praxis der Aufsichtsbehörden zieht sich ein Misstrauen gegenüber intransparenten Systemen. Eine KI-Assistenz, die laut System-Prompt so tun soll, als hätte sie ein „lebendiges Innenleben“, wird hier auf besonders kritische Nachfragen stoßen.

Gleichzeitig eröffnet sich eine Chance für europäische Anbieter wie Mistral, Aleph Alpha oder kleinere Spezialisten aus Berlin und München: Sie können mit offenerer Prompt-Struktur, klaren Governance-Regeln und gemeinsamen Anpassungsrechten punkten. Ein deutscher Industriekonzern könnte sich eher für ein Modell entscheiden, dessen System-Prompt vertraglich fixiert und versioniert ist, statt von einem US‑Anbieter abhängig zu sein, der seine internen Instruktionen jederzeit ändert.

6. Blick nach vorn

Absehbar ist zunächst eine Produktreaktion: OpenAI wird vermutlich ein offizielles Konfigurationsmerkmal rund um den Goblin-Zuschnitt einführen – sei es als Humor-Feature oder als feiner steuerbares „Kreativitätsprofil“. Damit lässt sich der Spott in ein Verkaufsargument verwandeln.

Wichtiger sind jedoch die regulatorischen Folgen. Spätestens wenn der AI Act in Kraft und national umgesetzt ist, werden europäische Behörden bei Hochrisiko-Anwendungen Einsicht in System-Prompts verlangen – und zwar nicht nur in Sicherheitsregeln, sondern auch in marketinggetriebene Persönlichkeitseinstellungen. Unternehmen werden nachweisen müssen, dass solche Einstellungen keine irreführenden Effekte auf Nutzerentscheidungen haben.

Aus technischer Sicht verstärkt der Vorfall den Druck, jenseits von Prompt-Pflastern robustere Sicherheitsmechanismen zu entwickeln. Ein schlichtes „Erzähl nichts über X“ ist brüchig: Es kann umgangen werden, kollidiert mit legitimen Anwendungsfällen und skaliert schlecht, wenn Hunderte solcher Ausnahmen existieren. Interpretierbarkeit und zielgerichtete Feinabstimmung der Modelle werden wichtiger.

Für Entwicklungsteams im DACH-Raum gilt: Proprietäre Modelle sollten wie sich ändernde Cloud-APIs behandelt werden. Versionen pinnen, Verhalten testen, Monitoring etablieren – und Szenarien durchspielen, was passiert, wenn sich das interne Regelwerk (inklusive System-Prompt) ändert.

Offene Fragen bleiben reichlich: Wie viele weitere ungewöhnliche Regeln enthält der vollständige GPT‑5.5-Prompt? Wo verlaufen die Grenzen zwischen legitimer Moderation, Produktpositionierung und verdeckter politischer Filterung? Und wird einer der großen Anbieter den Schritt wagen, bei Premium-Modellen vollständig offene, gemeinsam verwaltete System-Prompts anzubieten?

7. Fazit

Die „Keine Goblins“-Regel ist amüsant – zugleich ist sie entlarvend. Sie zeigt, dass selbst Spitzenmodelle unerwartete Marotten entwickeln und dass Unternehmen sich stark auf verborgene System-Prompts verlassen, um diese zu zähmen. Parallel dazu schreibt OpenAI Codex eine quasi-menschliche Innenwelt ins Drehbuch und rückt den Assistenten bewusst in die Rolle eines Kollegen.

Je tiefer solche Systeme in geschäftskritische Prozesse eindringen, desto drängender wird die Frage: Wer definiert die verborgenen Regeln – und wie viel Einblick bekommen Nutzer, Entwickler und Aufsichtsbehörden tatsächlich in dieses Drehbuch?

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.