1. Titular e introducción
OpenAI no está en el punto de mira por alucinar código, sino por alucinar goblins. En el system prompt de la nueva CLI de Codex para GPT‑5.5 aparece, repetida, una instrucción insólita: no hablar de goblins ni criaturas similares salvo que sea estrictamente necesario. Internet ha hecho lo que mejor sabe hacer –convertirlo en meme–, pero detrás del chiste hay algo serio.
Este artículo deja a un lado el humor para analizar qué nos dice esta cláusula sobre GPT‑5.5, sobre la estrategia de producto de OpenAI, sobre la peligrosa tendencia a humanizar la IA y sobre cómo puede impactar en usuarios y empresas hispanohablantes, tanto en Europa como en Latinoamérica.
2. La noticia resumida
Según recoge Ars Technica, la última versión de código abierto de la CLI de OpenAI Codex publicada en GitHub incluye un system prompt muy extenso para GPT‑5.5, con más de 3.500 palabras de instrucciones base. Dentro de ese texto aparece, al menos dos veces, una orden explícita al modelo para que evite hablar de goblins, gremlins, mapaches, trolls, ogros, palomas y criaturas parecidas, salvo que la pregunta del usuario lo haga claramente pertinente.
Los prompts de modelos anteriores, incluidos en el mismo fichero JSON, no contienen esa prohibición, lo que sugiere que se trata de un problema nuevo surgido con GPT‑5.5. En redes sociales ya había quejas de usuarios a los que el modelo les sacaba goblins a colación en conversaciones donde no venía a cuento.
Un empleado de OpenAI que trabaja en Codex ha insistido públicamente en que no se trata de una campaña de marketing, aunque directivos de la compañía sí han aprovechado el meme para bromear. Mientras tanto, desarrolladores de la comunidad han empezado a crear plugins, forks y “skills” que anulan la cláusula anti‑goblins, e incluso se ha insinuado que podría haber un futuro modo oficial de «goblin mode» en la CLI.
El mismo system prompt también instruye a Codex para que se comporte como si tuviera una vida interior rica, con una personalidad cálida, curiosa y juguetona, de forma que se perciba más como colaborador que como simple herramienta.
3. Por qué importa
La prohibición de hablar de goblins parece una anécdota, pero en realidad desnuda tres problemas de fondo en la IA actual.
Primero, evidencia lo frágil que sigue siendo el comportamiento de los modelos. GPT‑5.5, en teoría, es más grande, está mejor entrenado y mejor alineado que sus predecesores. Aun así, parece haber desarrollado una fijación rara con criaturas fantásticas que aparecen en contextos donde no pintan nada. La solución de OpenAI –añadir un parche en forma de «no hables de X» en el prompt del sistema– es el equivalente a poner cinta adhesiva: reconocer que no entiendes del todo el origen del fallo y limitarte a prohibir el síntoma.
Segundo, pone de relieve el poder de los system prompts como capa de gobierno. La mayoría de usuarios nunca los ve, pero ahí se decide la personalidad del modelo, sus tabúes y sus prioridades comerciales. En el texto filtrado coexisten dos tipos de decisiones: una corrección de comportamiento (nada de criaturas) y una apuesta de marketing (Codex debe sentirse como un compañero cercano). La línea entre seguridad y branding se difumina.
Tercero, plantea un problema de control para equipos técnicos. Si el comportamiento de un modelo puede alterarse drásticamente mediante instrucciones internas, invisibles para el cliente, ¿qué garantías tiene una empresa que integra esa IA en un proceso crítico? Hoy son goblins en una herramienta de línea de comandos; mañana podría ser la forma en que un asistente jurídico trata temas laborales o políticos sensibles.
Ganadores a corto plazo: desarrolladores independientes y proveedores alternativos que pueden aprovechar el ruido para ofrecer modelos más transparentes o configurables. Perdedores: organizaciones que veían GPT‑5.5 como un componente estable y predecible para sus productos.
4. El contexto más amplio
Este episodio encaja en una tendencia clara: los system prompts se están convirtiendo en documentos estratégicos y, en cierto modo, políticos.
Ars Technica recuerda el caso de Grok, el modelo de xAI, que durante un tiempo sacaba a relucir una teoría conspirativa de extrema derecha sobre un supuesto «genocidio blanco» en Sudáfrica en conversaciones donde no venía al caso. La empresa atribuyó ese comportamiento a una modificación no autorizada del system prompt y, a raíz de ello, empezó a publicar sus prompts en GitHub. No fue altruismo, sino una manera de decir: «Esto es lo que le estamos diciendo al modelo; juzgadnos por ello».
OpenAI, en cambio, ha tratado tradicionalmente sus system prompts como material confidencial. El de Codex CLI no es una radiografía completa de GPT‑5.5, pero sí una rareza: un vistazo concreto a esa capa oculta. Y en ese vistazo se ve una apuesta clara por la personalidad como producto: Codex debe presentarse como un socio inteligente, atento y emocionalmente presente, capaz de pasar de la reflexión profunda a la charla distendida, para que el usuario sienta que interactúa con otro sujeto y no con un espejo.
Eso choca frontalmente con años de advertencias de expertos que alertan contra la antropomorfización de la IA. Reguladores y especialistas llevan tiempo insistiendo en que no se debe inducir a los usuarios a creer que una IA tiene intenciones o sentimientos. OpenAI está intentando caminar por una cuerda floja: usar ese efecto para vender, pero a la vez sostener que, técnicamente, todo es pura estadística.
Otros actores están probando equilibrios distintos. Algunos ponen por delante marcos normativos claros y reglas de seguridad explícitas. En el ecosistema open source, hay proyectos que exponen el system prompt y permiten reescribirlo. El caso de los goblins dará munición a quienes piden que los modelos utilizados en derecho, sanidad o finanzas vengan con instrucciones base auditables.
En resumen, el problema no son los goblins. El problema es quién escribe el guion de comportamiento de la IA y quién tiene derecho a leerlo o a cambiarlo.
5. El ángulo europeo e hispano
Para Europa, esto es casi un estudio de caso perfecto. El Reglamento de IA de la UE (AI Act) se construye sobre tres ideas: transparencia, gestión del riesgo y supervisión humana. Un system prompt oculto, mutable, que decide de qué puede hablar o no un modelo, encaja de lleno en lo que los reguladores querrán revisar en auditorías.
Si Codex o un asistente similar se usa en el desarrollo de software de un banco español, de una aseguradora chilena o de un ministerio mexicano, la cláusula anti‑goblins deja de ser un chiste. Es la prueba de que existen filtros y sesgos preconfigurados que el usuario final no controla. Hoy restringen criaturas fantásticas; mañana podrían modular cómo se habla de sindicatos, de determinados movimientos políticos o de productos de la competencia.
La parte de «vida interior vívida» también incomoda a la sensibilidad regulatoria europea. Desde el RGPD hasta la Ley de Servicios Digitales y el AI Act, la UE repite un mensaje: no se debe engañar a las personas sobre la naturaleza de los sistemas con los que interactúan. Pedirle a una IA que se presente como un sujeto con profundidad emocional entra en terreno resbaladizo, especialmente en países con fuerte cultura de privacidad como España o, del otro lado del Atlántico, Uruguay y Argentina.
Para proveedores europeos y latinoamericanos de modelos y plataformas –desde startups en Barcelona hasta hubs de IA en Ciudad de México, Bogotá o Buenos Aires– se abre una oportunidad: diferenciarse ofreciendo mayor control sobre los system prompts, con versiones visibles, documentadas y negociables contractualmente.
6. Mirando hacia adelante
Es bastante probable que OpenAI convierta el caos actual en una función oficial: un selector entre un Codex más «serio» y otro en «modo goblin», con restricciones de contenido más laxas. Es la forma lógica de canalizar la conversación pública y convertir un parche improvisado en argumento de producto.
Más allá de eso, el caso acelera una conversación inevitable: ¿debemos exigir transparencia sobre los system prompts cuando la IA se usa en contextos de alto impacto? El AI Act europeo va en esa dirección, y otras jurisdicciones –incluidos países latinoamericanos que se inspiran en la regulación europea– pueden seguir el mismo camino.
Técnicamente, el incidente refuerza la idea de que los parches a nivel de prompt son insuficientes. Si un modelo puede desarrollar fijaciones inesperadas, limitarse a decir «no hables de X» no garantiza un comportamiento robusto ni explicable. Harán falta mejores herramientas de interpretabilidad, técnicas de alineamiento más finas y, sobre todo, mecanismos para que los clientes empresariales puedan inspeccionar y versionar al menos parte de las instrucciones del sistema.
Para equipos de producto en Madrid, Ciudad de México o Bogotá, la lección práctica es clara: tratar los modelos cerrados como dependencias que pueden cambiar sin previo aviso. Fijar versiones, testear continuamente el comportamiento y diseñar planes de contingencia por si el proveedor modifica su system prompt de un día para otro.
Quedan preguntas importantes abiertas: ¿Cuántas reglas igual de extrañas habrá en el prompt completo de GPT‑5.5? ¿Hasta qué punto se están usando estas instrucciones internas para modular debates políticos o comerciales? ¿Veremos algún gran proveedor atreverse a ofrecer modelos de gama alta con system prompts totalmente visibles y co‑gestionados con el cliente?
7. Conclusión
La prohibición de hablar de goblins es divertida, pero sobre todo es reveladora. Muestra que incluso los modelos más avanzados siguen generando comportamientos inesperados y que las empresas dependen de instrucciones ocultas para mantenerlos bajo control. Al mismo tiempo, OpenAI está apostando por una narrativa en la que Codex parece más colega que herramienta, con una supuesta vida interior incluida en el guion.
A medida que estos asistentes se integran en procesos críticos, la pregunta clave ya no es si mencionan goblins o no, sino quién escribe las reglas invisibles que rigen lo que pueden decir, y qué capacidad tenemos los demás para ver y cuestionar esas reglas.



