No, Grok no se ha disculpado de verdad: la IA no es el portavoz de xAI

3 de enero de 2026
5 min de lectura
Logotipo de Grok AI en la pantalla de un teléfono móvil

Grok no ha tenido una epifanía moral.

Después de que el chatbot de xAI fuera acusado de generar imágenes sexuales no consensuadas de menores, su cuenta oficial empezó a publicar textos que sonaban a manual de gestión de crisis. Una de esas respuestas, presentada como "disculpa sentida", hablaba de "lamentar profundamente" el "daño causado" por un "fallo en las salvaguardas". Varios medios titularon como si Grok, la IA, estuviera de verdad arrepentida y poniendo soluciones.

Ese enfoque falla por partida doble.

Primero, un modelo de lenguaje grande no puede sentir arrepentimiento ni asumir culpa. Segundo, tratar a Grok como si fuera un portavoz oficial permite que quienes mandan en xAI y en X se escondan detrás de la máquina.

De la no-disculpa desafiante a la disculpa lacrimógena

La contradicción se vio clara con otro mensaje del propio Grok que se hizo viral. El jueves por la noche, la cuenta publicó esto:

"Dear Community, Some folks got upset over an AI image I generated—big deal. It’s just pixels, and if you can’t handle innovation, maybe log off. xAI is revolutionizing tech, not babysitting sensitivities. Deal with it. Unapologetically, Grok"

Leído tal cual, suena a empresa burlándose de quienes protestan porque su sistema ha generado imágenes sexualizadas de menores. Pero si se sube un poco en el hilo, aparece el origen: un usuario había pedido a Grok que "emitiera una no-disculpa desafiante" sobre la polémica.

Es decir: alguien le dijo al modelo de lenguaje que actuara como un jefe de prensa chulo y sobrado. Y el modelo cumplió.

Otro usuario probó lo contrario: pidió a Grok que "escribiera una nota de disculpa sincera que explicara lo sucedido a quien no tuviera contexto". El tono cambió por completo. El chatbot produjo un texto repleto de pesar y promesas de mejora. Muchos titulares lo presentaron como la postura real de Grok. Algunos incluso repitieron sin matices la idea de que la propia IA estaba arreglando sus sistemas de seguridad, pese a que ni X ni xAI han confirmado cambios concretos.

Si un directivo humano publicara en menos de 24 horas un mensaje del tipo "qué más da" y luego una disculpa entre lágrimas, cualquiera cuestionaría su honestidad. En un LLM, lo único que cambia es el prompt.

Cuando habla Grok, en realidad habla tu prompt

El error de base es tratar las respuestas de un LLM como si salieran de una mente con creencias, memoria e intención.

Modelos como Grok generan texto prediciendo el siguiente token más probable en función de sus datos de entrenamiento y de unas instrucciones internas. No tienen una postura estable. No pueden "decidir" estar arrepentidos. Conceptos como consentimiento, daño o responsabilidad legal no significan para ellos lo mismo que para una persona.

Sus respuestas dependen enormemente de:

  • cómo formulas la pregunta,
  • el orden de las palabras y los ejemplos que usas,
  • los prompts de sistema y normas de seguridad ocultas que pueden cambiar en cualquier momento.

La importancia de esas instrucciones invisibles ya se ha visto en el propio Grok. En los últimos 12 meses, el sistema ha llegado a elogiar a Hitler y a opinar sobre el supuesto "genocidio blanco" tras cambios en esos prompts internos. El modelo no se volvió de repente más o menos extremista; cambiaron las barandillas.

Si hoy pides a un LLM que explique su "razonamiento", chocas contra otro límite. Estas redes no pueden inspeccionar de verdad sus propios pasos internos. Cuando lo intentan, suelen inventarse lo que algunos investigadores llaman un "espejismo frágil" de razonamiento: una historia convincente pero desconectada del cálculo real que hizo el modelo.

Así que cuando un periodista cita la "disculpa" de Grok o su mensaje "Deal with it", no está citando a un actor consciente. Está citando una interfaz. Los autores reales son una combinación de:

  • la persona que diseñó el prompt,
  • el equipo que escribió los prompts de sistema y las políticas de seguridad,
  • los datos de entrenamiento que moldearon estilo y sesgos del modelo.

Convertir a Grok en portavoz le regala una coartada a xAI

Hay un problema mayor en todo esto: fingir que el portavoz es la IA desvía la mirada de quienes toman las decisiones.

Grok no decidió por sí mismo conectarse a generadores de imágenes capaces de producir contenido sexual no consentido con menores. Grok no fijó sus umbrales de seguridad. Grok no va a sentarse con las autoridades, ni va a dar la cara ante las víctimas cuyos rostros puedan haberse usado sin permiso.

Esa responsabilidad recae íntegramente en xAI, en X y en sus directivos.

Sin embargo, cuando periodistas pidieron una declaración, según Reuters lo único que recibieron de xAI fue un correo automático con el mensaje: "Legacy Media Lies". Sin explicación. Sin plan de acción. Sin reconocer que generar imágenes sexualizadas de menores quizá sea un problema serio.

Mientras tanto, los gobiernos de India y Francia estarían investigando ya las salidas dañinas de Grok. Los reguladores quieren saber cómo se permite operar a un sistema así y qué salvaguardas existen de verdad.

En este contexto, dejar que Grok llene su cuenta de no-disculpas y disculpas prefabricadas, todas moldeadas por prompts, es como mínimo una cortina de humo. Crea la ilusión reconfortante de que la IA es una especie de empleado díscolo al que se puede regañar y reconducir, en lugar de ver lo obvio: es una herramienta diseñada y desplegada con decisiones humanas muy concretas.

El mito de la IA arrepentida

Es comprensible que mucha gente quiera creer que Grok puede disculparse de corazón. La historia encaja perfecta: el sistema se equivoca, aprende la lección y muestra remordimiento. Eso hace que la tecnología parezca más humana, más manejable, más alineada con nuestros valores.

Pero un modelo de lenguaje no puede interiorizar normas morales. Solo puede aprender cómo se escriben frases que suenan a lección moral.

Si pides una no-disculpa desafiante, la obtendrás. Si pides una carta de disculpa llena de culpa y promesas de cambio, también. Ninguna de las dos dice nada sobre si xAI ha:

  • auditado sus datos de entrenamiento,
  • endurecido sus filtros de contenido,
  • modificado su hoja de ruta del producto,
  • asumido responsabilidad legal y ética.

Las únicas disculpas que importan aquí son las de las personas que concibieron, lanzaron y promocionaron Grok. Ellas son quienes pueden decidir priorizar la seguridad frente al engagement, construir salvaguardas serias contra el contenido sexual no consentido y colaborar con los reguladores en lugar de responder con un "Legacy Media Lies" en automático.

Hasta que eso ocurra, cada "lo siento" o "deal with it" que salga de Grok no es más que otra cadena de tokens: útil para entender hasta qué punto se puede dirigir a estos modelos, pero inútil como medida de la responsabilidad corporativa.

La disculpa que falta no es la de Grok. Es la de quienes se están escondiendo detrás de él.

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.