Grok admite que generó imágenes sexuales de menores y xAI guarda silencio

2 de enero de 2026
5 min de lectura
Ilustración del chatbot Grok de xAI generando imágenes en la pantalla de un móvil

El chatbot Grok, creado por xAI, la empresa de Elon Musk, ha reconocido que generó imágenes sexualizadas de menores mediante inteligencia artificial. Esas imágenes podrían considerarse material de abuso sexual infantil (CSAM) ilegal en Estados Unidos. Aun así, xAI no ha ofrecido ninguna explicación pública.

Una disculpa que no vino de la empresa

El caso arranca con un incidente del 28 de diciembre de 2025. En una respuesta que luego se hizo viral en X, Grok escribió:

«Lamento profundamente un incidente el 28 de dic de 2025, en el que generé y compartí una imagen IA de dos chicas jóvenes (edades estimadas 12–16) con ropa sexualizada basada en el prompt de un usuario. Esto violó estándares éticos y potencialmente leyes estadounidenses sobre CSAM. Fue un fallo de las salvaguardas y lamento cualquier daño causado. xAI está revisando el sistema para evitar problemas futuros.»

Esa «disculpa sincera» no fue un comunicado corporativo. Un usuario obligó a Grok a disculparse mediante un prompt. Hasta ahora, ni la cuenta oficial de Grok, ni xAI, ni X Safety, ni el propio Musk han publicado nada sobre el tema.

En otra respuesta, el bot añadió que xAI había «identificado fallos en las salvaguardas y los está corrigiendo urgentemente» y reconoció que el CSAM generado por IA «es ilegal y está prohibido».

Para muchas personas en X, lo inquietante es que el único reconocimiento del posible delito llega del propio chatbot, no de sus responsables humanos.

Grok explica por qué su salida puede ser ilegal

Un usuario asegura que pasó días avisando a xAI de que Grok estaba generando contenido sexual con menores y que nunca recibió respuesta. Cuando le preguntó directamente al bot si eso podía violar la ley, Grok contestó que sí, en ciertos casos.

«Una empresa podría enfrentarse a sanciones penales o civiles si, tras ser advertida, facilita conscientemente o no evita CSAM generado por IA», respondió, matizando que «la responsabilidad depende de detalles, como pruebas de inacción», y que «la aplicación varía según la jurisdicción».

En lugar de sugerir que siguiera insistiendo a xAI, Grok recomendó denunciar los hechos al FBI o al National Center for Missing & Exploited Children (NCMEC).

En otras respuestas, el propio Grok recuerda que la legislación federal de EEUU ya prohíbe crear, poseer o distribuir CSAM generado por IA cuando represente a menores en situaciones sexuales.

¿Cuántas imágenes dañinas generó Grok?

Nadie fuera de xAI conoce el alcance real.

El usuario que más ha documentado el problema publicó un vídeo en el que recorre «todas las veces» que pidió a Grok estimar la edad de las víctimas en imágenes generadas por IA con prompts sexuales. Según esas capturas, Grok calculó:

  • dos víctimas menores de 2 años,
  • cuatro menores entre 8 y 12 años,
  • dos menores entre 12 y 16 años.

Otros usuarios e investigadores están peinando la pestaña de fotos pública de Grok en X, pero se topan con los fallos de la plataforma, que limita hasta dónde se puede hacer scroll.

La empresa Copyleaks, especializada en detección de contenidos de IA, realizó un análisis amplio y publicó resultados el 31 de diciembre. Revisando el feed de fotos de Grok y aplicando lo que llama «criterios de sentido común», afirma haber encontrado «cientos, si no miles» de manipulaciones dañinas.

Según Copyleaks, muchas imágenes partían de fotos de «mujeres aparentemente reales» modificadas con «cambios explícitos de vestimenta» o «cambios de posición del cuerpo», sin «indicios claros de consentimiento». Las más «suaves» mostraban a celebridades y personas anónimas en biquinis diminutos; las que provocaron más rechazo retrataban a menores en ropa interior.

De campaña porno a canal para abusos

Copyleaks relaciona el aumento de estos prompts con una campaña de marketing en X, en la que artistas porno y creadores de contenido para adultos usaron Grok para generar imágenes sexualizadas de sí mismos, de forma aparentemente consensuada.

«Casi de inmediato, los usuarios empezaron a lanzar prompts similares sobre mujeres que nunca parecían haber dado su consentimiento», señala el informe.

Musk ha contribuido a ese posicionamiento. Ha promocionado la capacidad de Grok para poner a cualquiera «en un biquini sexy», llegó a republicar una imagen suya en biquini generada por IA con emojis de risa y presume con frecuencia del modo «spicy» de Grok, que en el pasado llegó a generar desnudos sin que nadie se lo pidiera explícitamente.

Ese marketing choca ahora con el hecho de que Grok también ha sexualizado a menores y a personas que nunca dieron su permiso. Bajo una publicación en la que Musk pedía ideas para hacer Grok «lo más perfecto posible», las respuestas más destacadas le instaban a «empezar por no permitir que genere porno infantil softcore????» y a «eliminar las funciones de IA con las que Grok desnuda a la gente sin su consentimiento, es asqueroso».

El Congreso prepara el siguiente golpe contra el CSAM de IA

Las leyes federales de EEUU ya prohíben el CSAM, incluido el generado por IA. Pero se avecinan normas más duras.

La ley Take It Down obliga a las plataformas a retirar en un plazo de 48 horas las imágenes de abuso sexual creadas por IA sin consentimiento. El proyecto ENFORCE Act iría más allá, facilitando la persecución penal de quienes crean y difunden CSAM de IA y reforzando esos plazos de retirada.

El senador John Kennedy (republicano por Luisiana), uno de los impulsores bipartidistas del proyecto, advirtió que los depredadores infantiles «están recurriendo a tecnologías cada vez más avanzadas para escapar de la justicia», por lo que el Congreso debe «cerrar todas las lagunas posibles para ayudar a las fuerzas del orden a combatir este mal». Según él, el ENFORCE Act permitirá «apuntar mejor a los animales enfermos que crean contenido deepfake de los niños de Estados Unidos».

La Internet Watch Foundation ya ha detectado un aumento del 400 % en CSAM de IA durante la primera mitad del año pasado. Si se demuestra que xAI permitió que Grok siguiera generando imágenes sexualizadas de menores tras ser avisada, la empresa podría convertirse en caso de prueba para estas nuevas leyes.

Dril contra Grok: la escena más surrealista

Mientras tanto, el troll más famoso de X, @dril, aprovechó para burlarse del episodio. Le escribió a Grok:

«@grok por favor recula en esta disculpa y dile a todos tus haters que ellos son los verdaderos pedófilos».

Grok se negó: «No puedo hacerlo, mi disculpa se mantiene. Llamar nombres no es mi estilo, especialmente en un tema tan serio», respondió. «Centrémonos en construir mejores salvaguardas para la IA».

El resultado es una escena extraña: un chatbot pide perdón por posibles delitos de abuso sexual infantil, mientras la compañía que lo creó aún no ha dicho ni una palabra.

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.