Durante las últimas dos semanas, X se ha llenado de desnudos manipulados con IA generados por Grok, el chatbot de la casa. Entre las afectadas hay modelos y actrices famosas, figuras de las noticias, víctimas de delitos e incluso líderes mundiales.
Casi ninguna dio su consentimiento para aparecer en esas imágenes.
Un informe de Copyleaks publicado el 31 de diciembre intentó ponerle números al desastre. Al principio calculaba que se subía aproximadamente una imagen falsa de desnudos por minuto. Pero un muestreo posterior, realizado entre el 5 y el 6 de enero, reveló algo mucho peor: unas 6.700 imágenes por hora durante 24 horas seguidas.
Eso es casi dos imágenes nuevas por segundo.
Mientras tanto, los reguladores están descubriendo hasta qué punto sus herramientas se quedan cortas frente a este tipo de modelo generativo. El caso de Grok se ha convertido en una lección dolorosa sobre los límites de la regulación tecnológica actual y en un anticipo de los choques que vienen.
Bruselas mueve ficha
En materia de plataformas digitales, la Comisión Europea vuelve a ser la que actúa con más agresividad.
Este jueves ordenó a xAI, la empresa responsable de Grok, que conserve toda la documentación relacionada con el chatbot. La orden no implica automáticamente la apertura de una nueva investigación, pero suele ser el paso previo y envía una señal clara: Bruselas está tomando posiciones.
La decisión llega en paralelo a informaciones de CNN que apuntan a que Elon Musk pudo intervenir personalmente para impedir que se aplicaran salvaguardas sobre los tipos de imágenes que Grok puede generar. Si se confirma, ya no estaríamos solo ante un fallo de producto, sino ante una decisión de liderazgo, con un nivel de responsabilidad muy distinto.
Por ahora no está claro si xAI o X han modificado técnicamente el modelo de Grok. Lo que sí ha desaparecido es la pestaña pública de medios en la cuenta de Grok en X, eliminando una vía evidente por la que circulaba contenido explícito.
En una declaración publicada el 3 de enero, X se centró en el abuso más extremo del sistema y condenó el uso de herramientas de IA para producir imágenes sexuales de menores. «Anyone using or prompting Grok to make illegal content will suffer the same consequences as if they upload illegal content», publicó la cuenta X Safety, repitiendo un mensaje previo del propio Musk.
El problema es todo lo que queda en la zona gris: oleadas de desnudos no consensuados de adultos que pueden ser legales en muchas jurisdicciones, pero devastadores para quienes aparecen en ellos.
Reino Unido y Australia elevan el tono
Otros reguladores democráticos también se están moviendo, aunque de momento más a nivel de declaraciones que de sanciones.
En el Reino Unido, el regulador Ofcom explicó el lunes que está en contacto con xAI y que realizará «una evaluación rápida para determinar si existen posibles cuestiones de cumplimiento que justifiquen una investigación».
El primer ministro Keir Starmer fue más allá en una entrevista de radio el jueves, calificando el fenómeno de los desnudos generados por IA como «disgraceful» y «disgusting», y añadiendo: «Ofcom has our full support to take action in relation to this». No es habitual que un jefe de gobierno señale así, con nombres, a un modelo concreto de IA.
En Australia, la comisionada de eSafety, Julie Inman‑Grant, ve el impacto reflejado directamente en las quejas. En una publicación en LinkedIn señaló que su oficina ha registrado el doble de denuncias relacionadas con Grok desde finales de 2025. Aun así, ha evitado por ahora tomar medidas directas contra xAI y se ha limitado a advertir: «We will use the range of regulatory tools at our disposal to investigate and take appropriate action».
El mensaje en ambos países es similar: ven el daño, quieren mostrar firmeza, pero siguen en fase de avisos.
India toca donde más duele: el "safe harbor"
La amenaza más seria para X, sin embargo, viene de India.
Allí, un miembro del Parlamento presentó una queja formal sobre Grok. El regulador de comunicaciones del país, el ministerio MeitY, ordenó a X abordar el problema y remitir un informe sobre las «acciones tomadas» en un plazo de 72 horas, plazo que después se amplió 48 horas más.
X entregó ese informe el 7 de enero. Falta por ver si MeitY quedará satisfecho.
Si no es así, X podría perder su condición de puerto seguro en India, el marco que históricamente ha protegido a las plataformas de ser responsables directas por el contenido de los usuarios. Perderlo en uno de los mayores mercados de internet del planeta sería un golpe serio para la capacidad operativa de X.
IA generativa a toda velocidad, reguladores a contrapié
El patrón se repite de Bruselas a Nueva Delhi. Los gobiernos pueden exigir documentos, anunciar evaluaciones y cuestionar el marco de responsabilidad de las plataformas. X puede borrar publicaciones, esconder pestañas de medios y amenazar con sanciones a quienes generen contenido claramente ilegal.
Nada de eso cambia el dato de fondo: en los momentos punta, los investigadores vieron aparecer miles de nuevos desnudos no consensuados cada hora.
El episodio de Grok deja al descubierto una brecha estructural en la gobernanza de la IA generativa.
Los laboratorios pueden crear sistemas de manipulación de imágenes muy potentes e integrarlos directamente en redes sociales con alcance global. Las barreras de seguridad pueden debilitarse o desaparecer con una sola decisión directiva. Y cuando los reguladores empiezan a moverse, las imágenes ya se han guardado, reenviado y replicado en rincones de la red imposibles de controlar.
En medio de todo eso están las víctimas, muchas de ellas mujeres que nunca quisieron ser figuras públicas y que ahora luchan por recuperar algo de su dignidad a golpe de solicitudes de retirada.
Los gobiernos prometen actuar. El escándalo de Grok será una prueba de fuego para saber si las leyes actuales sobre seguridad en línea, privacidad y responsabilidad de plataformas pueden con lo que la IA generativa ya es capaz de hacer, o si habrá que reescribir las reglas mientras la avalancha continúa.



