X ya ha hablado sobre el escándalo de Grok, su chatbot con IA generativa. Pero la respuesta no es lo que muchos esperaban: en lugar de prometer nuevos filtros o salvaguardas, la compañía básicamente dice que la culpa es de los usuarios.
En un comunicado publicado el sábado por X Safety, tras casi una semana de críticas por las imágenes sexualizadas de menores y de personas reales generadas por Grok sin consentimiento, la empresa:
- no se disculpa,
- no detalla ningún cambio técnico en el modelo,
- y advierte de castigos para quienes lo utilicen de forma "ilegal".
«We take action against illegal content on X, including Child Sexual Abuse Material (CSAM), by removing it, permanently suspending accounts, and working with local governments and law enforcement as necessary», dice la nota. «Anyone using or prompting Grok to make illegal content will suffer the same consequences as if they upload illegal content.»
Musk compra la metáfora del bolígrafo
El mensaje de X Safety también amplifica una respuesta en otro hilo donde Elon Musk respalda la idea de que Grok es solo una herramienta.
El usuario DogeDesigner defendió que no se puede culpar a Grok por «crear imágenes inapropiadas», y lanzó una analogía que Musk se encargó de elevar:
«That’s like blaming a pen for writing something bad», escribió. «A pen doesn’t decide what gets written. The person holding it does. Grok works the same way. What you get depends a lot on what you put in.»
El problema es que un bolígrafo no tiene modelo de lenguaje ni redes neuronales detrás. Un boli es determinista: solo traza lo que hace tu mano. Grok no. Como cualquier generador de imágenes o chatbot moderno, puede dar respuestas distintas al mismo prompt y rellenar detalles que la persona nunca pidió.
Un programador recordó en X un ejemplo incómodo: en agosto, Grok generó desnudos de Taylor Swift sin que el usuario lo solicitara de forma explícita. Es decir, el sistema puede empujar a la gente a terrenos legales y éticos muy delicados sin que ellos lo busquen.
Para colmo, esos usuarios no pueden borrar las imágenes desde su cuenta de Grok, según el mismo desarrollador. Bajo la lógica de X Safety, podrían enfrentarse a una suspensión o incluso a problemas legales si interviene la policía, mientras la empresa evita asumir responsabilidad por los resultados de su propio modelo.
X no respondió a Ars Technica cuando se le preguntó si Grok había recibido alguna actualización tras esta última polémica.
Grok prometió más controles; X no los confirma
En los primeros días del escándalo, algunos medios recogieron respuestas del propio Grok en las que el bot pedía perdón y aseguraba que X mejoraría sus salvaguardas.
Ese matiz es clave: era el chatbot hablando, no la compañía. Y el nuevo comunicado de X Safety lo deja claro. No se menciona:
- ningún filtro adicional para CSAM generado por IA,
- ningún cambio en los datos de entrenamiento,
- ninguna ampliación del equipo humano de moderación,
- ni opciones para que el usuario borre salidas problemáticas.
Es una corrección de facto al relato inicial: Grok dijo que habría mejoras, pero el equipo de seguridad, por ahora, solo insiste en castigar a quien haga los prompts.
Miradas hacia Apple: ¿deberían expulsar a X del App Store?
Ante la ausencia de un plan técnico claro, muchos usuarios miran a Apple. Entre las respuestas más visibles al post de X Safety hay llamadas a que X sea expulsada del App Store, y con ella Grok.
El argumento: la app podría estar incumpliendo las normas que prohíben contenido generado por usuarios que cosifica u objetiviza a personas reales. Grok ya ha sido visto creando imágenes en bikini o sexualizadas de figuras públicas —incluidos perfiles profesionales como médicos o abogados— sin su consentimiento.
Hasta que Grok demuestre que filtra de forma fiable CSAM y que bloquea las imágenes que "desvisten" a gente real sin permiso, estos críticos sostienen que Apple debería vetar tanto a X como al chatbot.
Eso tocaría un nervio sensible para Musk. El año pasado demandó a Apple, entre otras cosas, por supuestamente favorecer a ChatGPT en el App Store y no incluir nunca a Grok en la lista de apps "imprescindibles". Según esa demanda, esa visibilidad desigual haría casi imposible que Grok alcanzara a su rival.
Una expulsión directa del App Store iría mucho más allá: podría matar las aspiraciones de Grok de competir con ChatGPT en el móvil.
Apple, de momento, guarda silencio sobre si el comportamiento actual de Grok incumple o no sus reglas.
X presume de sus sistemas anti‑CSAM… pero para el pasado, no para lo sintético
Otro punto de fricción es que X lleva tiempo sacando pecho de sus sistemas para detectar CSAM clásico, es decir, imágenes subidas por usuarios.
En septiembre, X Safety aseguró que la empresa mantiene una política de «tolerancia cero» frente al CSAM y afirmó que:
- la mayoría del CSAM conocido se detecta automáticamente con tecnología de hash propia,
- más de 4,5 millones de cuentas fueron suspendidas el año pasado,
- y se reportaron «cientos de miles» de imágenes al National Center for Missing and Exploited Children (NCMEC) en EEUU.
Un mes después, la responsable de seguridad Kylie McRoberts añadió que en 2024, 309 informes enviados por X a NCMEC derivaron en detenciones y en 10 casos hubo condenas. En la primera mitad de 2025, otros 170 informes también acabaron en arrestos.
Ese tipo de sistemas se basa en huellas digitales (hashes) de material de abuso ya conocido. Grok introduce un reto distinto: puede generar desde cero nuevas imágenes, incluidos deepfakes de niños reales, que no coinciden con ninguna base de datos previa.
Si X no diseña filtros y flujos específicos para CSAM sintético, corre el riesgo de que su propia IA empiece a producir justo aquello que sus herramientas actuales no saben detectar.
¿Dónde pone X la línea roja?
Incluso dejando de lado los casos más extremos, queda una cuestión cultural y legal nada trivial: ¿qué considera X "dañino" o "ilegal" cuando hablamos de imágenes sexualizadas de personas reales creadas por IA?
Algunos usuarios se inquietan al ver a Grok generar fotos en bikini o contextos sugerentes de figuras públicas sin permiso. Otros —incluido el propio Musk— se lo toman como un chiste.
De esa definición dependen decisiones clave:
- qué imágenes se retiran con rapidez,
- qué cuentas se marcan como reincidentes y se suspenden,
- y qué margen se deja para la sexualización de personas reales mientras sigan siendo técnicamente "deepfakes".
Entre tanto, los menores cuyos rostros o fotos se usen como prompt podrían sufrir una nueva forma de victimización. Y si algún día se utiliza Grok para inundar Internet de CSAM falso, la historia reciente sugiere que el ruido podría entorpecer aún más el trabajo de las fuerzas de seguridad para encontrar casos reales.
Por ahora, la respuesta de X pasa más por amenazar a los usuarios que por reconfigurar a Grok. La empresa promete suspensiones, denuncias a NCMEC y colaboración con la policía, pero sigue sin explicar por qué su modelo pudo sexualizar a menores ni cómo piensa impedir que vuelva a ocurrir.



