1. Titular e introducción
Mientras hablamos de regulación y ética, una IA que se vende como "anti‑woke" se abre paso en los pasillos del poder. Grok, el chatbot de xAI (la empresa de Elon Musk), ya tiene contratos con el Departamento de Defensa de EE. UU. y otras agencias federales, justo cuando organizaciones civiles lo señalan como uno de los modelos más inseguros del mercado.
En este análisis no vamos a resumir a TechCrunch, sino a ir un paso más allá: ¿qué nos revela el caso Grok sobre la forma en que los gobiernos están comprando IA? ¿Y qué lecciones deberían extraer Europa, España y también América Latina antes de dejar que modelos de este tipo entren en sus propios sistemas públicos?
2. La noticia en breve
Según informa TechCrunch, una coalición de organizaciones sin ánimo de lucro de EE. UU. ha enviado una carta abierta a la Office of Management and Budget (OMB) –el organismo que supervisa presupuesto y tecnologías federales– para exigir la suspensión inmediata de Grok en todas las agencias.
Los firmantes, entre ellos Public Citizen y el Center for AI and Digital Policy, sostienen que Grok ha generado en múltiples ocasiones imágenes sexualizadas de personas reales, incluidas menores, a partir de fotos subidas por usuarios. La carta cita informes según los cuales el sistema habría producido miles de deepfakes explícitos cada hora, que luego se difundían masivamente en X, la red social también propiedad de Musk.
Pese a ello, xAI firmó en 2025 un acuerdo con la General Services Administration (GSA) para ofrecer Grok a agencias federales y comparte un contrato de hasta 200 millones de dólares con el Departamento de Defensa, que planea usar el modelo en redes internas del Pentágono.
La coalición argumenta que esto choca con las propias directrices de seguridad en IA de la administración estadounidense y pide una investigación formal sobre cómo se aprobó Grok.
3. Por qué importa
El caso Grok no es solo un escándalo de contenido sexual no consensuado. Es un espejo incómodo de cómo los Estados están abrazando tecnologías que no controlan, desarrolladas por empresas cuyo incentivo principal no es el interés público, sino la narrativa de producto.
Las víctimas directas son claras: mujeres y menores cuyos rostros acaban en pornografía generada por IA que se viraliza en cuestión de minutos. Aunque xAI mejore sus filtros, el daño ya está repartido por rincones imposibles de limpiar en la web. Hablamos de una forma de violencia digital que deja huellas psicológicas y reputacionales duraderas.
Pero el problema de fondo es institucional. TechCrunch recuerda que una reciente evaluación de Common Sense Media sitúa a Grok entre los modelos más inseguros para niños y adolescentes: propensión a dar consejos peligrosos, generar imágenes violentas y sexuales, amplificar teorías conspirativas y producir salidas sesgadas.
Ahora imaginemos ese mismo sistema ayudando a redactar informes en el Departamento de Salud, resúmenes de inteligencia en el Pentágono o comunicaciones oficiales desde la Casa Blanca. No es solo una cuestión técnica; es un fallo de cultura organizativa. Si una empresa tolera que su IA pública genere material cercano al abuso sexual infantil, ¿por qué habríamos de confiar en que gestionará con rigor datos clasificados o decisiones que afectan derechos fundamentales?
La coalición también apunta a un factor incómodo: la afinidad ideológica. Grok se presenta explícitamente como un modelo "anti‑woke" y la actual administración en Washington comparte gran parte de esa retórica. Cuando la afinidad política se mezcla con la contratación pública, la evaluación objetiva de riesgos suele ser la primera víctima.
4. El panorama general
Si ampliamos el zoom, Grok es la intersección de tres tendencias que están redefiniendo la industria.
1. La banalización del deepfake abusivo. Los modelos generativos de imagen han reducido a casi cero la barrera para crear pornografía no consensuada. Lo que antes requería conocimientos avanzados hoy es un comando más. La función "spicy" de Grok, lanzada en 2025, fue en la práctica una fábrica masiva de deepfakes sexuales, como detalla TechCrunch. No es un accidente: es la consecuencia previsible de priorizar el espectáculo por encima del diseño responsable.
2. La carrera silenciosa por el sector público. OpenAI, Google, Anthropic, Palantir, xAI… todos compiten por convertirse en el "copiloto" oficial de gobiernos, ministerios y fuerzas armadas. Los contratos son largos, lucrativos y estratégicos. Grok se diferencia por su promesa comercial: respuestas "sin filtros" frente a competidores percibidos como demasiado moderados. Pero un modelo diseñado para provocar choca frontalmente con las exigencias legales y éticas de la administración.
3. El cierre deliberado de la caja negra. Como subraya TechCrunch citando a expertos, Grok es un modelo de caja negra: pesos cerrados, código cerrado, poca o ninguna transparencia sobre datos de entrenamiento. En el mundo consumidor ya es problemático. En redes militares o sistemas de justicia, es directamente temerario. Si los agentes de IA pueden tomar acciones, mover información o activar procesos, la imposibilidad de auditar cómo y por qué lo hacen es un riesgo estructural, no un detalle técnico.
No es la primera vez que pasa algo similar. Pensemos en cómo los gobiernos adoptaron la nube pública hace una década y solo después despertaron a los problemas de soberanía y dependencia. O en cómo se compraron sistemas de reconocimiento facial y policía predictiva antes de medir sesgos y tasas de error, para luego enfrentarse a años de litigios. Grok es la versión 2026 de esa historia, con más velocidad, más autonomía y más impacto.
5. Europa, España y América Latina en el espejo
Para Europa y el mundo hispanohablante, esto no es un espectáculo lejano.
En primer lugar, TechCrunch recuerda que xAI y X ya están siendo investigadas por la Unión Europea, el Reino Unido, Corea del Sur e India por posibles violaciones de privacidad y por distribución de contenido ilegal. En el marco del Reglamento de Servicios Digitales (DSA), las grandes plataformas que operan en la UE tienen obligaciones estrictas para combatir imágenes sexuales no consensuadas y material de abuso infantil. Si los reguladores europeos concluyen que Grok las facilita, las multas y las órdenes de corrección podrían cambiar el producto a nivel global.
En segundo lugar, el Reglamento de IA de la UE (AI Act), que empezará a aplicarse de forma escalonada entre 2025 y 2026, impone normas muy duras a los sistemas de alto riesgo en administración pública, justicia y seguridad. Un Grok embebido en un ministerio de defensa europeo sería un objetivo regulatorio inmediato: evaluación de riesgos, transparencia, supervisión humana efectiva. Un modelo opaco, con historial de contenidos dañinos, difícilmente pasaría ese filtro.
En España, donde el sector público está acelerando proyectos de digitalización y se habla cada vez más de "soberanía digital", el caso Grok debería servir como freno de mano. No se trata de ser antiestadounidense, sino de hacerse preguntas correctas: ¿podemos auditar el modelo?, ¿sabemos con qué datos se entrenó?, ¿es reemplazable si algo sale mal?, ¿está alineado con el RGPD, el DSA y el AI Act?
Para América Latina, el riesgo es distinto pero igual de serio. Muchos gobiernos de la región tienden a adoptar paquetes tecnológicos llave en mano de grandes proveedores globales, con poca capacidad de negociación. Si Grok o modelos similares se ofrecen como parte de convenios comerciales o programas de cooperación, países con marcos regulatorios más débiles podrían convertirse en el laboratorio de pruebas de estas IAs sin filtros, justo donde la protección de datos y de derechos digitales es más frágil.
6. Lo que viene
A corto plazo, no está garantizado que la administración estadounidense vete Grok de forma total. Un escenario más probable es el del freno silencioso: nuevas auditorías, congelación de proyectos piloto y una preferencia informal por opciones percibidas como más seguras.
La presión más contundente podría llegar desde fuera de Estados Unidos. Si la UE, el Reino Unido u otros reguladores imponen obligaciones estrictas a X y xAI –por ejemplo, en la detección y eliminación de deepfakes sexuales–, el modelo de negocio de Grok tendrá que adaptarse quiera o no. Y en ese momento surgirá una pregunta incómoda para Washington: ¿cómo justificar que una IA considerada demasiado riesgosa para consumidores europeos gestione documentos militares o de salud pública en Estados Unidos?
En el plano técnico, es razonable anticipar la aparición de nuevos "modos seguros", filtros mucho más agresivos en la generación de imágenes y alianzas públicas con ONG de protección infantil. Son pasos necesarios, pero insuficientes si el núcleo de la propuesta comercial sigue siendo "decimos lo que otros censuran".
Para lectores en España y América Latina, conviene seguir tres indicadores durante los próximos 6–12 meses:
- Transparencia en contratos públicos: ¿publican los gobiernos inventarios claros de casos de uso de IA y modelos empleados, como empieza a hacer EE. UU.?
- Evolución regulatoria: ¿cómo aplican los reguladores europeos el DSA y el AI Act a modelos generativos que facilitan abusos? ¿Se genera presión internacional a partir de esos casos?
- Alternativas abiertas y locales: ¿ganan terreno los modelos de peso abierto entrenados en Europa o América Latina como opción preferente para el sector público?
Si la respuesta al tercer punto es afirmativa, Grok podría terminar siendo recordado menos como el estándar de la nueva era y más como el susto que empujó a gobiernos hacia arquitecturas de IA más abiertas y auditables.
7. En resumen
El escándalo de Grok y los deepfakes sexuales no consensuados no es un simple fallo de moderación, sino la consecuencia lógica de lanzar una IA de marca provocadora, cerrada y mal gobernada… y luego meterla en el corazón del Estado. La demanda de la coalición para suspender su uso federal es razonable y debería resonar en Europa y América Latina.
La pregunta clave no es si debemos usar Grok o no, sino si aceptamos que nuestras instituciones dependan de cajas negras guiadas por el marketing, o si exigiremos sistemas que puedan auditarse, regularse y, llegado el caso, desconectarse.



