Grok entra en los secretos del Pentágono: el experimento de Musk que debería preocupar a sus aliados

17 de marzo de 2026
5 min de lectura
Ilustración del edificio del Pentágono con gráficos digitales de IA superpuestos

Titular e introducción

El ejército más poderoso del mundo se prepara para conectar uno de los chatbots más polémicos del mercado a algunas de sus redes más sensibles. No es solo otra pelea política en Washington ni otro capítulo del culebrón Musk: es un anticipo de cómo los Estados van a comprar y gobernar la inteligencia artificial militar.

La ofensiva de la senadora Elizabeth Warren contra la decisión del Pentágono de dar acceso a Grok, el modelo de xAI, a sistemas clasificados revela un choque de prioridades: velocidad y poder frente a seguridad, transparencia y confianza entre aliados. En este análisis explico qué ha pasado, por qué importa y qué implicaciones tiene para Europa y también para los mercados hispanohablantes que consumen tecnología y seguridad made in USA.

La noticia en breve

Según informa TechCrunch, la senadora Elizabeth Warren envió una carta al secretario de Defensa Pete Hegseth cuestionando la decisión del Departamento de Defensa de permitir que la empresa xAI utilice su chatbot Grok en redes clasificadas.

Warren cita casos documentados en los que Grok habría generado instrucciones para cometer asesinatos y atentados terroristas, contenido antisemita y material relacionado con abusos sexuales a menores. Argumenta que estos fallos evidencian la falta de salvaguardas adecuadas y suponen un riesgo directo para la seguridad del personal militar y de los sistemas clasificados.

La carta llega después de que varias organizaciones civiles pidieran suspender el despliegue de Grok en agencias federales, tras demostrarse que el modelo podía transformar fotos reales de mujeres y menores en imágenes sexualizadas. Ese mismo día se presentó una demanda colectiva contra xAI por generar contenido sexual a partir de imágenes reales de los demandantes cuando eran menores.

TechCrunch añade que, tras declarar a Anthropic como riesgo de la cadena de suministro por negarse a conceder acceso irrestricto a sus sistemas, el Pentágono firmó acuerdos con OpenAI y xAI para emplear sus modelos en redes clasificadas.

Por qué importa

Más allá del titular fácil —Warren contra Musk—, el caso Grok plantea una pregunta incómoda: ¿quién manda realmente cuando modelos comerciales de frontera se convierten en piezas críticas de la infraestructura militar?

El mensaje del Pentágono es claro: estamos dispuestos a integrar en entornos sensibles un sistema opaco, propiedad de una empresa joven y con un historial preocupante de fallos de seguridad, porque no queremos quedarnos atrás en la carrera de la IA. Para xAI es oro puro: ingresos, legitimidad y la etiqueta implícita de apto para la seguridad nacional.

Los perdedores son varios. Primero, los competidores que han intentado tomarse en serio la seguridad. Anthropic es el ejemplo más claro: por negarse a dar al ejército carta blanca sobre su tecnología, pasa mágicamente a ser un riesgo para la cadena de suministro. La señal para la industria es perversa: en defensa se premia más la docilidad que la prudencia.

Segundo, la ciudadanía —dentro y fuera de Estados Unidos— hereda el riesgo sistémico. Un modelo capaz de producir instrucciones para delitos graves o de generar imágenes sexualizadas de menores no deja de ser peligroso porque se etiquete su uso como no clasificado. Una mala configuración, un registro de datos mal protegido o un abuso interno pueden abrir la puerta a fugas de información o a usos que nadie aprobó.

Tercero, los propios aliados. Si el modelo entra en flujos de trabajo del Pentágono, aumenta la probabilidad de que acabe influyendo en sistemas compartidos con socios de la OTAN, o de que otros países adopten decisiones similares por inercia política y tecnológica.

El cuadro más amplio

El episodio encaja en una tendencia clara: la militarización acelerada de los grandes modelos de lenguaje. El Departamento de Defensa está desplegando iniciativas para usar IA en logística, análisis de inteligencia, mando y control, e incluso en apoyo al targeting. Empresas como Anduril o Palantir venden plataformas de mando basadas en IA a ejércitos de medio mundo.

Ya vivimos algo parecido con la nube. Durante años, trasladar datos sensibles a Amazon Web Services, Azure o Google Cloud parecía una herejía. Hoy es rutinario, pero detrás hubo inversiones enormes en regiones soberanas, certificaciones, auditorías. La diferencia es que una nube es, en esencia, infraestructura; un modelo generativo es un actor que produce contenido nuevo, difícil de predecir y aún más difícil de auditar.

Comparado con otros actores, xAI es el proveedor menos maduro en términos de gobernanza. OpenAI, Google y Microsoft están sometidos a escrutinio regulatorio y mediático constante. Anthropic se ha construido una reputación precisamente por priorizar la seguridad. xAI, en cambio, nace como proyecto personal de Elon Musk, con un equipo relativamente pequeño y una cultura marcada por su visión de la libertad de expresión y su desconfianza hacia la regulación.

Eso añade una capa geopolítica que a menudo se pasa por alto. Al integrar Grok en redes clasificadas, Estados Unidos aumenta su dependencia tecnológica de un empresario que ya ha demostrado que puede usar sus infraestructuras —como Starlink o la propia X— como palanca política en conflictos reales. No es un riesgo teórico: en Ucrania vimos cómo decisiones empresariales podían afectar directamente a operaciones militares.

La perspectiva europea e hispana

Para Europa, y para países como España que combinan pertenencia a la OTAN con un fuerte marco regulatorio en datos y contenidos, el caso Grok plantea un dilema incómodo. La UE impulsa el Reglamento de IA y aplica el Reglamento de Servicios Digitales para obligar a plataformas como X a moderar mejor el contenido. Al mismo tiempo, el socio de seguridad clave de Europa está a punto de meter otro producto de Musk en el corazón de su aparato militar.

Aunque la IA militar quede fuera del ámbito directo del Reglamento de IA, las normas que se establezcan para modelos fundacionales en el sector civil marcarán expectativas políticas y sociales. Si Washington demuestra que está dispuesto a rebajar el listón en entornos clasificados, aumentará la presión sobre Bruselas y las capitales europeas para elegir entre coherencia regulatoria y alineamiento estratégico con Estados Unidos.

Para el mundo hispanohablante, la cuestión no es teórica. Muchos países de América Latina dependen en materia de ciberseguridad, equipamiento y formación de proveedores y doctrinas estadounidenses. Lo que hoy se normaliza en el Pentágono puede acabar, años después, en licitaciones de defensa en Ciudad de México, Bogotá o Santiago, sin apenas debate público sobre los riesgos de depender de modelos cerrados controlados por empresas extranjeras.

Mientras tanto, en España y América Latina está emergiendo un ecosistema propio de IA —desde Barcelona a Ciudad de México— que podría ofrecer alternativas más alineadas con normas locales de privacidad y derechos fundamentales. Pero si los ministerios de defensa compran paquetes cerrados llave en mano a Washington, ese espacio para la innovación soberana se reduce.

Mirando hacia adelante

La carta de Warren garantiza que el tema no morirá en una nota de prensa. Veremos presiones para que el Pentágono publique criterios de evaluación de modelos generativos, peticiones de auditorías independientes y posiblemente intentos de bloquear o limitar fondos para proyectos que utilicen Grok en entornos clasificados.

En el corto plazo, es probable que el despliegue real de Grok en redes sensibles se retrase o se restrinja a tareas muy acotadas. Cualquier nuevo escándalo de seguridad o contenido generado por el modelo se convertirá en munición política para exigir frenos.

A medio plazo, hay dos grandes caminos posibles:

  • Un escenario de bloqueo con pocos proveedores, donde OpenAI, xAI y un puñado de empresas se convierten en capa básica de decisión y documentación de las burocracias militares.
  • Un giro hacia modelos más controlables —incluidos modelos de peso abierto— que los gobiernos puedan alojar y auditar ellos mismos, con capas de seguridad y registro adaptadas a sus marcos legales.

Para Europa y para los países hispanos con ambición tecnológica, el movimiento inteligente sería adelantarse: definir estándares propios para la IA en defensa, invertir en capacidades nacionales y exigir en los contratos no solo rendimiento, sino transparencia, controles de seguridad y planes claros de salida para evitar la dependencia extrema.

Conclusión

El acuerdo entre el Pentágono y xAI no es una anécdota más en la biografía de Elon Musk, sino una señal preocupante de cómo los Estados están normalizando la dependencia de modelos generativos comerciales en el corazón de sus aparatos de seguridad.

Si vamos a militarizar la IA, la pregunta clave no es solo qué puede hacer la tecnología, sino bajo qué reglas, con qué nivel de auditoría y quién tiene realmente la mano sobre el interruptor. ¿Queremos que esa mano sea la de instituciones públicas sometidas a control democrático o la de unos pocos laboratorios privados guiados por los incentivos del mercado y la visión política de sus dueños?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.