El divorcio entre el Pentágono y Anthropic: la primera gran derrota del "AI ético" militar

18 de marzo de 2026
5 min de lectura
Ilustración abstracta de un centro de mando militar superpuesto con flujos de datos de IA

Titular e introducción

El Departamento de Defensa de EE. UU. ha decidido que prefiere reconstruir su pila de IA antes que aceptar cláusulas éticas impuestas por uno de los laboratorios de "IA segura" más visibles del mundo. Esa elección dice mucho sobre hacia dónde se encamina la inteligencia artificial militar.

La postura pública de Anthropic chocó de frente con la lógica del poder duro… y por ahora va perdiendo. En este análisis veremos qué significa el giro del Pentágono para Anthropic, para rivales como OpenAI y xAI y para Europa y América Latina. Y plantearemos una pregunta incómoda: ¿puede sobrevivir el "AI responsable" cuando entra en el circuito de los contratos de defensa?

La noticia en breve

Según informa TechCrunch, citando una conversación de Bloomberg con Cameron Stanley, responsable digital y de IA del Pentágono, el Departamento de Defensa estadounidense (DoD) está desarrollando varios grandes modelos de lenguaje (LLM) propios para ejecutarlos en entornos bajo control directo del gobierno. El trabajo de ingeniería ya ha comenzado y se espera que entren en uso operativo "muy pronto".

Este movimiento llega tras la ruptura en las últimas semanas de un contrato de unos 200 millones de dólares entre Anthropic y el DoD. De acuerdo con TechCrunch, las negociaciones fracasaron por el grado de acceso irrestricto que quería el Pentágono. Anthropic intentó incluir cláusulas que prohibieran utilizar sus modelos para vigilancia masiva de ciudadanos estadounidenses y para armas capaces de disparar sin intervención humana. El Pentágono no aceptó.

Mientras esa relación se deterioraba, OpenAI cerró su propio acuerdo con el DoD y el departamento firmó también con xAI, la empresa de Elon Musk, para usar Grok en sistemas clasificados. El secretario de Defensa, Pete Hegseth, ha llegado a declarar a Anthropic como "riesgo de la cadena de suministro", una etiqueta que normalmente se reserva para adversarios extranjeros y que impide que empresas que trabajan con el Pentágono colaboren también con Anthropic. La compañía ha recurrido la decisión ante los tribunales.

Por qué importa

No estamos ante un simple cambio de proveedor, sino ante un choque frontal entre ética corporativa y doctrina militar.

Ganadores inmediatos

OpenAI y xAI salen reforzadas. Se convierten en socias privilegiadas del mayor cliente de defensa del mundo justo cuando los modelos fundacionales empiezan a impregnar inteligencia, ciberseguridad y operaciones militares. Eso las coloca en una posición ventajosa para contratos futuros en todo el bloque occidental.

El propio Pentágono gana margen de maniobra. Al apostar por LLM internos, alojados en "entornos propiedad del gobierno", reduce su dependencia de un actor privado y evita tener que negociar líneas rojas en temas como vigilancia o armas autónomas. El mensaje es claro: los límites se definen dentro del Estado, no en la mesa de un proveedor.

Perdedores

Anthropic pierde dinero, acceso y reputación dentro del ecosistema de seguridad nacional. Pero la mayor víctima es la idea de que los grandes laboratorios de IA pueden marcar límites innegociables al uso militar y seguir sentados en la mesa.

La señal para el sector es contundente: si insiste en escribir en un contrato que su modelo no servirá para espiar a población propia ni para dejar que un arma dispare sola, el cliente se irá con otro, y quizá además le tache de "riesgo". Para startups e inversores, eso pesará en las discusiones sobre hasta dónde llevar el discurso de "IA segura".

A corto plazo, la consecuencia es más opacidad. Varios modelos cerrados, desarrollados dentro del aparato de defensa, con criterios de evaluación y despliegue que rara vez verán la luz pública. La sociedad civil, la academia e incluso los aliados tendrán menos visibilidad sobre dónde se están cruzando las líneas rojas.

El panorama más amplio

Este episodio encaja con tres tendencias que llevan tiempo gestándose.

1. De algoritmos a propósito a modelos generales militarizados.

La IA militar solía ser específica: reconocimiento de imágenes, optimización logística, guerra electrónica. Los LLM son otra cosa: sistemas generalistas que pueden apoyar desde análisis de inteligencia hasta operaciones de información. El deseo del Pentágono de tener acceso "sin restricciones" a un modelo de Anthropic va precisamente de eso: usar el mismo tipo de modelo flexible que usamos en el móvil, pero sin los frenos éticos.

2. Fin de la época del "no en mi empresa".

En 2018, el plantón de empleados de Google contra el proyecto Maven marcó una línea: el personal podía forzar a la dirección a alejarse de ciertos contratos militares. Hoy el péndulo se ha movido. OpenAI y xAI aceptan sin pudor acuerdos de defensa, y la compañía que intenta fijar más límites se ve expulsada del ecosistema. El peso relativo de activismo interno, comités de ética y exigencias de seguridad nacional ha cambiado.

3. Soberanía de IA para los aparatos de seguridad.

En todo el mundo, ministerios de defensa y agencias de inteligencia quieren dejar de depender de nubes comerciales para capacidades críticas. Se habla de nubes soberanas, centros de datos propios y modelos entrenados con información clasificada. Los LLM del Pentágono son una expresión clara de esa lógica.

Anthropic ha intentado diferenciarse por su enfoque en seguridad y en lo que llama "constitutional AI". Pero frente a un cliente militar, "seguridad" se traduce en ventaja operativa, no en derechos civiles. OpenAI y xAI parecen dispuestas a que sea el propio Estado quien defina el marco de uso, lejos del escrutinio público.

El riesgo de fondo es que el mercado que marque el ritmo de la frontera tecnológica no sea el civil, sino el militar. Si las versiones más avanzadas de los modelos se optimizan primero para escenarios de conflicto, esas prioridades acabarán filtrándose de vuelta al mundo comercial.

La mirada europea y latinoamericana

Para Europa y el mundo hispanohablante, hay lecciones distintas pero conectadas.

En la Unión Europea, el movimiento del Pentágono llega justo cuando se termina de consolidar la Ley de IA (AI Act). Esa norma deja el uso militar prácticamente fuera de su ámbito, pero el caso Anthropic alimentará el debate sobre si hacen falta reglas específicas para armas autónomas y vigilancia basada en IA. Los defensores de una línea dura dirán: "Este es el ejemplo de lo que pasa cuando no hay límites claros". Los halcones de la seguridad replicarán: "Y este es el coste de encorsetar a la industria".

En el terreno comercial, las decisiones de Washington afectarán a la OTAN y, por extensión, a muchos socios europeos y latinoamericanos. Si la infraestructura de IA del bloque occidental se construye sobre OpenAI, xAI y modelos internos del Pentágono, países como España, Portugal o socios latinoamericanos que participan en ejercicios conjuntos tendrán un incentivo fuerte a seguir esa misma pila tecnológica.

Al mismo tiempo, se abre una oportunidad para proveedores europeos: empresas como Aleph Alpha, Mistral AI o actores emergentes en España y América Latina pueden ofrecer alternativas más alineadas con el Reglamento General de Protección de Datos (RGPD) y otros marcos garantistas. Pero se enfrentarán al mismo dilema: ¿hasta dónde mantener principios éticos si eso implica perder contratos de defensa?

En América Latina, donde muchos países compran tecnología militar a EE. UU. y Europa, la discusión será más política que técnica. Gobiernos con fuerte discurso sobre derechos humanos tendrán difícil justificar la adopción de sistemas de IA militar opacos y sin salvaguardas claras, aunque vengan empaquetados como "necesarios" para la lucha contra el crimen organizado.

Lo que viene

Hay al menos tres frentes que conviene vigilar en los próximos 12–24 meses.

1. El pulso judicial de Anthropic.

El recurso contra la etiqueta de "riesgo de cadena de suministro" puede sentar precedente sobre hasta dónde puede llegar un gobierno al castigar a una empresa por negarse a ciertos usos militares. Si Anthropic gana, enviará una señal de que la objeción ética tiene cierto amparo. Si pierde, el mensaje será que o juegas con las reglas del complejo militar o te quedas fuera.

2. La calidad real de los LLM del Pentágono.

Desarrollar modelos competitivos exige talento, datos y dinero. El Pentágono solo tiene garantizado lo último. Habrá que ver si logra atraer y retener a investigadores punteros en un entorno muy burocrático y clasificado, o si termina externalizando a grandes contratistas tradicionales.

Aspectos a observar:

  • ¿Se acercan estos modelos al rendimiento de los mejores modelos comerciales?
  • ¿En qué medida se integran en sistemas de mando, inteligencia y ciberoperaciones?
  • ¿Existe algún tipo de auditoría externa, aunque sea parlamentaria y a puerta cerrada?

3. La reacción de aliados y del sector privado.

Si otros gobiernos occidentales siguen la línea del Pentágono, Anthropic quedará arrinconada en el mercado estrictamente civil y corporativo. Alternativamente, algún país europeo o asiático podría ver valor en asociarse precisamente con un proveedor que se resiste a ciertos usos, como gesto político y de confianza.

En el sector privado, las grandes empresas –incluidas las españolas y latinoamericanas con exposición global– tendrán que decidir si aceptan sin más la narrativa de "seguridad nacional" o si exigen transparencia mínima sobre cómo se integran esos modelos en contextos de defensa. No es solo una cuestión reputacional: también hay riesgos legales si tecnologías duales acaban implicadas en violaciones de derechos humanos.

En resumen

La ruptura entre el Pentágono y Anthropic y el giro hacia LLM propios y acuerdos con OpenAI y xAI marcan un punto de inflexión en la militarización de la IA generativa. Muestra que, cuando chocan los principios de "IA segura" con las prioridades de seguridad nacional, es la empresa –no el Estado– la que cede. El desenlace judicial del caso Anthropic influirá en cómo se fijan las líneas rojas en el sector. La pregunta para las democracias, en Europa y América Latina, es directa: ¿quién debe dibujar esas líneas, y con qué control ciudadano?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.