Anthropic frente al Pentágono: cuando la ética de la IA choca con el poder militar

23 de febrero de 2026
5 min de lectura
Ilustración de un centro de mando militar con una interfaz de chat de IA superpuesta

Introducción: el choque que la industria quería retrasar

El enfrentamiento entre Anthropic y el Departamento de Defensa de EE. UU. es justo el tipo de conflicto que el mundo de la IA prefería mantener en el terreno de la teoría: un laboratorio que se vende como prudente, un contrato de 200 millones de dólares y exigencias relacionadas con vigilancia masiva y armas que disparan sin intervención humana. Ya no hablamos de ciencia ficción, sino de decisiones empresariales y políticas muy concretas. En este artículo analizamos qué está pasando, por qué desborda a una sola empresa y qué significa para Europa y para los mercados hispanohablantes.

La noticia, en breve

Según informa TechCrunch, citando a Axios, el secretario de Defensa de EE. UU., Pete Hegseth, ha convocado al CEO de Anthropic, Dario Amodei, a una reunión en el Pentágono. El motivo son las tensiones crecientes sobre cómo puede utilizar el Ejército estadounidense los modelos de IA Claude.

De acuerdo con TechCrunch, el Pentágono amenaza con declarar a Anthropic como un «riesgo de la cadena de suministro», una etiqueta que normalmente se reserva para empresas de países considerados adversarios estratégicos. El origen del conflicto está en que Anthropic se niega a permitir dos tipos de uso: vigilancia masiva de ciudadanos estadounidenses y desarrollo de sistemas de armas que puedan abrir fuego sin que una persona tome la decisión final.

Anthropic firmó el verano pasado un contrato de unos 200 millones de dólares con el Departamento de Defensa. Claude habría sido utilizado ya en una operación de fuerzas especiales el 3 de enero, que terminó con la captura del presidente venezolano Nicolás Maduro. Una fuente citada por Axios describe la reunión como un ultimátum: o aceptan las condiciones, o quedan fuera del ecosistema de defensa.

Por qué importa

Este episodio concentra tres debates clave: quién controla la militarización de la IA, cuánto valen de verdad las promesas de «IA responsable» y hasta dónde están dispuestos los gobiernos a presionar a sus proveedores tecnológicos.

Para Anthropic, el dilema es existencial en ambos sentidos. Si cede, asegura ingresos y relevancia estratégica dentro del complejo militar‑industrial estadounidense, pero a costa de dinamitar la narrativa sobre la que ha construido su reputación: ser más prudente que el resto. Eso puede provocar fuga de talento, desconfianza de reguladores y rechazo entre clientes que eligieron Claude precisamente por esas garantías éticas. Si se niega, arriesga un contrato millonario y la posibilidad de ser vetada en otros proyectos estatales.

Para el Pentágono, la cuestión es de control y precedentes. Si un proveedor importante se sale con la suya al decir «hasta aquí», otros podrían sentirse legitimados para hacer lo mismo. Desde la lógica militar, depender de la conciencia de unos pocos directivos privados para desarrollar o no ciertas capacidades críticas es inaceptable. La amenaza de etiquetar a Anthropic como riesgo para la cadena de suministro es una señal al resto del mercado: quien ponga condiciones demasiado estrictas puede ser tratado casi como un actor hostil.

El impacto se extiende a toda la industria. Startups y laboratorios en EE. UU., Europa y América Latina observan de cerca si las líneas rojas sobreviven al primer choque serio con el poder del Estado. Los inversores recalculan si vale la pena apoyar empresas que renuncian explícitamente a segmentos enteros del mercado de defensa. Y las ONG y académicos tienen, por fin, un caso real para medir hasta dónde llega la coherencia entre el discurso de «IA segura» y la práctica bajo presión política.

El contexto más amplio

Nada de esto ocurre en el vacío. Llevamos años viendo fricciones entre grandes tecnológicas y gobiernos en torno al uso militar de la tecnología.

En su día, empleados de Google protestaron contra proyectos de análisis de imágenes para el Pentágono; Microsoft vivió polémicas similares con contratos en la nube. Pero la mayoría de esos conflictos se centraban en infraestructuras o herramientas relativamente acotadas. Un modelo fundacional como Claude es otra cosa: una pieza de propósito general que puede integrarse en prácticamente todas las fases de la cadena militar, desde la inteligencia hasta la logística.

La amenaza de declararlo «riesgo de la cadena de suministro» recuerda a lo ocurrido con Huawei en 5G o con aplicaciones como TikTok: tecnologías convertidas en asuntos de seguridad nacional. La diferencia es que Anthropic no es una empresa china ni rusa, sino un actor doméstico que, según las informaciones, se resiste a proporcionar determinados tipos de capacidades. El problema ya no es el origen geopolítico, sino la autonomía de decisión del proveedor.

Mientras tanto, los competidores siguen estrategias diversas. OpenAI mantiene restricciones formales sobre usos militares, pero su alianza con Microsoft la acerca de facto a gobiernos y grandes contratistas. La comunidad de modelos abiertos tiende a afirmar que es imposible controlar qué hace cada usuario final. Y una nueva ola de startups de defensa, tanto en Silicon Valley como en Europa e Israel, promete precisamente lo que Anthropic estaría cuestionando: ejércitos «AI‑first» en los que la autonomía no sea excepción, sino norma.

En este paisaje, el caso Anthropic puede marcar el tono de toda una década. Si la lección que extrae la industria es que desafiar abiertamente a un ministerio de defensa sale caro, veremos menos compromisos éticos explícitos y más vaguedades en los términos de uso. Si, en cambio, Anthropic sobrevive y conserva su postura, demostrará que existe espacio para proveedores que digan «no» a ciertos contratos sin suicidarse comercialmente.

La mirada europea e iberoamericana

Para Europa, esta historia toca una fibra muy reconocible. Tras años de dependencia tecnológica de EE. UU., la Unión Europea ha respondido con normas como el RGPD, la Ley de Servicios Digitales, la Ley de Mercados Digitales y ahora la próxima Ley de IA. Aunque la regulación europea excluye en gran parte los usos militares, su mensaje político es claro: fuerte rechazo a la vigilancia biométrica masiva y a los sistemas de alto riesgo sin controles estrictos.

En países como España, Alemania o Francia, y también en muchos de América Latina, la opinión pública es muy sensible a la idea de armas autónomas y de vigilancia estatal intrusiva, en parte por historias propias de dictaduras y abusos de poder. Eso hace más difícil, al menos a nivel democrático, justificar el tipo de capacidades que el Pentágono estaría reclamando.

Al mismo tiempo, muchos Estados europeos dependen de la tecnología y el paraguas de seguridad de Washington. Y en América Latina, varios gobiernos combinan retórica soberanista con una dependencia real de proveedores estadounidenses en nube, ciberseguridad y ahora IA. Si EE. UU. empieza a condicionar fuertemente a sus laboratorios de IA, las ondas llegarán a Madrid, Ciudad de México, Bogotá y Buenos Aires.

Para el ecosistema hispanohablante hay también un ángulo de oportunidad. Europa cuenta con empresas de defensa con ambición en IA (como Helsing) y en España y América Latina emergen startups de ciberseguridad e inteligencia que podrían posicionarse con un mensaje claro: tecnología avanzada, pero con límites alineados con el marco europeo y los estándares de derechos humanos. Si los gigantes estadounidenses relajan sus principios para contentar a sus gobiernos, otros actores pueden diferenciarse precisamente por mantenerlos.

Lo que viene ahora

En el corto plazo, lo más probable es un acuerdo a medio camino. Anthropic intentará conservar sus líneas rojas –no a la vigilancia masiva interna, no a las armas totalmentes autónomas–, pero abrirá la mano en usos militares menos polémicos: análisis de información, simulaciones, apoyo a la toma de decisiones, ciberdefensa. El Pentágono, por su parte, puede retirar discretamente la amenaza de la etiqueta de «riesgo» y vender el resultado como una victoria regulatoria.

Un desenlace más duro, aunque menos probable, sería que Anthropic rompiera la baraja y renunciara al contrato antes que flexibilizar su postura. Eso la convertiría en un símbolo para quienes defienden límites estrictos a la IA militar, y podría atraer talento y clientes alineados con esa visión, también en Europa y América Latina. Pero dejaría libre un espacio que otros llenarán, quizá con menos escrúpulos.

El peor escenario para la reputación de la industria sería que el Pentágono cumpla su amenaza y marque a Anthropic como riesgo para la cadena de suministro. El efecto disuasorio sería enorme: ningún gran contratista querría arriesgarse a construir sistemas críticos sobre una plataforma señalada como problemática por Washington. El mensaje para los demás laboratorios sería cristalino: las líneas rojas están bien… siempre que no molesten demasiado.

En los próximos meses conviene observar tres cosas: si Anthropic modifica públicamente sus políticas de uso; si otros laboratorios de referencia endurecen o suavizan sus propias restricciones militares; y si la UE o gobiernos latinoamericanos aprovechan el caso para reforzar su narrativa de «IA confiable» frente al modelo estadounidense más pragmático.

En resumen

El pulso entre Anthropic y el Pentágono es el primer gran examen real de hasta dónde llega la ética de la IA cuando se cruza con el poder militar. De su desenlace dependerá no solo el futuro de Claude en el ámbito de defensa, sino también el mensaje que recibe toda la industria sobre el coste de decir «no». Si las líneas rojas se borran en cuanto llega suficiente presión, habrá que dejar de llamarlas líneas rojas. La pregunta para usted es sencilla: ¿quién debería decidir qué usos de la IA están fuera de juego para siempre?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.