1. Titular e introducción
El choque entre Anthropic y el Departamento de Defensa de EE. UU. no es un simple rifirrafe contractual. Es la primera gran batalla abierta por el control de los modelos fundacionales: ¿quién decide los límites y valores de la IA general, los gobiernos o las empresas que la construyen?
Con el Pentágono dispuesto, según las informaciones, a utilizar una ley de época de la Guerra Fría para forzar a Anthropic a relajar sus restricciones de uso, estamos viendo cómo se dibuja un precedente que afectará tanto a Silicon Valley como a Europa y América Latina. En este artículo analizamos qué está en juego, quién puede ganar o perder y qué señales envía al resto del mundo hispanohablante.
2. La noticia en breve
Según TechCrunch, citando a Axios y Reuters, el Departamento de Defensa ha dado un ultimátum a Anthropic: antes del viernes por la noche, la compañía debe conceder al ejército acceso prácticamente sin restricciones a su modelo de IA o afrontar consecuencias severas.
Entre esas posibles medidas se mencionan dos opciones: declararla "riesgo para la cadena de suministro" –una etiqueta que normalmente se reserva para actores extranjeros hostiles– o recurrir a la Defense Production Act (DPA). Esta ley permite al presidente de EE. UU. ordenar a las empresas que prioricen o amplíen su producción para atender necesidades de defensa nacional. Durante la pandemia de COVID‑19 se utilizó para impulsar la fabricación de respiradores y mascarillas.
Anthropic lleva tiempo afirmando que no quiere que su tecnología se utilice para vigilancia masiva de ciudadanos estadounidenses ni para armas totalmente autónomas. Según Reuters, recogido por TechCrunch, la empresa no piensa relajar esas limitaciones. Desde el Pentágono se sostiene que el uso de estas tecnologías debe estar regulado por la ley y la Constitución de EE. UU., y no por las políticas internas de un proveedor. Anthropic sería actualmente el único laboratorio "frontera" con acceso a sistemas clasificados del Departamento de Defensa, lo que multiplica la presión.
3. Por qué importa
En la superficie, parece una disputa contractual. En el fondo, es una lucha por el poder normativo sobre la IA avanzada.
Anthropic, igual que otros laboratorios de "seguridad primero", ha construido su identidad alrededor de unas líneas rojas éticas: hay cosas que su modelo no hará, aunque pueda. Esa promesa es clave para atraer talento, clientes corporativos y reguladores relativamente favorables. Si la Casa Blanca puede deshacer esa promesa con una orden basada en la DPA, el mensaje para todo el ecosistema es claro: la ética de la IA es condicional y revocable.
A corto plazo, los beneficiados pueden ser los competidores más alineados con la agenda de defensa. TechCrunch recuerda que el Pentágono ya ha cerrado un acuerdo para usar Grok, el modelo de xAI, en sistemas clasificados. Si Anthropic mantiene su postura, es probable que el flujo de contratos y simpatías políticas gire hacia proveedores percibidos como más obedientes. El riesgo es que el criterio principal deje de ser la calidad técnica y pase a ser la docilidad política.
Pero el Departamento de Defensa tampoco sale fortalecido. El propio gobierno estadounidense había recomendado anteriormente evitar depender de un solo modelo de IA en entornos sensibles. Ignorar esa recomendación y luego reaccionar con amenazas legales cuando el proveedor no se pliega resulta poco serio. Es una forma de decir: no hemos hecho los deberes de diversificación, así que ahora toca presionar.
Para fundadores e inversores globales, la lección es incómoda: operar en la frontera de la IA en EE. UU. implica asumir que la política de seguridad nacional puede reescribir tu hoja de ruta de un día para otro. Eso aumentará el interés por estructuras multinodales (EE. UU., UE, Reino Unido, quizá también América Latina o Asia) que repartan el riesgo regulatorio.
4. El panorama general
Este caso se inscribe en una serie más amplia de choques entre grandes tecnológicas y el aparato de seguridad.
El paralelismo más evidente es Apple vs. FBI en 2016. Entonces, el gobierno pidió a Apple una versión debilitada de iOS para facilitar el acceso a un iPhone cifrado. Apple se negó alegando que, una vez creada la puerta trasera, era imposible controlarla y el daño a la confianza sería global. Ahora, sustituimos "cifrado" por "salvaguardas de uso" y la lógica es casi idéntica: diseñar un modelo especial, menos restringido, solo para un cliente estatal es una ficción; afectará al diseño y la gobernanza del sistema en su conjunto.
También hay que situar el conflicto en la creciente politización de la IA en EE. UU. Según recuerda TechCrunch, figuras de la actual administración han calificado las políticas de seguridad de Anthropic como excesivamente ideologizadas. Cuando los filtros de contenido y las prohibiciones de ciertos usos se traducen automáticamente como "woke" o "antipatrióticos", la discusión deja de ser técnica y pasa a ser parte de la guerra cultural estadounidense.
Desde fuera, el episodio subraya la posición incómoda de los estados democráticos: las herramientas estratégicamente más sensibles están en manos de empresas privadas cuya obligación legal es maximizar beneficios, no proteger el interés público. China ha optado por una integración mucho más estrecha entre Estado y proveedores. La UE se inclina por regular de antemano las categorías de riesgo con el Reglamento de IA. EE. UU. parece moverse entre la autorregulación, la presión política y, ahora, el uso explícito de instrumentos de emergencia.
Cuanto más recurra Washington a soluciones ad hoc –ya sea acuerdos a puerta cerrada o el uso del DPA–, más atractivo puede volverse, paradójicamente, el enfoque europeo para empresas que buscan previsibilidad, aunque implique más burocracia. Pero esa ventaja solo se materializará si Europa y, potencialmente, algunos países latinoamericanos desarrollan realmente sus propios modelos potentes.
5. La perspectiva europea e hispanohablante
Para Europa, este caso es otro toque de atención sobre la dependencia tecnológica de EE. UU. Las empresas y administraciones públicas europeas consumen modelos estadounidenses a través de la nube, asumiendo que los límites de uso se definen en términos de servicio relativamente neutrales. La disputa Anthropic–Pentágono muestra que, en realidad, esos límites están insertos en un contexto político muy específico.
La legislación europea –GDPR, Digital Services Act, Reglamento de IA, DMA– parte de la idea de transparencia, documentación y trazabilidad. Si un modelo recibe modificaciones especiales para usos militares estadounidenses, amparadas por el secreto, los reguladores europeos tendrán muchas dificultades para evaluar riesgos reales en sectores críticos como finanzas, salud o educación.
Para el mercado hispanohablante, hay dos ángulos más. En España, la discusión se conecta con el debate sobre "autonomía estratégica abierta": hasta qué punto conviene depender de infraestructuras digitales que pueden reconfigurarse desde Washington. En América Latina, donde muchos países ya han vivido los vaivenes de la geopolítica energética y financiera, es fácil ver paralelismos: sustituimos petróleo por modelos de IA y el patrón de dependencia es similar.
También hay oportunidad. Un ecosistema de modelos fundacionales entrenados y gobernados dentro de la UE –con participación de centros en Barcelona, Madrid o Lisboa– o en países latinoamericanos con fuerte base científica podría ofrecer una alternativa creíble, especialmente para sectores regulados que desconfían de injerencias de terceros estados.
6. Mirando hacia adelante
¿Qué podemos esperar a partir de ahora?
El escenario más plausible es un acuerdo intermedio. Anthropic podría aceptar despliegues militares muy acotados –por ejemplo, herramientas analíticas con fuerte supervisión humana– manteniendo intactas sus prohibiciones sobre armas autónomas y vigilancia masiva. A cambio, el Pentágono rebajaría el tono y aparcaría el uso formal de la DPA. Ambos lados venderían el resultado como una victoria narrativa propia.
Otro camino, mucho más conflictivo, sería que Anthropic impugnara judicialmente cualquier orden basada en la DPA. Eso obligaría a los tribunales estadounidenses a pronunciarse sobre los límites del poder ejecutivo cuando se trata de software de doble uso, algo que tarde o temprano iba a llegar.
Mientras tanto, el resto de la industria ya ha recibido el mensaje: la neutralidad absoluta no es una opción si trabajas en la vanguardia de la IA en EE. UU. Probablemente veremos:
- más estructuras corporativas repartidas entre distintas jurisdicciones,
- más inversión en modelos abiertos y desplegables localmente,
- mayor presión para que legisladores, tanto en EE. UU. como en la UE y América Latina, definan de forma clara qué pueden y qué no pueden hacer los gobiernos con tecnologías de este tipo.
Para Europa y el mundo hispanohablante, la gran incógnita es si este tipo de exigencias militares acabarán influyendo en los productos comerciales que ya usamos en banca, medios, administración o educación. Si la respuesta es sí, la discusión sobre soberanía digital dejará de ser un eslogan y se convertirá en una necesidad práctica.
7. Conclusión
El pulso entre Anthropic y el Pentágono no va solo de un contrato, sino de si permitimos que los laboratorios de IA definan límites éticos firmes y los mantengan frente a la presión estatal. Si EE. UU. normaliza el uso de la Defense Production Act contra sus propios proveedores de IA, la confianza global en su modelo de gobernanza tecnológica se resentirá, y la urgencia de construir capacidades propias en Europa y América Latina aumentará. La pregunta para los lectores es directa: ¿quién debería decidir, en última instancia, qué puede y qué no puede hacer tu IA: ingenieros, políticos o militares?



