Titular e introducción
Estados Unidos acaba de abrir un frente delicado en la guerra tecnológica con China: ya no se trata solo de chips o datos, sino de los propios comportamientos de los modelos de IA. Al describir como “a escala industrial” la destilación de modelos estadounidenses por parte de empresas chinas y sugerir que podría ser espionaje, Washington intenta redefinir qué es uso legítimo y qué es robo en la era de los grandes modelos. De esa definición depende quién podrá copiar a quién, a qué velocidad se acortan las distancias… y hasta qué punto Europa y el mundo hispanohablante tendrán margen de maniobra.
La noticia en breve
Según explica Ars Technica basándose en documentación obtenida por el Financial Times, la Oficina de Política Científica y Tecnológica de la Casa Blanca afirma disponer de información que apunta a campañas organizadas desde el extranjero –principalmente desde China– para “destilar” sistemas punteros de IA desarrollados en EEUU.
Compañías como OpenAI, Google y Anthropic ya habían denunciado patrones similares: actores con motivación comercial y, en algunos casos, vínculos con China habrían creado decenas de miles de cuentas falsas o intermediarias, lanzando millones de consultas a chatbots y utilizando técnicas de jailbreak para forzar respuestas fuera de los límites habituales. Esas respuestas servirían después para entrenar modelos más baratos que imitan a los originales.
Un comité de la Cámara de Representantes centrado en China recomienda tratar esta “extracción de modelos” como espionaje industrial. Pide que el Departamento de Comercio y el Departamento de Justicia estudien encajar estos ataques en leyes como el Economic Espionage Act y el Computer Fraud and Abuse Act, y que la llamada “destilación adversaria” se considere un tipo de transferencia tecnológica sujeta a control, con posibles sanciones y procesos penales.
China rechaza las acusaciones, las califica de difamación y asegura que respeta la propiedad intelectual y la competencia sana. Todo esto sucede a pocas semanas de una esperada reunión entre Donald Trump y Xi Jinping.
Por qué importa
En el fondo se discute algo muy concreto: si yo interactúo con un modelo vía API o a través de un chatbot público, ¿hasta dónde puedo usar sus salidas para entrenar mi propio modelo?
Desde la óptica de las grandes tecnológicas estadounidenses, la destilación adversaria es el peor escenario de “subirse al carro sin pagar el billete”. Ellas asumen los costes astronómicos de chips, electricidad, datos y expertos; un competidor puede, con automatización y muchas cuentas, exprimir sus modelos millones de veces y utilizar esas respuestas como datos etiquetados para replicar capacidades clave. Si eso se normaliza, la lógica económica de los modelos cerrados se tambalea.
Para empresas chinas con acceso limitado a hardware avanzado, la destilación es una palanca obvia: en lugar de entrenar desde cero un modelo gigante, se comprime el comportamiento de uno ya existente. Desde Washington se ve como una forma de esquivar los controles de exportación y acortar a la fuerza la distancia tecnológica.
Elevar este conflicto al terreno del “espionaje industrial” tiene varios efectos inmediatos:
- Escalada jurídica y diplomática – El problema deja de ser un simple incumplimiento de términos de servicio y entra en el ámbito penal y de control de exportaciones. Eso abre la puerta a sanciones, juicios y a usar el tema como moneda de cambio en negociaciones bilaterales.
- Definición de normas globales – Si EEUU establece que ciertos usos de la destilación son robo, otros países y organismos se verán presionados a posicionarse. De ahí saldrán las reglas informales de qué está permitido al “aprender” de modelos ajenos.
- Refuerzo de los gigantes – Una regulación mal calibrada puede dañar a la investigación abierta y a startups que usan destilación de forma legítima (compresión, adaptación a idiomas, seguridad), y al mismo tiempo blindar aún más a los grandes modelos propietarios.
Los perdedores potenciales no son solo empresas chinas: también pueden salir mal parados laboratorios independientes en Europa o América Latina, que dependen de APIs de EEUU pero buscan competir con modelos propios ajustados a sus idiomas y mercados.
El contexto más amplio
Este episodio se entrelaza con varias tendencias que llevamos años viendo:
De la guerra por los datos a la guerra por los modelos – Primero discutimos si era legal raspar la web para entrenar modelos, quién posee los derechos de autor y cómo proteger la privacidad. Ahora la batalla se centra en el activo resultante: el modelo y su comportamiento emergente. Los ataques de extracción están descritos en papers académicos desde hace tiempo; la novedad es el volumen, la clara intención comercial y el uso geopolítico del discurso.
La estrategia de los cuellos de botella – EEUU ha usado los chips como palanca frente a China. Después viene la nube. El siguiente paso lógico son las APIs de modelos punteros. Si se consideran “tecnología controlada”, todo el ecosistema de aplicaciones sobre esos modelos –incluidas muchas europeas y latinoamericanas– se vuelve indirectamente rehén de la política exterior estadounidense.
La fractura entre código abierto y cerrado – Los defensores del open source llevan tiempo acusando a los grandes laboratorios de exagerar los riesgos para justificar el secretismo. La destilación muestra un punto incómodo: sí, es posible copiar comportamientos de modelos cerrados hasta cierto grado; pero si la respuesta son leyes penales muy duras, el mensaje para cualquiera que quiera abrir sus modelos será: “te estás dejando copiar, y encima sin protección”. Resultado: más opacidad.
A diferencia de la clásica copia de diseños de chips o de código fuente, aquí no hay una “pieza” fácil de señalar. Se aprende de la conducta observable de un sistema que el propio proveedor expone voluntariamente. Esa ambigüedad hace que la analogía con el espionaje industrial sea discutible desde el punto de vista técnico, pero muy útil en términos políticos.
Para otros actores –UE, India, países latinoamericanos– el dilema será si alinearse con la narrativa de Washington, buscar una tercera vía o, en el peor de los casos, convertirse simplemente en consumidores pasivos de modelos definidos por otros.
El ángulo europeo e hispanohablante
Europa y el mundo hispanohablante no son meros espectadores. Startups en Barcelona, Madrid, Ciudad de México o Bogotá construyen productos sobre APIs de OpenAI, Google o Anthropic. Muchos experimentan ya con destilación para crear modelos locales en español, catalán o portugués que sean más baratos de desplegar en on‑premise o en nubes regionales.
Si EEUU termina clasificando ciertas formas de destilación como transferencia tecnológica controlada, cualquier proyecto que combine APIs estadounidenses y colaboración con socios chinos o de otros países podría entrar en zona de riesgo. Compliance dejaría de ser un tema exclusivo de las grandes multinacionales: también un SaaS de Málaga o una fintech de Santiago de Chile tendrían que preocuparse por ello.
La UE llega a este debate con varias piezas ya en marcha: Reglamento de IA, GDPR, Directiva de Secretos Empresariales, DSA. Ninguna menciona explícitamente la destilación, pero sí ofrecen marcos para perseguir accesos automatizados que violen contratos, o para proteger know‑how incorporado en un sistema. La cuestión es si Bruselas optará por copiar el enfoque de Washington o por definir un espacio propio para la interoperabilidad y la innovación.
En el ámbito hispano, hay además una dimensión de soberanía lingüística y cultural: muchos países dependen casi por completo de modelos entrenados y gobernados desde Silicon Valley. La destilación, bien utilizada, podría ser un camino para producir modelos adaptados al español latinoamericano, al contexto jurídico europeo o a realidades locales. Una prohibición mal diseñada podría cerrar también esa puerta.
Mirando hacia adelante
¿Qué cabe esperar en los próximos 12–24 meses?
Batalla por las definiciones – La clave estará en delimitar qué es “a escala industrial”. ¿Hablamos solo de campañas masivas y encubiertas con miles de cuentas y millones de peticiones, o también de prácticas hoy habituales en startups que entrenan un modelo pequeño a partir de otro más grande para ahorrar costes?
Contra‑medidas técnicas – Los grandes laboratorios ya endurecen sus defensas: límites de uso más agresivos, detección de patrones anómalos, bloqueos preventivos por país, técnicas de watermarking en respuestas, incluso “cebar” los modelos para que se comporten de forma distinta ante clientes sospechosos. Todo eso encarece tanto los ataques como el uso legítimo a gran escala.
Respuesta china y mayor fragmentación – Si llegan sanciones, Pekín no se quedará de brazos cruzados. Podría reforzar aún más las barreras para servicios de nube de EEUU, presionar a empresas europeas que operan en China y acelerar la sustitución de tecnología extranjera. El resultado probable: ecosistemas de IA cada vez más separados, con menos intercambio de modelos y benchmarks comunes.
Primeros casos judiciales – En cuanto algún laboratorio decida litigar en serio contra un supuesto extractor de modelos, jueces en EEUU o la UE tendrán que pronunciarse: ¿es “acceso no autorizado” automatizar consultas a un servicio público? ¿Es el comportamiento de un modelo un secreto empresarial protegible? Esas respuestas condicionarán tanto la inversión en modelos cerrados como la viabilidad de proyectos open source potentes.
Para las empresas y equipos técnicos en España y América Latina, el mensaje es claro: la estrategia de basarse exclusivamente en APIs de terceros y “ya veremos” con lo legal está llegando a su límite. Diseñar productos pensando en distintos escenarios regulatorios –incluida la posibilidad de construir y alojar modelos propios– se vuelve una cuestión estratégica.
Conclusión
Al presentar la destilación masiva de modelos como posible espionaje industrial, EEUU intenta frenar a China y blindar a sus campeones de IA. Pero corre el riesgo de endurecer tanto el marco que termine ahogando parte de la innovación y consolidando aún más el poder de unos pocos actores. Para Europa y el mundo hispanohablante, la oportunidad –y el reto– consiste en escribir sus propias reglas: proteger los secretos legítimos sin criminalizar la interoperabilidad ni cerrar el camino a modelos locales. La pregunta incómoda que queda en el aire es sencilla: ¿cuándo deja de ser aprendizaje y pasa a ser robo entrenar a tu IA con el cerebro de otro?



