1. Titular e introducción
Anthropic acaba de poner nombre a algo que muchos en la industria sospechaban: laboratorios chinos estarían usando sus modelos Claude como “profesores privados” a gran escala, entrenando sus propios sistemas con millones de consultas a través del API. No es un hackeo clásico, es destilación masiva.
Para el ecosistema hispanohablante —desde startups en Madrid hasta equipos de data en Ciudad de México o Bogotá— esto es clave. Dependemos de modelos de EEUU en la nube, y el modo en que se regule (o se corte) ese acceso va a definir quién puede competir en la próxima ola de productos de IA. Analicemos qué pasó, por qué Anthropic lo conecta con los chips y qué significa para Europa y América Latina.
2. La noticia en breve
Según informa TechCrunch, Anthropic acusa a tres empresas chinas —DeepSeek, Moonshot AI y MiniMax— de crear más de 24.000 cuentas falsas para acceder a su modelo Claude. A través de estas cuentas se habrían generado más de 16 millones de interacciones diseñadas para “destilar” capacidades: entrenar modelos propios con las respuestas de Claude.
Anthropic sostiene que los laboratorios se centraron en sus capacidades más diferenciadas: razonamiento avanzado, uso de herramientas, programación, análisis de datos, agentes que manejan el ordenador e incluso visión por computador. En un caso, la empresa afirma haber visto cómo casi la mitad del tráfico del laboratorio se redirigió al nuevo Claude justo después de su lanzamiento.
Estas acusaciones llegan mientras en Washington se discute la relajación de los controles a la exportación de chips de IA. TechCrunch señala que la administración de Donald Trump permitió recientemente a empresas como Nvidia vender aceleradores avanzados —como el H200— a China. Anthropic argumenta que la escala de la destilación atribuida a DeepSeek, Moonshot y MiniMax sólo es posible con ese tipo de hardware y utiliza el caso para defender restricciones más duras.
3. Por qué importa: el API ya es un campo de batalla
Lo que Anthropic llama un “ataque de destilación” pone el foco en una pregunta incómoda: cuando pagas por usar un API, ¿tienes derecho a entrenar tu propio modelo con esas salidas? Legalmente no está claro. Comercialmente, es dinamita.
Para los laboratorios chinos, el incentivo es evidente. En lugar de gastar años y cientos de millones en descubrir cómo lograr buen razonamiento, buen alineamiento y buenas herramientas, conviertes a Claude en tu profesor: lanzas millones de prompts estructurados, capturas las respuestas y destilas esos comportamientos en tu red neuronal. Si además eliminas por el camino las restricciones de seguridad, tu modelo queda más “útil” para usos grises o directamente maliciosos.
Los perdedores inmediatos son los laboratorios punteros de EEUU, cuya ventaja competitiva se basaba en dos ideas: que sus modelos son difíciles de copiar y que sus salvaguardas limitan el abuso. La destilación socava ambas. Y manda un mensaje peligroso al resto del sector: si eres demasiado abierto con tus capacidades, otros te copiarán sin compartir tus costes ni tu responsabilidad.
Para el mercado en general, el riesgo es que esta dinámica empuje a los grandes actores hacia el secretismo extremo: menos publicaciones técnicas, menos APIs abiertas, más puertas cerradas. Eso perjudica a la comunidad open source, a la academia y, paradójicamente, también a la seguridad, porque limita la supervisión independiente.
4. El contexto amplio: de raspar datos a extraer capacidades
La historia encaja en una línea de tiempo más larga. Ya vimos algo parecido cuando redes como LinkedIn demandaron a scrapers que recolectaban perfiles públicos para entrenar modelos de reclutamiento. Los buscadores llevan años “destilando” el comportamiento de los usuarios para mejorar su ranking. Y en el mundo open source no es raro entrenar sobre respuestas de modelos propietarios.
La diferencia ahora es el nivel de poder. Destilar un modelo que resume noticias es una cosa. Destilar un modelo que puede ayudar —si se le quitan frenos— a diseñar malware, optimizar ciberataques o acelerar investigación biológica es otra muy distinta.
Este episodio se cruza con tres tendencias claras:
- El acceso como arma geopolítica. OpenAI, Google y ahora Anthropic dejan de ser meros proveedores de nube y se convierten en guardianes de capacidades estratégicas. Quién puede usar qué modelo, desde qué país y con qué límites ya no es sólo una decisión de producto; es política exterior.
- La competición modelo contra modelo. DeepSeek ya hizo ruido con su modelo R1 de razonamiento, casi al nivel de laboratorios de EEUU pero a una fracción del coste. TechCrunch señala que se espera que DeepSeek V4 supere a Claude y ChatGPT en programación. Con esa presión, era cuestión de tiempo que algún actor estadounidense dijera “basta”.
- La seguridad como discurso de poder. Anthropic subraya que los modelos destilados probablemente pierdan sus salvaguardas y puedan ser usados por gobiernos autoritarios para vigilancia masiva, ciberataques u operaciones de desinformación. Es una preocupación real, pero también un argumento perfecto para alinear seguridad tecnológica con intereses industriales y militares de EEUU.
En resumen: la batalla ya no es sólo por quién entrena el mejor modelo, sino por quién controla los flujos de capacidades entre modelos y países.
5. El ángulo europeo y latinoamericano: reguladores sin motores propios
Para Europa, la acusación de Anthropic llega en un momento delicado. Con el Reglamento de IA (EU AI Act), el GDPR y la Ley de Servicios Digitales, la UE está construyendo el marco regulatorio más estricto del mundo, pero sigue dependiendo de modelos entrenados y alojados en EEUU. Eso incluye a empresas españolas, francesas, alemanas… y a instituciones públicas.
Si Anthropic y otros empiezan a endurecer drásticamente la verificación de clientes, a bloquear patrones de uso que “parezcan” destilación y a segmentar el acceso por región geopolítica, el usuario europeo puede verse atrapado entre dos fuegos: controles de acceso cada vez más duros desde EEUU y reglas de cumplimiento cada vez más complejas desde Bruselas.
En paralelo, el caso abre una ventana de oportunidad para actores europeos como Mistral AI, Aleph Alpha o las nubes regionales (OVHcloud, Deutsche Telekom, Telefónica Tech): ofrecer modelos “soberanos”, entrenados y gobernados bajo reglas europeas. Lo mismo vale para América Latina, donde hay talento, datos y casos de uso propios, pero poca infraestructura de frontera.
Para el mundo hispanohablante, la cuestión estratégica es parecida: ¿seguimos construyendo productos sobre APIs de terceros extrarregionales —con riesgo de que nos corten el grifo por decisiones políticas— o apostamos por ecosistemas locales, aunque hoy sean menos potentes? Ni Europa ni LATAM quieren repetir el patrón de la web 2.0: ser usuarios y reguladores, pero no dueños de las plataformas.
6. Mirando hacia adelante: fragmentación y multiproveedor por necesidad
¿Qué cabe esperar a corto y medio plazo?
En lo técnico, veremos:
- más límites agresivos de uso y revisión manual de clientes “sospechosos”,
- modelos de detección de patrones de destilación (barridos sistemáticos de capacidades, prompts muy estructurados, cargas masivas),
- condiciones de servicio que definan explícitamente la “extracción de modelo” como violación contractual.
En lo político, el caso se utilizará en EEUU para reforzar la narrativa de que exportar chips avanzados a China acelera el progreso de sus modelos a costa de la ventaja estadounidense. Eso empuja hacia controles más finos: quizás no un veto total, pero sí una segmentación por empresas, sectores y niveles de computación permitidos.
China, por su parte, tiene un incentivo adicional para construir un stack propio completo —chips, modelos, nubes— y reducir su dependencia de cualquier API occidental, tanto para evitar futuros cortes como para seguir destilando sin estar sometida a jurisdicciones ajenas.
En el mercado, las empresas usuarias tendrán que cambiar de mentalidad. Apoyarse en un único proveedor de modelo deja de ser prudente. Veremos estrategias multi‑modelo y multi‑cloud por resiliencia, y un renovado interés por modelos que puedan ejecutarse on‑premise o en nubes regionales, incluso si su rendimiento es algo inferior.
Para startups en España, México, Argentina, Chile o Colombia esto se traduce en decisiones muy concretas: ¿qué parte de tu producto depende de un modelo al que no tienes control granular de acceso? ¿Qué haces si mañana ese modelo se encarece un 5x o se restringe en tu país? ¿Tienes un plan B técnico y jurídico?
7. En resumen
La denuncia de Anthropic convierte la destilación de modelos en un caso político, no sólo técnico. Replantea el API como un recurso estratégico que puede ser racionado, vigilado y usado como palanca geopolítica.
Si el acceso a los mejores modelos se fragmenta por bloques, Europa y América Latina tendrán que decidir si aceptan ser eternos inquilinos en plataformas ajenas o si invierten —de verdad— en capacidades propias, aunque al principio sean más modestas. La década de la IA no será sólo la de los modelos grandes, sino la de las dependencias grandes.



