La apuesta de 40.000 millones de Google por Anthropic: cuando la carrera de la IA se decide en megavatios, no en demos

24 de abril de 2026
5 min de lectura
Pasillo de servidores en un centro de datos con logotipos de Google y Anthropic en pantallas

La apuesta de 40.000 millones de Google por Anthropic: cuando la carrera de la IA se decide en megavatios, no en demos

Durante años hemos hablado de la carrera por la IA en términos de algoritmos, papers y modelos espectaculares. El acuerdo por el que Google se compromete a inyectar hasta 40.000 millones de dólares en Anthropic – en efectivo y, sobre todo, en capacidad de cómputo – deja claro que la verdadera batalla se libra en otro sitio: en los centros de datos y en los contratos de energía. En este análisis veremos qué gana cada parte, cómo reconfigura el tablero frente a OpenAI y Microsoft y qué implica para empresas y desarrolladores en España y América Latina.

La noticia en breve

Según explica TechCrunch, Google planea proporcionar a Anthropic hasta 40.000 millones de dólares combinando inversión directa y acceso a su infraestructura en la nube.

Anthropic indica que recibirá 10.000 millones de dólares de inmediato, con una valoración de 350.000 millones. Otros 30.000 millones podrían llegar si cumple ciertos objetivos de rendimiento. El paquete está ligado estrechamente a Google Cloud: la empresa obtendrá unos 5 gigavatios adicionales de capacidad de cómputo durante los próximos cinco años, basada en los aceleradores de IA de Google (TPU).

Este acuerdo amplía uno anterior en el que Anthropic, Google y Broadcom ya habían reservado varios gigavatios de capacidad TPU a partir de 2027; un documento de Broadcom menciona 3,5 gigavatios concretos. Y se suma a la apuesta de Amazon: TechCrunch recuerda que Amazon acaba de añadir 5.000 millones de dólares a su inversión y que Anthropic podría gastar hasta 100.000 millones en torno a 5 gigavatios de cómputo sobre su nube a lo largo del tiempo.

Todo ello llega justo después del lanzamiento limitado de Mythos, el modelo más avanzado de Anthropic hasta la fecha, con fuertes aplicaciones en ciberseguridad y costes de operación muy elevados.

Por qué importa

Este movimiento consolida una tendencia que venimos viendo desde hace meses: en la frontera de la IA, el cuello de botella ya no es el talento ni el código, sino la infraestructura.

Anthropic es el vencedor más evidente a corto plazo. Asegura acceso a una cantidad masiva de cómputo en un momento en que las GPU y los aceleradores de gama alta están racionados a escala mundial. La valoración de 350.000 millones – y, según Bloomberg, citado por TechCrunch, el interés por cifras mucho mayores – refleja que el mercado empieza a tratar a los grandes laboratorios de IA como utilidades críticas, casi al nivel de operadoras o eléctricas, y no como startups al uso.

Google también sale muy reforzado. Amarra a Anthropic a Google Cloud y a sus TPUs, garantizándose un cliente ancla que justifica miles de millones en nuevas inversiones en chips, centros de datos y contratos de energía. Además, obtiene una ventana privilegiada a los métodos de entrenamiento y despliegue de uno de los rivales más serios de OpenAI, sin necesidad de comprar la compañía y exponerse a un choque frontal con los reguladores.

¿Quién pierde? Cualquier actor que no pueda jugar a esta escala. Para una startup de IA en Madrid, Ciudad de México o Bogotá, el listón competitivo se acaba de disparar: ya no basta con entrenar un buen modelo sobre GPUs alquiladas; ahora compite con laboratorios respaldados por paquetes de decenas de miles de millones y acuerdos de varios gigavatios. A medio plazo, incluso Nvidia podría notar el impacto si los grandes proveedores de nube desplazan cada vez más cargas a sus propios chips.

Para clientes y desarrolladores, el resultado será una combinación incómoda de ventajas y riesgos: modelos más potentes, quizá más baratos, pero una dependencia todavía mayor de un puñado de nubes estadounidenses.

El contexto más amplio

El pacto Google–Anthropic encaja con lo que ya está haciendo OpenAI. Como recuerda TechCrunch, OpenAI lleva meses tejiendo una red de acuerdos de escala gigantesca con proveedores de nube, fabricantes de chips y compañías energéticas. El objetivo es el mismo: blindar el acceso a cómputo y electricidad para entrenar y servir modelos cada vez más costosos.

Históricamente hemos visto esta película. En móviles, Apple y Google consolidaron su poder a través de la integración vertical: hardware, sistema operativo y tienda de apps bajo el mismo paraguas. En cloud, AWS, Azure y Google Cloud dominaron gracias a una década de inversiones en centros de datos y fibra que nadie pudo seguir. Con la IA generativa se repite el patrón, pero con más capital y a una velocidad mayor.

Cada gran actor está afinando su estrategia. Google apuesta por sus TPUs como columna vertebral de IA y nube. Amazon hace lo propio con Trainium e Inferentia, mientras garantiza a Anthropic grandes volúmenes en AWS. OpenAI, respaldada por Microsoft, se apoya en la pareja Azure–Nvidia, pero empieza a diversificar con otros fabricantes como Cerebras para no depender de un solo proveedor.

Meta, por su parte, intenta un camino distinto con Llama como modelo abierto, buscando efectos de red entre desarrolladores más que control absoluto de la infraestructura. El pacto Google–Anthropic representa casi el extremo opuesto: una pila propietaria, muy integrada, donde la ventaja competitiva principal es una combinación de capital, silicio y contratos energéticos.

A esto se suma una capa delicada: seguridad. Mythos se presenta como una herramienta muy capaz para ciberseguridad, pero TechCrunch ha señalado que ya existe una variante en manos no autorizadas. Cuanto más potentes y especializados sean estos modelos, más valor tendrán tanto para la defensa como para el ataque. Concentrar semejante capacidad en tres o cuatro compañías y nubes añade un riesgo sistémico: un fallo de seguridad o un abuso de poder en una sola de ellas puede tener efectos globales.

La perspectiva europea e hispanohablante

Para Europa, este acuerdo es una sacudida. Un solo cliente comercial contrata capacidad de cómputo de varios gigavatios: el orden de magnitud de varias centrales eléctricas. Los superordenadores europeos – LUMI en Finlandia, Leonardo en Italia, MareNostrum 5 en Barcelona – son impresionantes, pero su misión principal es la investigación, no servir millones de peticiones de modelos comerciales las 24 horas.

La UE, además, entra en una fase regulatoria mucho más exigente. La Ley de IA (EU AI Act) impone obligaciones específicas a los modelos fundacionales de gran impacto, categoría en la que encajarían Claude, Mythos o cualquier sucesor. Combinada con el RGPD, la Ley de Servicios Digitales y la Ley de Mercados Digitales, el resultado es un ecosistema regulatorio mucho más denso que el estadounidense.

Para empresas españolas, esto significa elegir cuidadosamente. Pueden usar modelos punteros de Anthropic a través de Google Cloud en regiones europeas y confiar en las herramientas de cumplimiento del propio Google. O pueden apostar por proveedores más cercanos – desde cloud europeos como OVHcloud o Deutsche Telekom hasta hyperscalers con fuerte presencia local – que quizá ofrezcan menos punta de lanza en IA, pero mayor control contractual y de localización de datos.

En América Latina la ecuación es similar, pero con matices. Países como Brasil, con su propia ley de protección de datos (LGPD), o México, con regulaciones sectoriales, empiezan a mirar con lupa dónde se procesan los datos y bajo qué jurisdicción. La infraestructura de Google y Amazon está mucho menos distribuida en la región que en Europa, lo que puede aumentar la latencia técnica… y la distancia regulatoria.

Para startups en Ciudad de México, Buenos Aires o Bogotá, este tipo de mega acuerdos refuerza su dependencia tecnológica de proveedores externos. Pero también abre una ventana: aprovechar esos modelos como commodity y centrarse en soluciones verticales adaptadas a la realidad latinoamericana – desde banca inclusiva hasta agricultura o logística.

Mirando hacia adelante

¿Qué cabe esperar en los próximos 12 a 24 meses?

Primero, la cuestión de la independencia de Anthropic. TechCrunch señala que la empresa valora una salida a bolsa tan pronto como octubre. Incluso si cotiza en mercado, su supervivencia estará íntimamente ligada a Google y Amazon, que controlan su oxígeno en forma de cómputo. No sería extraño ver a autoridades de competencia en Bruselas o Washington analizar con lupa este tipo de alianzas entre nubes e integradores de modelos.

Segundo, la competencia por precio y acceso. Anthropic ha sufrido críticas por los límites de uso de Claude. Con gigavatios adicionales comprometidos, tiene margen para relajar esas restricciones y lanzar tarifas agresivas. Eso podría desencadenar una guerra de precios en APIs de IA, donde los hyperscalers subsidian el coste real a cambio de atrapar desarrolladores en su ecosistema.

Tercero, el ángulo energético y climático. Contratos de varios gigavatios de cómputo no son inocuos: presionan las redes eléctricas, condicionan dónde se construyen centros de datos y chocan de lleno con los objetivos de descarbonización de la UE y de muchos países latinoamericanos. Veremos más demandas de transparencia sobre el consumo energético de los modelos y sobre el uso de renovables.

Cuarto, la gobernanza y seguridad de modelos como Mythos. Si una herramienta optimizada para ciberseguridad ya ha circulado fuera de los cauces oficiales, ¿qué ocurrirá con las siguientes generaciones? La Ley de IA exigirá evaluaciones, documentación y mitigación de riesgos. Hacer cumplir esas obligaciones a proveedores con sede en EE. UU., operando sobre nubes globales, será una prueba de fuego para los reguladores europeos y, por extensión, para los de otras regiones que se inspiren en ellos.

Para empresas hispanohablantes, la oportunidad está en decidir con calma su estrategia: qué partes de su negocio pueden vivir felices sobre infraestructuras de Google, Amazon o Microsoft, y dónde necesitan mayor soberanía tecnológica y de datos. El peor escenario no es usar estas nubes, sino hacerlo sin un plan de salida o de diversificación.

En resumen

La promesa de hasta 40.000 millones de dólares de Google a Anthropic confirma que la frontera de la IA ya no es solo una carrera de modelos, sino una guerra de infraestructura dominada por unos pocos gigantes estadounidenses. Anthropic consigue el combustible para seguir compitiendo; Google refuerza su control sobre la pila de IA gracias a TPUs y Google Cloud. Para Europa y el mundo hispanohablante, el mensaje es claro: o se invierte en capacidad propia y en ecosistemas abiertos, o se acepta que buena parte del futuro digital se construirá sobre hardware, contratos y regulaciones ajenos. ¿En qué lado de esa decisión quiere situarse su organización?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.