El pacto Google–Thinking Machines confirma que el verdadero poder de la IA está en el cómputo, no en los modelos

22 de abril de 2026
5 min de lectura
Ilustración de un centro de datos de Google Cloud conectado con un laboratorio de IA

El nuevo acuerdo multimillonario entre Google Cloud y Thinking Machines Lab puede parecer un titular más sobre GPUs, pero es algo más profundo: es otra pieza en la concentración mundial de la potencia de cálculo que alimenta la inteligencia artificial. Para los ecosistemas hispanohablantes, desde Madrid y Barcelona hasta Ciudad de México, Bogotá o Buenos Aires, el mensaje es claro: quien controle el cómputo dicta las reglas del juego.

A partir de la exclusiva de TechCrunch, analizaremos qué busca Google, por qué Thinking Machines es un socio tan codiciado y qué implica todo esto para los mercados europeos y latinoamericanos que dependen de nubes ajenas.

La noticia en breve

Según informó TechCrunch, Thinking Machines Lab, la startup fundada en 2025 por la ex directora de tecnología de OpenAI, Mira Murati, ha firmado un nuevo acuerdo de varios miles de millones de dólares con Google Cloud. Una fuente citada por TechCrunch sitúa el valor en la franja baja de las decenas de miles de millones, es decir, en miles de millones de un solo dígito.

El contrato da acceso a la infraestructura de IA de Google Cloud basada en las GPUs GB300 más recientes de Nvidia, que según Google duplican la velocidad de entrenamiento e inferencia frente a la generación anterior. Además del hardware, el paquete incluye servicios como almacenamiento, Kubernetes Engine y la base de datos Spanner, con una configuración específica para cargas de trabajo de aprendizaje por refuerzo.

Thinking Machines ya había firmado previamente un acuerdo con Nvidia que incluía inversión de la propia compañía de chips. Sin embargo, esta es la primera vez que se asocia con un gran proveedor de nube, y el acuerdo no es exclusivo.

La startup lanzó en octubre de 2025 su primer producto, Tinker, una herramienta que automatiza la creación de modelos de IA de frontera personalizados. El comunicado de Google, citado por TechCrunch, deja entrever que la arquitectura de Tinker depende fuertemente del aprendizaje por refuerzo, lo que ayuda a entender la magnitud del contrato de cómputo.

Por qué importa

Este movimiento importa por lo que dice de Google, por lo que dice de Thinking Machines y, sobre todo, por lo que dice del mercado de infraestructura de IA.

Para Google, el mensaje es que no piensa ceder el segmento de laboratorios de frontera a Microsoft y Amazon. Microsoft tiene un acuerdo histórico con OpenAI; Amazon se ha acercado a Anthropic y otros actores. Google cuenta con DeepMind y su propia investigación, pero necesita historias externas que demuestren que su nube también es hogar natural para quienes están empujando los límites. Thinking Machines, con su halo de ex OpenAI y su enfoque casi industrial en la automatización del diseño de modelos, encaja perfectamente en ese papel.

Para Thinking Machines, el acuerdo es acceso asegurado a la materia prima crítica de la próxima década: cómputo especializado. Una herramienta como Tinker, cuyo objetivo es producir modelos de frontera bajo demanda, es intrínsecamente devoradora de GPUs. Sin una relación privilegiada con un hiperescalador, el riesgo de quedar atado a colas de capacidad o precios prohibitivos sería enorme.

El tercer ángulo es el de la concentración. Los grandes ganadores son Google y Nvidia. Al margen de que Anthropic se apoye también en Amazon o de que OpenAI se ejecute sobre Azure, el patrón es el mismo: unos pocos proveedores de nube y un puñado de fabricantes de chips controlan la llave de entrada al club de la IA de frontera.

Los perdedores potenciales son los proveedores de nube de menor escala y los intentos de construir infraestructuras soberanas en regiones como Europa o América Latina. Cuando los laboratorios más punteros firman contratos de varios miles de millones y varios gigavatios de capacidad con tres empresas estadounidenses, el margen de maniobra para alternativas locales se reduce dramáticamente.

El panorama más amplio

El acuerdo Google–Thinking Machines se suma a una serie de movimientos que conforman la nueva geopolítica del cómputo de IA.

En los últimos años hemos visto cómo Microsoft comprometía miles de millones en infraestructura y energía para OpenAI, mientras Google y Amazon cerraban pactos similares con Anthropic. Ahora se suma Thinking Machines a la órbita de Google Cloud. El patrón es claro: los hiperescaladores dejan de ser simples proveedores a demanda para comportarse como empresas de servicios básicos, con contratos a largo plazo y reservas de capacidad.

Un matiz interesante del caso Thinking Machines es el peso del aprendizaje por refuerzo. Históricamente, este enfoque fue clave para éxitos como los sistemas de juego de DeepMind, pero no era el protagonista del boom de los modelos de lenguaje. Que una startup de frontera centre su arquitectura en esta técnica sugiere un futuro donde no solo entrenamos modelos enormes, sino agentes que exploran, planifican y quizá diseñan otros modelos.

Eso incrementa la asimetría entre quienes tienen cómputo casi ilimitado y quienes no. Los ciclos de prueba y error en aprendizaje por refuerzo son mucho más costosos que en aprendizaje supervisado clásico. Un laboratorio con miles de GB300 a su disposición puede iterar estrategias y arquitecturas que serían completamente inviables en un centro de datos convencional o en la nube de un proveedor regional.

Comparado con sus rivales, Google envía también un mensaje a los desarrolladores empresariales: su nube no solo sirve para desplegar modelos ya entrenados, sino que puede ser el lugar donde se diseñan las próximas generaciones de sistemas. Si Thinking Machines convierte a Tinker en una especie de fábrica de modelos a medida, es muy probable que muchas empresas terminen entrenando sus modelos verticales —para finanzas, salud, cadenas de suministro o idiomas locales— sobre Google Cloud.

La mirada europea e iberoamericana

En Europa, este tipo de acuerdos choca frontalmente con el discurso sobre soberanía digital y «IA europea». La Unión Europea avanza en regulaciones como el Reglamento de IA, la Ley de Servicios Digitales o la Ley de Mercados Digitales, pero la realidad física es que los centros de datos y las últimas GPUs están, en su mayoría, bajo control de empresas estadounidenses.

Proyectos como EuroHPC, con superordenadores como LUMI en Finlandia o MareNostrum 5 en Barcelona, son intentos serios de equilibrar la balanza. Sin embargo, su modelo de acceso —más académico y por convocatorias— y la falta de integración con los flujos de trabajo empresariales hacen difícil competir con la facilidad y la elasticidad de un Google Cloud o un AWS.

En España y América Latina, la dependencia es aún mayor. Muchos de los unicornios de la región —desde fintechs mexicanas hasta plataformas de e-commerce brasileñas o startups de IA en Bogotá y Santiago— se ejecutan casi en su totalidad sobre nubes de Estados Unidos. Los proveedores locales de data center y nube pública tienen dificultades para acceder a las últimas generaciones de GPUs en volúmenes significativos.

La normativa europea ofrece ciertos contrapesos. El Reglamento de Datos prevé facilitar el cambio de proveedor de nube y limitar el bloqueo contractual. Las autoridades de competencia podrían, en teoría, examinar acuerdos en los que el acceso a determinados chips o servicios de IA esté condicionado a adoptar todo el stack de un proveedor. Pero el ritmo de la regulación es lento frente a la velocidad con la que se cierran estos contratos.

Para el mundo hispanohablante, también hay una dimensión cultural y de idioma: si las herramientas de automatización de modelos, como Tinker, se asientan sobre nubes estadounidenses, es probable que los grandes modelos en español —y en lenguas indígenas de América Latina— se entrenen igualmente allí. Eso tiene implicaciones de privacidad, de soberanía de datos y, en última instancia, de quién decide qué se prioriza en esos modelos.

Lo que viene

En los próximos dos o tres años veremos más acuerdos de este tipo. Cualquier laboratorio que aspire a entrenar modelos de frontera tendrá que tomar una decisión: asociarse con un hiperescalador, integrarse en alguna iniciativa pública de supercómputo o resignarse a un papel de usuario y adaptador de modelos ajenos.

Para Google y Thinking Machines, la clave será transformar esta capacidad en productos diferenciados. Si Tinker funciona, veremos una oleada de modelos de alto nivel entrenados por bancos, aseguradoras, farmacéuticas, operadores logísticos o plataformas digitales de habla hispana, sin necesidad de que estas empresas construyan su propia infraestructura desde cero.

Conviene vigilar tres frentes.

Primero, hasta qué punto Thinking Machines adopta realmente una estrategia multicloud. El contrato con Google es no exclusivo. Si más adelante anuncia entrenamientos significativos también en AWS u otros, será una señal de que incluso en la frontera se puede evitar un bloqueo total.

Segundo, la reacción regulatoria. A medida que la capacidad de cómputo de IA se convierta en un insumo crítico para servicios públicos, sanidad o energía, es probable que los reguladores europeos la traten más como infraestructura esencial que como simple servicio TI. Eso podría traducirse en obligaciones de interoperabilidad o límites a ciertas formas de exclusividad.

Tercero, el impacto energético. TechCrunch recordaba los acuerdos de varios gigavatios de Anthropic con diferentes proveedores. En regiones con redes eléctricas frágiles o con objetivos climáticos ambiciosos, como la UE, la expansión de grandes clústeres de IA puede tensionar tanto el sistema eléctrico como el debate político.

Para empresas en España y América Latina, una conclusión práctica es ineludible: la estrategia de IA ya no puede separarse de la estrategia de infraestructura. Negociar bien con los proveedores de nube, explorar opciones híbridas con centros de datos locales y seguir de cerca la regulación serán tareas tan importantes como elegir el modelo de lenguaje de moda.

En resumen

El acuerdo multimillonario entre Google y Thinking Machines cristaliza una realidad incómoda: en la IA de vanguardia, la escasez no está en las ideas, sino en el cómputo. Un pequeño club de hiperescaladores y fabricantes de chips controla la puerta de entrada al futuro de la tecnología. Europa y América Latina deben decidir si se conforman con ser usuarias reguladas de esa infraestructura o si aspiran a construir alternativas propias. Y cada empresa debería hacerse una pregunta sencilla: ¿quién tiene, en última instancia, la llave de encendido de mis modelos?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.