Titular e introducción
Mientras todos miran la guerra de las GPU, Meta acaba de lanzar un mensaje distinto: el futuro inmediato de la IA se va a decidir en las CPU. El acuerdo para usar millones de procesadores Graviton de Amazon Web Services no tiene que ver con entrenar modelos gigantes, sino con algo más pedestre y, a la vez, más crítico: hacer que esos modelos funcionen a diario, como agentes que razonan, buscan, escriben código y coordinan tareas. Este movimiento redefine costes, dependencia de nubes y oportunidades, tanto en Europa como en América Latina.
La noticia en breve
Según recoge TechCrunch, Amazon Web Services ha anunciado un acuerdo con Meta por el que la compañía de Mark Zuckerberg utilizará millones de CPU AWS Graviton para alimentar sus crecientes cargas de trabajo de IA. Graviton es una familia de chips basados en ARM, diseñados por el propio Amazon y disponibles exclusivamente a través de su nube.
El foco del acuerdo no es el entrenamiento de grandes modelos, donde las GPU siguen siendo la opción dominante, sino la fase posterior: inferencia y trabajo de agentes. Hablamos de razonamiento en tiempo real, búsqueda, generación de código y coordinación de flujos de trabajo complejos, que suelen depender más intensamente de CPU que de GPU.
TechCrunch también subraya el momento del anuncio: llegó justo al cierre de la conferencia Google Cloud Next, poco después de que Meta firmara un contrato de seis años y 10 000 millones de dólares con Google Cloud. Con este nuevo paso, Meta devuelve una parte de su gasto a AWS, y Amazon consigue un cliente de referencia para promocionar Graviton frente al nuevo CPU ARM de Nvidia, Vera, y frente a los proveedores x86 tradicionales.
Por qué importa
Este acuerdo confirma un cambio de foco en la infraestructura de IA. Durante dos años el relato ha sido sencillo: falta de GPU de Nvidia y carrera por entrenar el modelo más grande. Meta, al comprometerse con millones de CPU Graviton, reconoce que el cuello de botella ya no está solo en el entrenamiento, sino en la operación diaria de agentes y servicios de IA a gran escala.
En esa fase, el coste por petición y la eficiencia energética mandan. Para Amazon, la jugada es doble. Por un lado, captura a un actor que marca tendencias: si Meta demuestra que puede mover una parte significativa de su tráfico de IA a Graviton con mejor relación precio‑rendimiento, muchas empresas seguirán el mismo camino. AWS deja de ser simplemente el lugar donde corre la web corporativa, y se convierte en la autopista donde circulan los agentes de IA.
Por otro lado, es una respuesta clara a Google y un aviso para Nvidia. Google había logrado amarrar el entrenamiento de Meta con su megacontrato. Al llevar la inferencia y los agentes de vuelta a AWS, Meta equilibra riesgos y evita depender en exceso de un solo rival. Nvidia, que está apostando por su propio CPU ARM, Vera, ve cómo uno de los clientes más deseados se utiliza como escaparate para el chip de su principal socio en la nube.
Los que salen perdiendo son, como mínimo en narrativa, Intel y AMD, que ven cómo otro gran comprador se alinea con una CPU diseñada por el propio proveedor cloud. Cada victoria de un chip propietario reduce el espacio donde el x86 era la opción por defecto.
El cuadro más amplio
Para entender la jugada hay que mirarla junto a otros movimientos recientes. AWS ha reforzado de forma espectacular su alianza con Anthropic: el creador de Claude se ha comprometido, según TechCrunch, a gastar 100 000 millones de dólares en diez años en AWS, con un foco especial en Trainium, el acelerador de IA de Amazon. Nvidia, por su parte, ha anunciado su CPU Vera, también basada en ARM, mientras que Google lleva años desplegando sus propios chips TPU.
El patrón es claro: los grandes proveedores de nube quieren controlar la mayor parte posible de la pila tecnológica. No quieren ser meros revendedores de Nvidia. Quieren decidir qué chips se usan, cómo se conectan y qué software los explota. Ahí estarán las mayores márgenes cuando la IA deje de ser novedad y se convierta en infraestructura básica.
La historia recuerda a la evolución del cloud tradicional. Primero, las máquinas virtuales eran la estrella; con el tiempo se volvieron commodities y la diferenciación subió a capas como bases de datos gestionadas, serverless y plataformas propietarias. En IA veremos algo parecido: la pura capacidad de GPU terminará siendo intercambiable, mientras que el valor se concentrará en aceleradores a medida, CPU optimizadas para agentes y plataformas que abstraen toda esa complejidad.
El acuerdo con Meta también legitima a ARM como arquitectura central para la fase operacional de la IA. Graviton nació como opción más barata y eficiente para cargas genéricas. Ahora se convierte en pieza clave para agentes y servicios inteligentes. Nvidia, con Vera, va en la misma dirección. El mensaje es que el entrenamiento puede seguir siendo dominio de las GPU, pero la parte de la IA que nunca se apaga se moverá a CPU más frugales.
Para desarrolladores y startups, el resultado será un entorno heterogéneo: entrenamiento en un tipo de chip, inferencia en otro, orquestación de agentes sobre clústeres llenos de CPU. Quien ofrezca herramientas que hagan transparente esa mezcla tendrá una ventaja competitiva clara.
El ángulo europeo y latino
Desde Europa, la pregunta no es solo técnica, sino política y regulatoria. Si Meta decide ejecutar parte de estas cargas de trabajo en regiones de AWS dentro de la UE –Frankfurt, Dublín, París, Madrid, Milán–, los datos de usuarios europeos y los modelos que los procesan residirán físicamente bajo jurisdicción europea, aunque el silicio sea de una empresa estadounidense.
Con el RGPD, la Ley de Servicios Digitales y la futura Ley de IA de la UE, esa ubicación importa. Los reguladores exigirán trazabilidad, evaluación de riesgos y, en algunos casos, restricciones a la transferencia internacional de datos. Ejecutar agentes en Graviton dentro de Europa puede ser una pieza de esa estrategia de cumplimiento, pero también refuerza la concentración de poder en unos pocos hiperescalares.
En España y América Latina el componente energético es igual de sensible. Los chips ARM como Graviton suelen ofrecer mejor eficiencia por vatio que muchos x86. En países con redes frágiles o costes de energía volátiles, desde el sur de Europa hasta varias economías latinoamericanas, reducir el consumo de los centros de datos no es solo una cuestión ecológica, sino de viabilidad económica.
Para los proveedores cloud locales –desde los europeos como OVHcloud hasta operadores latinoamericanos y telcos regionales–, este acuerdo es una señal de alarma. Si AWS puede vender IA más barata gracias a su propio hardware, combinado con regiones que cumplen la normativa local, será difícil competir sin apostar por alianzas de chips, especialización sectorial o propuestas muy claras de soberanía de datos.
En el ecosistema hispanohablante de startups –Madrid, Barcelona, Ciudad de México, Bogotá, Buenos Aires– la consecuencia práctica es que la infraestructura recomendada tenderá a alinearse con lo que usen los gigantes. Si Meta y Anthropic forman escuela en torno a silicon propio de AWS, muchos frameworks y buenas prácticas seguirán esa ruta.
Mirando hacia adelante
En los próximos 18 a 24 meses, es razonable esperar varias tendencias.
AWS va a exprimir al máximo el relato de Graviton como motor de agentes de IA. Veremos comparativas de coste por mil peticiones, historias de migraciones de CPU x86 a ARM y servicios gestionados que, por defecto, se ejecutan sobre Graviton. Meta será el caso emblemático, pero el mensaje irá dirigido a bancos, aseguradoras, grandes retailers y administraciones públicas.
Nvidia, por su lado, intentará reforzar la idea de plataforma neutral: sistemas completos con GPU, CPU y redes que pueden instalarse en nubes, en centros de datos corporativos o en proveedores regionales que quieran diferenciarse de los hiperescalares. Intel y AMD se apoyarán en su ecosistema x86 y en la carta de la soberanía tecnológica, especialmente atractiva para gobiernos que desconfían de una integración vertical total en manos de empresas estadounidenses.
En Bruselas y en varias capitales latinoamericanas, tarde o temprano entrará en escena la cuestión de la integración vertical. Cuando las mismas compañías diseñan chips, controlan la nube y dominan los modelos fundacionales, surge la duda de si el mercado sigue siendo contestable. En la UE, esto se cruzará con el Reglamento de Mercados Digitales y la Ley de IA; en América Latina, con debates sobre soberanía digital y dependencia tecnológica.
Para empresas y desarrolladores, la lección práctica es clara: diseñar desde hoy con portabilidad en mente. No asumir que el mejor lugar para entrenar será siempre el mejor para inferir, ni que la CPU de un solo proveedor será suficiente. Arquitecturas multi‑cloud, modelos abiertos y capas de orquestación que permitan mover agentes de una infraestructura a otra serán un seguro frente a futuros cambios de precios o condiciones.
Conclusión
El movimiento de Meta hacia millones de CPU Graviton de Amazon confirma que la verdadera batalla de la IA se está desplazando del entrenamiento a la operación masiva de agentes. Amazon gana un escaparate de lujo para su estrategia de chips y una réplica a los avances recientes de Google, mientras Nvidia e Intel ven cómo su influencia se erosiona en el borde de la pila. La cuestión para Europa y el mundo hispanohablante es si aceptarán este nuevo mapa como consumidores pasivos, o si aprovecharán la transición para construir alternativas que prioricen su propia soberanía, eficiencia y competencia real.



