- TITULAR E INTRODUCCIÓN
La última decisión de Uber sobre dónde correr sus sistemas de inteligencia artificial dice mucho más del futuro de la nube que de los viajes en coche. Al estrechar lazos con Amazon Web Services y empezar a probar los chips de IA Trainium3, Uber está apostando por un modelo en el que los grandes proveedores de cloud ganan ventaja no solo con centros de datos y servicios gestionados, sino con su propio silicio.
Este movimiento demuestra lo frágiles que pueden ser incluso los macrocontratos multicloud y cómo los chips se están convirtiendo en la pieza clave de la guerra entre Amazon, Google, Oracle y Nvidia.
En este análisis veremos qué ha firmado realmente Uber, por qué importa para todo el ecosistema de IA y qué significa para empresas y usuarios en Europa y en el mundo hispanohablante.
- LA NOTICIA, EN BREVE
Según informa TechCrunch, Amazon ha anunciado que Uber ampliará su contrato con AWS para ejecutar una parte mayor de sus funciones de movilidad sobre chips diseñados por la propia Amazon.
En la práctica, Uber incrementará su uso de los procesadores AWS Graviton – CPUs de servidor basadas en ARM, conocidas por su bajo consumo y buena relación precio‑rendimiento – y pondrá en marcha un nuevo piloto con Trainium3, la última generación de aceleradores de IA de AWS, planteados como alternativa a las GPU de Nvidia para entrenar grandes modelos.
Este paso llama la atención porque, en 2023, Uber firmó acuerdos multianuales de gran tamaño con Oracle Cloud y Google Cloud, con el objetivo declarado de migrar la mayor parte de su infraestructura desde centros de datos propios hacia esas dos nubes. En ese contexto, Uber destacó el uso de instancias ARM en Oracle basadas en chips de Ampere. Posteriormente, Ampere fue adquirida por SoftBank y Oracle vendió su participación.
Ahora AWS entra en escena y consigue más cargas de trabajo de Uber precisamente gracias a su oferta de chips propios.
- POR QUÉ IMPORTA
El ganador inmediato es Amazon. No solo suma más facturación con Uber; consigue un caso de éxito muy visible que valida su estrategia de diseñar chips a medida. Durante años, Graviton y Trainium se veían como apuestas interesantes pero secundarias. Si un servicio global y muy sensible a la latencia como Uber decide apoyarse en ellos, el mensaje para otros grandes clientes es claro: esto ya es producción, no laboratorio.
Uber también gana. El transporte bajo demanda, la entrega de comida y la logística son negocios de mucho volumen y poco margen. La IA ya está integrada en todo el stack de Uber: estimación de llegada, precios dinámicos, asignación de conductores, detección de fraude, atención al cliente. Si Graviton y Trainium3 ofrecen mejor coste por unidad de trabajo, Uber reduce sus gastos de cómputo y gana poder de negociación frente a Oracle, Google y Nvidia.
Los posibles perdedores son más matizados. Nvidia no va a temblar por un piloto de Trainium3, pero la tendencia es evidente: los grandes compradores se están esforzando por disponer de alternativas viables a un mundo dominado por GPU de Nvidia, tanto por precio como por disponibilidad. Oracle queda en una posición incómoda: vendió su participación en Ampere y restó importancia a diseñar chips propios justo cuando un cliente emblemático es seducido por un competidor que presume precisamente de eso.
En el fondo, el movimiento de Uber subraya un cambio estructural: en la nube, el nuevo lock‑in no son solo las APIs o las bases de datos propietarias, sino la capa de hardware. Cuando tus modelos se optimizan para Trainium o Graviton, migrarlos a otro proveedor se vuelve más caro y complejo. AWS está construyendo un foso competitivo que empieza en el transistor.
- EL CONTEXTO AMPLIO
La decisión de Uber encaja con una dinámica mucho más grande: los hyperscalers quieren controlar su destino en la era de la IA.
Google lleva años con sus TPU. Microsoft está introduciendo sus propios chips, como Maia (para IA) y Cobalt (CPU ARM). Meta desarrolla MTIA para inferencia. Amazon, probablemente el más integrado de todos, ha convertido Graviton y Trainium en un negocio de varios miles de millones de dólares, según destacó su CEO a finales de 2025.
Detrás de todo está la dependencia de Nvidia. El boom de la IA convirtió a Nvidia en cuello de botella del sector: hardware escaso, precios disparados y una hoja de ruta tecnológica en manos de un solo proveedor. Los chips personalizados son la réplica: no tienen que ser los más rápidos del mundo, les basta con ganar en coste por vatio y por tarea en ciertos tipos de carga.
Históricamente, recuerda al nacimiento de la propia nube pública. Al principio, tener grandes centros de datos era una ventaja competitiva; hoy, racks de servidores x86 son commodity. La diferenciación se ha desplazado hacia los aceleradores y los stacks de software estrechamente integrados.
La historia de Ampere que describe TechCrunch ilustra lo volátil que es este terreno. Oracle apostó por ARM para diferenciar su nube, tomó una gran participación en Ampere y más tarde la vendió con jugosas plusvalías, alegando que el diseño interno de chips ya no aportaba ventaja. Justo en el momento en que Amazon demuestra lo contrario y se lleva parte de un cliente estrella.
El resultado: el mercado de infraestructura de IA se fragmenta a nivel de silicio – cada nube con sus arquitecturas y aceleradores – mientras sigue concentrado económicamente en muy pocos actores, casi todos estadounidenses.
- LA PERSPECTIVA EUROPEA E HISPANOHABLANTE
Para Europa y para gran parte de América Latina, el mensaje es similar: la infraestructura de IA más avanzada, al menos a corto plazo, estará en manos de unos pocos hyperscalers de EE. UU. con chips propietarios.
Desde el punto de vista económico, más competencia de chips es positiva. Si Trainium3 y Graviton fuerzan a Nvidia a moderar precios, ganan las startups de IA en Madrid, Ciudad de México o Bogotá, así como laboratorios de investigación que hoy se apoyan en créditos de AWS, Azure o Google Cloud. Menor coste de entrenamiento e inferencia significa más experimentos con el mismo presupuesto.
Pero hay un coste en soberanía y dependencia. Cuanto más integrada esté la cadena – chip, framework, servicio gestionado, modelo y datos bajo el mismo proveedor –, más difícil será cambiar de plataforma sin fricciones. Eso entra en tensión con objetivos políticos en la UE, como los del Reglamento de Datos, la Ley de Mercados Digitales o la futura Ley de IA, que aspiran a portabilidad, interoperabilidad y limitación del poder de los gatekeepers.
Los proveedores de nube europeos y regionales (OVHcloud, IONOS, Telefónica Tech, entre otros) basan su oferta en hardware estándar y promesas de proximidad, cumplimiento normativo y protección de datos. Les resultará muy complicado igualar las economías de escala que da tener chips propios. Su narrativa alternativa será: “quizá no tengamos el acelerador más exótico, pero le ofrecemos control, transparencia y menos dependencia”.
- MIRANDO HACIA ADELANTE
El futuro de este tipo de acuerdos dependerá de tres factores principales.
Primero, el rendimiento real de Trainium3. Si Uber confirma ahorros significativos y fiabilidad frente a arquitecturas basadas en Nvidia, veremos a más empresas de sectores intensivos en datos – transporte, logística, comercio electrónico – probar la combinación AWS+chips propios. Si la mejora es marginal, Trainium3 será más una herramienta táctica de negociación que un cambio de paradigma.
Segundo, hasta dónde llega el multicloud centrado en el chip. Uber ya es multicloud en tres capas: proveedores (AWS, Oracle, Google), arquitecturas (x86, varias ARM) y aceleradores (Nvidia, Trainium, quizá otros). Esa diversidad da poder en la mesa de negociación, pero complica la operación diaria. En la práctica, muchas grandes compañías acaban eligiendo una nube “ancla” y usan las demás de forma selectiva. El roadmap de chips pesará cada vez más en esa elección.
Tercero, la respuesta de Nvidia y de los reguladores. Nvidia seguirá reforzando su ecosistema de software y sus alianzas con hyperscalers. En paralelo, es razonable esperar que la Comisión Europea y algunos reguladores latinoamericanos empiecen a mirar con más lupa el lock‑in a nivel de hardware cuando apliquen normas sobre competencia, datos y servicios digitales.
Para CTOs y fundadores, la señal es clara: la próxima gran decisión de infraestructura no será solo “qué nube elijo”, sino “a qué ecosistema de chips me ato durante los próximos cinco o diez años”.
- CONCLUSIÓN
La ampliación del acuerdo entre Uber y AWS alrededor de Graviton y Trainium3 no es un contrato más, sino un voto a favor de stacks de IA verticalmente integrados, donde el chip marca la diferencia. Refuerza la posición de Amazon, presiona a Nvidia y a Oracle y reduce el margen de maniobra para quienes construyen IA seria dentro y fuera de Europa. La cuestión de fondo es si queremos que unos pocos proveedores de chips se conviertan en el nuevo cuello de botella de la economía digital.



