1. Titular e introducción
Mientras medio sector compite por conseguir GPUs, el verdadero cuello de botella de la inteligencia artificial está cambiando de lugar: ahora está en la red. Si quieres entrenar modelos gigantes conectando miles de aceleradores, da igual lo rápido que sea cada chip si la red no es capaz de alimentarlos. Ahí entra Eridu, un nuevo startup que acaba de salir del modo sigiloso con una ronda Serie A de 200 millones de dólares. En este análisis veremos qué está intentando cambiar Eridu, por qué las redes se han convertido en el punto crítico de la IA y qué implicaciones tiene esto para Europa y para los mercados hispanohablantes.
2. La noticia en breve
Según informa TechCrunch, Eridu ha salido de su fase stealth con una ronda Serie A de 200 millones de dólares, sobresuscrita y liderada por Socratic Partners, el veterano inversor John Doerr y Matter Venture Partners. Con esta operación, la empresa suma un total de 230 millones de dólares recaudados. Entre los demás inversores figuran Hudson River Trading, Capricorn Investment Group, MediaTek, Bosch Ventures, TDK Ventures y un vehículo de inversión vinculado a TSMC.
Eridu se fundó en 2024 de la mano de Drew Perkins, un histórico de las redes de datos con varias startups de éxito a sus espaldas, y de su cofundador Omar Hassen, especializado en chips de red para grandes fabricantes de silicio.
La compañía está diseñando nuevos chips de red y sistemas completos optimizados para IA, pensados para sustituir varias capas de interconexión óptica clásica en los centros de datos. La idea es mover más lógica de red directamente al chip, reduciendo saltos, latencia y consumo, y aumentando así la eficiencia de los grandes clústeres de GPU. Eridu ronda el centenar de empleados. Su valoración y los primeros clientes concretos no se han hecho públicos.
3. Por qué importa
Durante los últimos años el discurso sobre infraestructura de IA se ha centrado casi exclusivamente en los chips de cómputo. Pero añadir más GPU deja de ser efectivo cuando la red no escala al mismo ritmo. Eridu apunta justamente a esa capa que, en los clústeres más grandes, acaba marcando el techo real.
Entrenar modelos de última generación implica conectar miles o decenas de miles de aceleradores. La arquitectura clásica de centro de datos responde añadiendo más niveles de switches y más óptica. Funciona, pero con un coste creciente: cada salto adicional aumenta la latencia; cada módulo óptico suma vatios, euros y posibles fallos. El resultado es que una parte significativa de la capacidad de cálculo se pierde esperando a que lleguen los datos.
La tesis de Eridu, tal y como la describe a TechCrunch, es que la potencia de cómputo y el ancho de banda de memoria de las GPUs crecen mucho más rápido que la capacidad de los switches de centro de datos convencionales. La brecha se abre y la red se convierte en el cuello de botella.
Si su propuesta –meter más funcionalidad de conmutación en el propio silicio y simplificar las capas ópticas– funciona en la práctica, hay varios beneficiarios claros:
- Hiperscalers y grandes laboratorios de IA podrían obtener más rendimiento útil por rack y por kilovatio.
- Proveedores de modelos reducirían tiempos de entrenamiento y mejorarían la escalabilidad entre nodos.
- Fabricantes de chips verían revalorizados sus aceleradores al poder integrarlos en clústeres más grandes y mejor aprovechados.
Los posibles perdedores son los fabricantes tradicionales de equipos de red y de silicio genérico, cuya hoja de ruta se basa en evoluciones graduales de Ethernet y de la óptica existente. Incluso si Eridu no llega a dominar el mercado, una Serie A de este tamaño es un mensaje claro: la industria está dispuesta a reimaginar la capa de red de la IA desde cero.
4. El panorama más amplio
Eridu encaja en una tendencia más amplia de reconfiguración del centro de datos para la era de la IA.
Por un lado, vemos una mayor integración vertical alrededor de las cargas de trabajo de IA. Nvidia ya no vende sólo GPUs; controla también tecnologías de interconexión, switches y sistemas completos. Proveedores cloud como Google o Amazon diseñan aceleradores propios y, cada vez más, hardware de red a medida. Eridu pretende ofrecer una opción independiente: una red pensada para IA sin necesidad de ser un gigante con todo el stack bajo control.
Por otro lado, proliferan las tecnologías de interconexión especializadas. Startups trabajan en óptica co‑empaquetada, fotónica integrada o conceptos de "cómputo en la red"; se exploran estándares como CXL que difuminan la frontera entre memoria y red. La estrategia de Eridu –más funciones en el chip, menos óptica discreta y menos saltos– encaja en esa tendencia de acercar la red al cómputo y eliminar capas intermedias.
Históricamente, el mercado se movió en sentido contrario: las fabrics propietarias fueron sustituidas por Ethernet y silicio estándar, lo que abarató costes pero también homogeneizó la oferta. La IA puede revertir parcialmente ese movimiento en la gama alta: cuando un pequeño porcentaje extra de eficiencia se traduce en millones de dólares, las topologías exóticas y los protocolos específicos dejan de ser un capricho para convertirse en ventaja competitiva.
Además, Eridu forma parte de una ola de inversión que baja por debajo del nivel del modelo. Tras el boom de los modelos fundacionales, los inversores miran ahora al suministro eléctrico, la refrigeración, el empaquetado, la verificación… y la red. Una Serie A de 200 millones en infraestructura sin producto comercializado habría sido insólita hace pocos años; hoy indica que muchos ven en el "stack de red para IA" una categoría multimillonaria en sí misma.
5. El ángulo europeo y latinoamericano
Para Europa, el caso Eridu subraya una contradicción incómoda: se habla de "soberanía digital" y de "IA europea", pero la base física –chips, redes, fábricas– sigue estando en gran medida fuera del continente.
La UE impulsa superordenadores EuroHPC y clústeres nacionales de IA, mientras el Reglamento de IA, el Pacto Verde y normas como el RGPD o la Directiva de eficiencia energética endurecen las exigencias. El mensaje es claro: más IA, pero con menos dependencia externa y menor huella ambiental.
Si Eridu logra reducir consumo y espacio por unidad de cómputo efectivo simplificando la red, puede resultar atractivo para clouds europeos, operadores de telecomunicaciones y centros de investigación en España, Alemania, Francia o los países nórdicos. En un contexto donde la factura eléctrica es determinante, exprimir mejor cada vatio de red no es un detalle menor.
En el mundo hispanohablante, el impacto será distinto según el mercado. En España y Portugal, donde hay hubs de datos relevantes y proyectos de IA públicos y privados, esta nueva generación de redes puede marcar la diferencia entre depender de regiones de nube en EE. UU. o competir desde centros locales. En América Latina, donde la adopción de nube crece rápido pero la infraestructura propia aún es limitada, tecnologías de red más eficientes podrían hacer viables clústeres regionales que hoy no cuadran en la hoja de cálculo.
La otra cara de la moneda es la dependencia tecnológica. Europa y América Latina apenas cuentan con fabricantes propios de chips de red de última generación. Si las fabrics especializadas para IA acaban dominando, existe el riesgo de quedar relegados al papel de simples integradores de soluciones ajenas, con poca capacidad de influir en estándares, precios o alineación regulatoria.
6. Mirando hacia adelante
Diseñar chips de red a medida es un juego de largo plazo. Aunque el equipo fundador de Eridu acumula mucha experiencia y capital, aún queda un camino de años: diseño, fabricación, validación, primeras instalaciones piloto, escalado… En el mejor de los casos, veremos despliegues significativos cuando el actual ciclo de euforia de la IA ya haya madurado.
En los próximos años, conviene fijarse en varios puntos:
- Clientes ancla: si Eridu consigue un gran proveedor cloud, un laboratorio de IA de referencia o un operador financiero con redes de baja latencia como primer cliente, su propuesta ganará mucha credibilidad.
- Modelo de integración: ¿será una red compatible "lo suficiente" con Ethernet y las herramientas existentes, o apostará por un tejido más radical? Cuanto más disruptiva sea la arquitectura, mayor será la barrera de adopción.
- Pruebas de eficiencia reales: los operadores querrán ver mejoras concretas en rendimiento por vatio y por dólar/euro invertido en entornos productivos, no sólo benchmarks de laboratorio.
Hay riesgos evidentes. La inversión masiva en infraestructura de IA podría frenarse si el ciclo económico cambia; Nvidia intenta controlar cada capa del stack, desde el chip hasta el interconect; y las tensiones geopolíticas en torno a la fabricación de semiconductores añaden incertidumbre. Todo ello puede ralentizar la adopción de arquitecturas de red alternativas.
Para empresas europeas y latinoamericanas, la cuestión clave es si quieren ser meros consumidores tardíos de estas tecnologías o participar desde ahora en pilotos, pruebas de concepto y definición de requisitos. La regulación europea (IA, datos, energía) y las particularidades de cada país hispanohablante son suficientemente específicas como para justificar una voz propia en el diseño de estas fabrics.
7. Conclusión
La Serie A de 200 millones de dólares de Eridu es una señal clara: el cuello de botella de la IA ha dejado de estar sólo en el chip y se ha desplazado de lleno a la red. Que este startup gane o no la carrera es casi secundario; su mera existencia obliga a los actores tradicionales a replantearse cómo conectan sus GPU a gran escala. Para el mundo hispanohablante, el mensaje es doble: la eficiencia de red será tan estratégica como la potencia de cómputo, y quien no participe en el diseño de esta nueva capa acabará adaptándose a reglas escritas en otros continentes. La pregunta es si queremos ser parte de quienes las escriben.



