Titular e introducción
La escasez de GPU domina los titulares, pero la siguiente batalla puede librarse un nivel más abajo: quién diseña los chips donde corre la IA. Ricursive apuesta por una respuesta provocadora: que la propia IA lo haga. Este startup de apenas dos meses acaba de alcanzar una valoración de 4.000 millones de dólares con la promesa de crear un bucle cerrado en el que sistemas de IA diseñan y mejoran continuamente los chips que los ejecutan. Si funciona, podría acelerar años de progreso en hardware y concentrar aún más poder en quienes controlan el cómputo. En este análisis veremos qué hay detrás de Ricursive, por qué los inversores están dispuestos a pagar tanto tan pronto y qué implica para Europa y el mundo hispanohablante.
La noticia en breve
Según TechCrunch, Ricursive Intelligence ha levantado una ronda Serie A de 300 millones de dólares a una valoración de 4.000 millones, tan solo dos meses después de su lanzamiento oficial. La ronda ha sido liderada por Lightspeed con la participación de DST Global, NVentures (el brazo de capital riesgo de Nvidia), Felicis Ventures, 49 Palms Ventures y Radical AI. En total, la empresa ha recaudado 335 millones de dólares, cifra que también menciona The New York Times.
Ricursive desarrolla un sistema de IA capaz de diseñar y mejorar automáticamente chips especializados para inteligencia artificial. La compañía afirma que su tecnología podrá generar su propia capa de sustrato de silicio e iterar sobre las arquitecturas de los chips para acelerar cargas de trabajo de IA. Las fundadoras, Anna Goldie (CEO) y Azalia Mirhoseini (CTO), proceden de Google y son conocidas por un método de aprendizaje por refuerzo para el placement de componentes (AlphaChip), utilizado ya en cuatro generaciones de los aceleradores TPU de Google. TechCrunch sitúa a Ricursive dentro de un pequeño grupo de nuevas empresas que exploran conceptos similares de “IA que se mejora a sí misma”, junto a Unconventional AI y otra compañía llamada Recursive.
Por qué importa
Más allá del titular llamativo, esta ronda indica un cambio de fase: la carrera de la IA se desplaza del nivel de los modelos al del sustrato físico que los sostiene.
Si la visión de Ricursive se materializa, los principales beneficiados serían:
- Los grandes hyperscalers y laboratorios de IA, que podrían contar con chips ajustados milimétricamente a sus cargas de trabajo, en lugar de depender de GPUs genéricas.
- Ricursive y sus inversores, que se posicionan en el cuello de botella más crítico del ecosistema: el acceso a cómputo de vanguardia.
- Nvidia, que diversifica su exposición invirtiendo en posibles complementos o futuras alternativas a su hoja de ruta de GPUs.
También hay perdedores potenciales:
- Los proveedores clásicos de EDA (Synopsys, Cadence, Siemens EDA) pueden ver cuestionado su dominio si surgen herramientas de diseño impulsadas por IA que logren mejores resultados para cargas de IA muy concretas.
- Proveedores de nube de segunda línea y startups, incluidas muchas en Europa y Latinoamérica, podrían quedar aún más rezagados si el mejor hardware nace de acuerdos cerrados entre unos pocos gigantes y este tipo de compañías.
- Reguladores y expertos en seguridad, que tendrían que lidiar con ciclos de mejora del hardware mucho más rápidos de lo que contemplan los marcos actuales.
En el corto plazo, el impacto es sobre todo simbólico: una valoración de 4.000 millones valida la narrativa de la “infraestructura auto‑mejorable” como la nueva ola después de los modelos fundacionales. Los grandes actores ya piensan en co‑diseño hardware/software; esta ronda demuestra que el capital riesgo está dispuesto a financiar esa visión a múltiplos muy elevados.
El cuadro más amplio
Ricursive encaja en una tendencia clara: la integración vertical de toda la pila de IA.
Primero, los gigantes del cloud entendieron que alquilar GPUs estándar no bastaba y lanzaron sus propios aceleradores (TPU, Trainium, Maia, Cobalt, MTIA, etc.). Ahora el movimiento va un paso más abajo: no solo controlar el chip, sino también el sistema que diseña ese chip.
La historia de la automatización del diseño de circuitos (EDA) ha sido siempre la de exprimir más del silicio: pasar del dibujo manual al placement automático, de puertas lógicas discretas a síntesis de alto nivel. Cada salto permitió construir sistemas más complejos con una eficiencia aceptable. Ricursive y sus competidores proponen el siguiente salto: bucles de optimización guiados por aprendizaje por refuerzo y otras técnicas de ML, orientados específicamente a cargas de trabajo de IA y, en el futuro, a arquitecturas de modelo concretas.
La lógica económica es poderosa. Entrenar modelos punteros ya consume enormes cantidades de dinero, energía y talento. Cuando un solo entrenamiento implica cientos de millones en infraestructura, unos pocos puntos porcentuales de mejora en eficiencia energética o utilización tienen un impacto directo en la cuenta de resultados. Un sistema que aprende de trazas reales de ejecución y reajusta en consecuencia el layout, la jerarquía de memoria y los interconectores es extremadamente atractivo para cualquier proveedor de gran escala.
Eso apunta también a un cambio de métrica en la competición: hoy hablamos de número de parámetros y longitud de contexto; mañana hablaremos de capacidad por vatio y por dólar, resultado de lo bien que se co‑optimicen modelos, compiladores, runtimes y hardware. Ricursive se sitúa justo en ese punto de encuentro.
Por supuesto, el riesgo es enorme. Diseñar, verificar y fabricar un chip competitivo sigue siendo lento, caro y lleno de fricciones industriales. Ni los mejores papers sustituyen la realidad de los plazos de una foundry. Pero la apuesta de los inversores es que la próxima empresa de escala Nvidia no será solo una diseñadora de chips más rápidos, sino la dueña de la maquinaria que optimiza esos chips en bucle continuo.
El ángulo europeo e hispanohablante
Para Europa, Ricursive es otro recordatorio de que la frontera de la innovación en hardware para IA sigue muy concentrada en Estados Unidos.
La UE tiene ambiciones claras a través del European Chips Act y diversos programas IPCEI: aumentar su peso en fabricación de semiconductores y reducir la dependencia externa. Sin embargo, las apuestas más avanzadas en herramientas de diseño nativas de IA surgen en su mayoría de Silicon Valley y del mismo círculo de fondos que ya domina el cloud y las GPUs.
Esto condiciona la soberanía digital europea. Si la próxima generación de aceleradores se define mediante sistemas opacos de diseño impulsados por IA, entrenados con datos y cargas de trabajo de grandes actores estadounidenses, los clouds europeos y los usuarios empresariales podrían limitarse a consumir una caja negra: modelos, compiladores y chips extranjeros co‑diseñados como un único bloque difícil de auditar.
En el mundo hispanohablante la situación es aún más delicada. España cuenta con activos importantes como el Barcelona Supercomputing Center, y en América Latina destacan actores digitales como Mercado Libre, Nubank o Rappi. Pero casi todos dependen de infraestructura de nube extranjera y de hardware diseñado fuera de la región. Si el diseño de chips pasa a estar guiado por IA y fuertemente integrado con modelos propietarios, la capacidad de negociar precios, condiciones y estándares de seguridad se reducirá todavía más.
La regulación europea (GDPR, DSA, DMA, futura Ley de IA) apenas roza hoy estas capas profundas. No se pregunta quién diseña los chips que ejecutan los modelos, con qué datos se optimizan, ni cómo se podría auditar ese proceso. Sin embargo, si esos chips acaban alimentando redes eléctricas, hospitales o transporte, la cuestión dejará de ser teórica.
Mirando hacia adelante
¿Qué cabe esperar en los próximos 18–24 meses?
- Primeros tape‑outs y prototipos. Sin una hoja de ruta creíble hacia foundries concretas y nodos de proceso competitivos, Ricursive seguirá siendo más promesa que realidad.
- Resultados comparables. Harán falta cifras de rendimiento por vatio y por dólar en cargas reales de entrenamiento e inferencia, frente a GPUs de Nvidia u otros aceleradores establecidos.
- Alianzas visibles. La firma de acuerdos públicos con grandes nubes, laboratorios o centros de supercomputación europeos y latinoamericanos será un termómetro del alcance real de su tecnología.
Para los gigantes de EDA, esto puede ser el disparo de salida de una nueva ola de adquisiciones. Muchos ya integran machine learning en sus herramientas; si startups como Ricursive demuestran ventajas claras, es razonable esperar que los grandes intenten comprar esa capacidad antes de que crezca demasiado.
En términos de riesgo sistémico, un stack de hardware auto‑optimizante podría acortar los ciclos entre generaciones de modelos y trastocar los tiempos que manejan reguladores y expertos en seguridad. No es descabellado pensar en futuros controles de exportación que no solo se apliquen a ciertos chips, sino también a los sistemas capaces de diseñarlos.
Para los actores hispanohablantes —desde bancos en Madrid hasta fintechs en Ciudad de México o São Paulo— la oportunidad está en anticiparse: explorar alianzas con iniciativas abiertas (RISC‑V, hardware de código abierto), apoyar proyectos locales de diseño y, sobre todo, exigir transparencia a proveedores de nube sobre cómo evolucionan sus stacks de hardware.
En resumen
La valoración de 4.000 millones de dólares de Ricursive dice menos sobre el estado actual del startup que sobre la nueva fase de la carrera de la IA. El capital se mueve al estrato más profundo: las herramientas que diseñan los chips donde correrán los modelos. Si ese bucle se automatiza y acelera, la ventaja será descomunal para quien lo controle… y hoy ese control está lejos de Europa y de América Latina. La pregunta para el lector es clara: ¿queremos participar en definir ese sustrato inteligente o resignarnos a ejecutarlo como una caja negra?



