La nueva batalla de la IA no es por GPUs, sino por megavatios: así encaja la apuesta de C2i

16 de febrero de 2026
5 min de lectura
Ilustración de un centro de datos de IA con el flujo de energía destacado desde la red hasta los racks de GPU

1. Titular e introducción

Hablamos todo el día de modelos gigantes y de la fiebre por las GPUs, pero el verdadero cuello de botella de la IA generativa empieza a ser mucho menos glamuroso: la electricidad. Los grandes centros de datos ya no solo compiten por chips, sino por capacidad de conexión a la red y por cada punto de eficiencia energética.

En ese contexto, la ronda de financiación que TechCrunch atribuye a la startup india C2i Semiconductors es más que una noticia de capital riesgo. Es una señal de hacia dónde se desplaza el poder en la cadena de valor de la IA: hacia quienes sepan exprimir al máximo cada megavatio desde la subestación eléctrica hasta el propio GPU.

2. La noticia en breve

Según TechCrunch, C2i Semiconductors, con sede en Bengaluru, ha cerrado una ronda Serie A de 15 millones de dólares liderada por Peak XV Partners, con la participación de Yali Deeptech y TDK Ventures. En total, la empresa, fundada en 2024 por exdirectivos de Texas Instruments especializados en energía y otros cofundadores, suma 19 millones de dólares recaudados.

C2i desarrolla una solución de alimentación de «extremo a extremo» que cubre todo el recorrido de la energía: desde el bus de alta tensión del centro de datos hasta el encapsulado del GPU. En lugar de mejorar fuentes y convertidores aislados, la compañía trata la conversión, el control y el empaquetado como una única plataforma integrada, un sistema “de la red al GPU”.

TechCrunch explica que C2i estima que este enfoque podría reducir las pérdidas de conversión en torno a diez puntos porcentuales, es decir, del orden de 100 kilovatios menos desperdiciados por cada megavatio consumido. En el mismo artículo se citan informes de BloombergNEF y Goldman Sachs que prevén que el consumo eléctrico de los centros de datos podría casi triplicarse para 2035 y crecer alrededor de un 175 % hasta 2030 frente a 2023.

Los primeros chips de C2i deberían salir de fábrica entre abril y junio, tras lo cual se harán pruebas con operadores de centros de datos y grandes proveedores cloud en Estados Unidos y Asia.

3. Por qué importa

Esta operación no va sobre un nuevo modelo de IA ni sobre otra GPU exótica, sino sobre la capa física que permite que todo eso exista. Para los hyperscalers, una vez amortizados los edificios y los servidores, el gran coste de operación es la energía. Y cuando hablamos de clusters de entrenamiento de decenas de megavatios, un 10 % de mejora ya no es una optimización, es una línea nueva en la cuenta de resultados.

En la práctica, si C2i u otras empresas similares logran lo que prometen, los ganadores son claros. Los proveedores cloud pueden servir más cómputo con la misma potencia contratada o reducir sus facturas energéticas. Esto se traduce en más margen o en precios más agresivos para captar cuota de mercado en servicios de IA.

Los usuarios –desde startups latinoamericanas que entrenan modelos de lenguaje hasta bancos españoles que afinan modelos de riesgo– se benefician indirectamente de una infraestructura más barata y, potencialmente, más limpia. También hay un argumento climático: cada kilovatio que no se pierde en calor es un kilovatio menos que hay que generar y refrigerar.

En el lado perdedor, los proveedores tradicionales de fuentes de alimentación modulares pueden verse desplazados si el valor se concentra en plataformas integradas diseñadas «de la red al chip». Y los países o regiones con redes saturadas tendrán aún más presión: si no consiguen eficiencia y nuevas renovables, verán cómo los grandes centros de datos –y la inversión asociada– se van a otros lugares.

4. El panorama más amplio

El movimiento de C2i encaja con varias tendencias paralelas en la industria. Por un lado, el final práctico de las ganancias fáciles en eficiencia de procesadores: los grandes saltos de rendimiento en IA vienen acompañados de consumos cada vez mayores. Un supercluster para entrenar modelos de última generación puede consumir tanto como una ciudad mediana.

Por otro, la evolución acelerada de la propia arquitectura de los centros de datos. Se pasa de racks pensados para CPUs generales a pods de GPUs densísimos, con refrigeración líquida directa y distribuciones en DC de 48 voltios o superior. La clásica cadena de conversiones –alta tensión, media, baja, varias etapas de DC‑DC hasta llegar al silicio– se ha convertido en un monstruo térmico.

TechCrunch recuerda que actualmente esa cadena puede desperdiciar fácilmente entre un 15 % y un 20 % de la energía como calor. A escala global, son gigavatios “tirados” solo por ineficiencias de diseño. No es raro que aparezcan startups que plantean atacar la cadena entera y no solo un eslabón.

Históricamente, este espacio ha estado dominado por gigantes de la electrónica de potencia y por ciclos de adopción muy conservadores. Que un fondo como Peak XV apueste por rediseñar todo el camino de la energía hasta el GPU indica que la presión sobre el modelo actual es ya insostenible.

También nos dice algo sobre la madurez del ecosistema de semiconductores en India: pasar de ser un gran centro de diseño subcontratado a lanzar productos propios que aspiran a venderse a los mayores operadores del mundo.

5. El ángulo europeo e iberoamericano

Para Europa, donde coexisten una transición energética exigente y una fuerte ambición digital, el tema es especialmente sensible. Países como Irlanda, los Países Bajos o Alemania han empezado a poner límites a nuevos centros de datos por temor a saturar la red o a incumplir objetivos climáticos. Al mismo tiempo, la UE quiere ser relevante en IA sin hipotecar sus metas de emisiones.

Una tecnología que mejore la eficiencia global del “grid‑to‑GPU” encaja perfectamente en ese rompecabezas. Incluso si la mayoría del cómputo de IA que usan empresas españolas o latinoamericanas se ejecuta en centros de datos en EE. UU. o Asia, el coste de la energía está incorporado a cada factura cloud. Menos pérdidas internas significan, con el tiempo, mejores precios o más capacidad disponible.

Las normativas europeas –desde el Reglamento de Eficiencia Energética hasta el paquete de finanzas sostenibles y el futuro Reglamento de IA– irán empujando a los grandes proveedores a demostrar mejoras concretas en consumo. Poder decir “hemos reducido un 10 % las pérdidas internas en conversión” es un argumento mucho más sólido que plantar paneles solares en la azotea para la foto.

En el mundo hispanohablante hay otra dimensión: América Latina. La región tiene abundantes recursos renovables (hidroeléctrica en Brasil y Colombia, solar en Chile y México), pero también redes frágiles y marcos regulatorios complejos. La llegada de grandes centros de datos –como los que ya se anuncian en Chile, México o España– reabrirá el debate sobre quién se queda con la energía barata: la industria local o las granjas de servidores de empresas globales.

Si tecnologías tipo C2i ayudan a reducir el impacto de esos centros de datos en la red y en las emisiones, la negociación política cambia de tono.

6. Mirando hacia adelante

Los próximos seis a doce meses serán el primer examen serio para C2i. Según TechCrunch, las primeras obleas de silicio volverán pronto de la fábrica y los resultados en pruebas piloto con hyperscalers dirán si las promesas de eficiencia se sostienen fuera del PowerPoint.

Aun así, conviene ser realista: la capa de alimentación es una de las más conservadoras del stack. Ningún operador quiere descubrir un fallo de diseño en plena producción. Es probable que, incluso si las pruebas van bien, veamos una adopción gradual, primero en nuevos despliegues y solo después en migraciones de infraestructuras existentes. El horizonte razonable para impactos masivos está más cerca del final de la década que del año que viene.

Para los lectores –ya sean CTOs en Madrid o fundadores en Ciudad de México– hay varias señales a vigilar: si los grandes fabricantes de electrónica de potencia responden con soluciones equivalentes; si los informes de sostenibilidad de los hyperscalers empiezan a hablar explícitamente de eficiencia en la cadena de conversión; y si los reguladores incorporan métricas de este tipo en los permisos para nuevos centros de datos.

En esa intersección entre ingeniería eléctrica, regulación y negocio puede que nazca la próxima gran ola de oportunidades alrededor de la IA.

7. Conclusión

La explosión de la IA ya no está limitada solo por cuántas GPUs se pueden comprar, sino por cuántos megavatios se pueden suministrar –y cuánto estamos dispuestos a pagar, en dinero y en emisiones. El caso de C2i, recogido por TechCrunch, ilustra un cambio de foco: de la obsesión por el modelo al trabajo, menos visible pero igual de decisivo, de domar los electrones. La pregunta para Europa y para el mundo hispanohablante es simple: ¿queremos ser solo usuarios de la infraestructura de IA, o también protagonistas en la tecnología que hace posible alimentar esa inteligencia artificial?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.