La verdadera guerra de la IA ya no es por GPUs, sino por kilovatios
Durante dos años el símbolo de poder en inteligencia artificial han sido las GPUs. Pero en silencio ha aparecido otro límite mucho más físico: la electricidad. El nuevo protagonista de esa batalla es Niv-AI, una startup con sede en Tel Aviv que sale del modo sigiloso con 12 millones de dólares para exprimir mejor la potencia disponible en los centros de datos. Si aciertan, el próximo salto de rendimiento no vendrá de una nueva arquitectura de Nvidia, sino de cómo gestionamos cada milisegundo de consumo eléctrico. Analicemos qué propone realmente Niv-AI, por qué importa y qué significa para Europa y el mundo hispanohablante.
La noticia en breve
Según informa TechCrunch, Niv-AI ha anunciado una ronda seed de 12 millones de dólares y su salida del modo stealth. Su objetivo es resolver un problema creciente en los centros de datos dedicados a IA: los picos de demanda eléctrica a escala de milisegundos cuando miles de GPUs cambian entre cálculo y comunicaciones.
La empresa, fundada el año pasado por el CEO Tomer Timor y el CTO Edward Kizis en Tel Aviv, cuenta entre sus inversores con Glilot Capital, Grove Ventures, Arc VC, Encoded VC, Leap Forward y Aurora Capital Partners. No ha hecho pública su valoración.
Niv-AI está desplegando sensores a nivel de rack que miden el consumo de las GPUs con resolución de milisegundos, tanto en hardware propio como en colaboración con centros de datos socios. Con esos datos quieren construir perfiles eléctricos detallados para distintos tipos de tareas de deep learning.
El siguiente paso es entrenar un modelo de IA que actúe como “copiloto” para los ingenieros de centros de datos: predecir y sincronizar cargas, suavizar picos y permitir que las instalaciones utilicen más capacidad sin superar los límites de la red. La compañía espera tener sistemas operativos en varios centros de datos estadounidenses en un plazo de seis a ocho meses.
Por qué importa
Hasta ahora el relato era sencillo: acumular GPUs equivalía a ganar la carrera de la IA. La propuesta de Niv-AI apunta a un cambio de paradigma: el factor crítico ya no es cuántos chips tienes, sino cuánta de esa potencia puedes mantener encendida sin romper la red eléctrica ni tu cuenta de resultados.
Según recoge TechCrunch, muchos centros de datos hoy se ven obligados a:
- Limitar el uso de sus GPUs hasta en un 30 %, o
- Pagar por almacenamiento temporal de energía para cubrir los picos de demanda.
Ambas opciones significan lo mismo: retorno reducido sobre inversiones millonarias en hardware y en nuevas instalaciones.
Los ganadores potenciales si Niv-AI acierta serían:
- Hiperescaladores y grandes laboratorios de IA: obtener un 10–20 % más de capacidad efectiva de clusters ya instalados equivale a añadir un centro de datos mediano sin construir nada nuevo.
- Operadores de red y utilities: una demanda más predecible y “suavizada” reduce el riesgo de estrés en sistemas eléctricos ya tensionados.
- Proveedores de nube y colocation más pequeños, que podrían competir mejor en eficiencia y sostenibilidad, no solo en tamaño.
Entre los perdedores potenciales, los proveedores de baterías y soluciones diseñadas únicamente para aplacar picos, y cualquier actor cuyo plan de negocio se base en “comprar más GPUs” en lugar de optimizar lo que ya tiene.
En el fondo, Niv-AI ataca una capa de desperdicio poco visible: no la ineficiencia de los modelos ni la refrigeración, sino la falta de inteligencia en la relación entre GPUs y red eléctrica. Convertir ese caos en un flujo controlable es, en la práctica, vender una ampliación de capacidad vía software.
El panorama más amplio
Visto aisladamente, Niv-AI podría parecer “otro” startup de gestión energética. En contexto, es un síntoma claro de algo mayor: la IA está chocando con límites físicos de infraestructura.
En los últimos años hemos visto:
- Ciudades como Dublín, Ámsterdam o varias urbes de EE. UU. cuestionar la expansión de centros de datos por su impacto en redes eléctricas y consumo de agua.
- Proyectos de grandes nubes retrasados o rediseñados porque la conexión prometida a la red no llegaba a tiempo.
- Roadmaps de hardware que mejoran el rendimiento por vatio, pero no lo suficiente para compensar el crecimiento explosivo de la demanda de cómputo para IA.
Nvidia ya habla abiertamente de “fábricas de IA” y subraya que cada vatio no utilizado es ingreso perdido. Ese lenguaje importa: en el momento en que la energía se entiende como materia prima central, la analítica de consumo y la integración con la red se convierten en factores de competitividad, no en detalles operativos.
Históricamente no es la primera vez que ocurre algo así. En los inicios de la web a gran escala, el indicador clave eran las CPUs. Luego llegaron Google, Facebook y compañía, y el foco se desplazó hacia el diseño integral del data center, el PUE, la refrigeración y el tejido de red. Nació toda una industria de software y servicios para optimizar esa capa.
Lo que propone Niv-AI es la siguiente iteración: control temporal fino del comportamiento eléctrico de las GPUs. Es similar a lo que hicieron las “smart grids” y las plantas virtuales de generación en el lado de la oferta, pero ahora aplicado dentro del centro de datos, en el lado de la demanda.
Competitivamente, surge una pregunta obvia: ¿por qué no lo construyen directamente Nvidia, AMD o los propios hiperescaladores? Probablemente ya trabajan en partes de la solución, desde telemetría de bajo nivel hasta planificadores de tareas más “conscientes” de la energía. Que aún así haya espacio para Niv-AI indica dos cosas:
- El problema es lo bastante complejo – une hardware, ingeniería eléctrica e IA – como para justificar un especialista.
- Muchos operadores quieren capas de inteligencia neutrales, no herramientas atadas a un único proveedor de GPUs o a una sola nube.
El ángulo europeo e hispanohablante
En Europa el tema es especialmente sensible: redes eléctricas fragmentadas, precios de la energía elevados y una opinión pública muy atenta a la sostenibilidad. Varios países ya han cuestionado o limitado nuevos centros de datos por su consumo.
Las iniciativas europeas encajan con esta preocupación: Pacto Verde, directivas de eficiencia energética para centros de datos, CSRD para reportar impacto ambiental, y el futuro Reglamento de IA, que inevitablemente mirará también la huella de los grandes modelos.
Tener herramientas capaces de demostrar, con datos de milisegundos, que un centro de datos usa la energía de forma responsable y colabora con la red puede pasar de ventaja competitiva a requisito regulatorio.
Para proveedores en España y Europa Latina, e incluso para hubs emergentes en América Latina (Chile, México, Brasil, Colombia), hay una oportunidad clara:
- Posicionarse como infraestructura de IA eficiente y “grid friendly”, aprovechando abundancia de renovables (por ejemplo, solar en el sur de España o Chile, eólica en el Atlántico) y demostrando flexibilidad en la demanda.
En América Latina, donde la expansión de centros de datos va de la mano de grandes inversiones de hiperescaladores, soluciones al estilo de Niv-AI pueden ayudar a evitar choques políticos por el impacto en la red y el coste de la electricidad para hogares y pymes.
En definitiva, el mensaje para reguladores en Bruselas, Madrid, Ciudad de México o Santiago es similar: la conversación sobre IA no puede limitarse a datos personales y algoritmos. La infraestructura eléctrica forma parte del mismo debate.
Mirando hacia adelante
Si Niv-AI y otros jugadores similares cumplen sus promesas, podemos anticipar varios cambios en los próximos 12–24 meses.
1. Planificación de cargas de IA basada en energía. Los planificadores de tareas en clusters de GPUs empezarán a tener en cuenta no solo la ocupación y la latencia, sino también límites de potencia, precios horarios y disponibilidad de renovables. Entrenamientos flexibles podrían desplazarse a franjas con energía más barata o limpia.
2. Centros de datos como recurso de flexibilidad para la red. Con buena predicción y control, los grandes clusters de IA podrían actuar como “consumidores flexibles”: reducir o desplazar consumo en momentos críticos y cobrar por ese servicio en mercados de capacidad o servicios auxiliares.
3. Interés de compra por parte de incumbentes. Si Niv-AI demuestra en esos primeros centros de datos estadounidenses que puede liberar capacidad sin nuevos cables ni edificios, es candidato obvio para ser adquirido por un cloud gigante, un fabricante de GPUs o incluso una gran utility.
Quedan dudas razonables: ¿es viable instalar estos sensores de forma masiva en infraestructuras ya existentes? ¿Hasta qué punto abrirán los fabricantes de GPUs la telemetría necesaria para terceras partes? ¿Cómo de bien se adaptarán modelos entrenados en unas pocas redes norteamericanas a realidades tan distintas como la europea o la latinoamericana?
Aun así, la tendencia es clara: ignorar la curva de potencia ya no es opción.
En resumen
La salida de Niv-AI del modo sigiloso revela algo más profundo que el nacimiento de una nueva startup: marca el cambio de foco en la carrera de la IA, desde la cantidad de GPUs hacia cómo se gestionan sus kilovatios. Para proveedores y reguladores en Europa y el mundo hispanohablante, esto es una advertencia y una oportunidad. Quien aprenda a orquestar no solo parámetros y datos, sino también vatios y milisegundos, tendrá una ventaja estructural. La pregunta es sencilla: ¿seguirá su estrategia basada en comprar más hardware, o en exprimir con inteligencia lo que ya tiene?



