Titular e introducción
Desde fuera, el problema de la IA parece ser la falta de GPUs. Desde dentro de los clústeres, el drama es otro: tarjetas caras sin uso, pods sobredimensionados y facturas de nube que crecen aunque el tráfico no. La ronda de 130 millones de dólares de ScaleOps pone el foco justo ahí: el límite ya no es el hardware, sino cómo lo gestionamos.
En este análisis veremos qué hay realmente detrás de esta financiación, quién gana y quién pierde con la “infraestructura autónoma”, cómo encaja en la ola FinOps y de eficiencia en IA, y qué implica para los mercados europeos e hispanohablantes, desde Madrid hasta Ciudad de México.
La noticia en breve
Según TechCrunch, ScaleOps ha levantado 130 millones de dólares en una ronda Serie C que valora la compañía en 800 millones. La startup, con sede en Nueva York y raíces en Israel, fue fundada en 2022 por Yodar Shafrir, exingeniero de Run:ai (más tarde adquirida por Nvidia), y desarrolla software que ajusta automáticamente, en tiempo real, los recursos de cómputo, memoria, almacenamiento y red en entornos Kubernetes.
La empresa afirma que su plataforma puede reducir hasta en un 80 % los costes de infraestructura en la nube y de IA, al optimizar de forma continua el uso de recursos, especialmente GPUs. A diferencia de muchas herramientas que se centran en visibilidad y métricas, ScaleOps se posiciona como una solución totalmente autónoma, diseñada de cero para producción.
Entre sus clientes figuran grandes compañías como Adobe, Wiz, DocuSign, Salesforce y Coupa. Desde su Serie B de 58 millones de dólares en noviembre de 2024, la startup asegura haber crecido más de un 450 % interanual y haber triplicado su plantilla, con planes de volver a triplicarla gracias a este nuevo capital.
Por qué importa
El mensaje de fondo de ScaleOps es incómodo para muchos equipos técnicos: el cuello de botella de la IA ya no es la potencia de cálculo, sino la capacidad humana para gestionarla bien.
Kubernetes se ha convertido en el estándar de facto para desplegar microservicios y, cada vez más, cargas de trabajo de IA. Pero fue diseñado con configuraciones estáticas en mente: definimos peticiones de CPU/RAM, límites y reglas de autoscaling y… nos olvidamos. Mientras tanto, el comportamiento real de las aplicaciones cambia: nuevos modelos, picos de tráfico, pruebas A/B.
Ante la incertidumbre, las empresas tienden a sobreaprovisionar. Es comprensible: nadie quiere ser la persona que “ahorró demasiado” y provocó una caída en producción. Pero esa aversión al riesgo se traduce en millones tirados a la basura y en un uso ineficiente de GPUs que ya son escasas.
Si la propuesta de ScaleOps funciona, los beneficiados son claros:
- Direcciones financieras y equipos FinOps, que obtienen algo más que gráficos: una palanca real para bajar costes sin enfrentar a negocio y tecnología.
- Equipos de plataforma / DevOps, que pueden delegar tareas repetitivas de ajuste de capacidad y centrarse en automatizaciones de más alto nivel.
- Equipos de IA, que ganan estabilidad de latencias y rendimiento sin convertirse en expertos en Kubernetes.
¿Quién puede salir perdiendo? Las herramientas que se quedan en la observabilidad sin acción. Si un motor autónomo puede tomar decisiones mejor que un ser humano a las 3 de la mañana, los dashboards dejan de ser el producto final y pasan a ser solo un insumo.
La foto grande
El caso de ScaleOps encaja en varias tendencias que llevan tiempo cocinándose.
1. FinOps busca dejar de ser un “PowerPoint department”.
En los últimos años, muchas empresas adoptaron prácticas FinOps: etiquetado de recursos, presupuestos por equipo, cuadros de mando detallados. Eso resolvió la visibilidad, pero no la acción continua. Los ingenieros están saturados y no pueden revisar cada recomendación. El siguiente paso lógico es automatizar la respuesta: que el sistema no solo avise de que algo está sobredimensionado, sino que lo corrija en caliente.
2. La pila de IA se está estandarizando sobre Kubernetes.
Aunque el entrenamiento de modelos grandes siga haciendo ruido mediático, el grueso del gasto recurrente viene de la inferencia y de los servicios que rodean a los modelos (APIs, bases de datos vectoriales, pipelines de datos). Y cada vez más, todo eso corre sobre Kubernetes, tanto en nubes públicas como en data centers privados. Eso convierte a K8s en el punto de apoyo ideal para un optimizador transversal como ScaleOps.
3. De la SRE artesanal a la infraestructura “self-driving”.
Hemos visto esta transición antes. Las bases de datos pasaron de necesitar DBAs que ajustaran a mano cada consulta a usar optimizadores sofisticados. Los protocolos de red aprendieron a controlar la congestión automáticamente. La gestión de recursos en la nube aún está en esa fase “artesanal”, con mucho conocimiento tribal. Es lógico que aparezcan capas de automatización que conviertan ese conocimiento en algoritmos.
El espacio competitivo ya está animado: Cast AI, Kubecost, Spot y otros atacan el despilfarro en la nube desde distintos ángulos. Pero muchos de esos productos siguen siendo, en esencia, sistemas de recomendación. ScaleOps intenta ir un paso más allá: ser el “piloto automático” al que se le confía el clúster de producción.
Eso tiene una implicación importante: el activo clave no es solo la tecnología, sino la confianza. Un error de optimización que cause una caída en un banco o una fintech puede hundir años de reputación. Por eso este segmento tardará en madurar, pero quien lo domine tendrá una posición muy difícil de desplazar.
El ángulo europeo e hispano
En Europa, y en buena parte de Latinoamérica, la conversación sobre IA no se limita a “cuánto cuesta”, sino también a quién controla los datos, qué energía se consume y qué regulación se aplica.
Por un lado, la presión regulatoria en la UE es fuerte: RGPD, la Ley de Servicios Digitales (DSA), la Ley de Mercados Digitales (DMA) y el futuro Reglamento de IA exigirán más controles, auditorías y documentación, especialmente en sistemas de alto riesgo. Eso implica costes fijos que no se pueden recortar fácilmente. Optimizar infraestructura se convierte así en una especie de “subvención interna” para pagar el precio de cumplir la ley.
Por otro lado, está el debate sobre soberanía digital. España, Francia, Alemania y otros países impulsan nubes soberanas y proveedores locales (OVHcloud, Scaleway, Telefónica Tech, etc.), mientras Latinoamérica ve crecer data centers de actores regionales junto a los grandes hiperescaladores. Casi todos se apoyan en Kubernetes. Una capa de optimización independiente del proveedor puede encajar muy bien en esa estrategia multi-cloud y soberana.
Además, la sensibilidad al precio es alta en muchas economías hispanohablantes. Startups en Ciudad de México, Bogotá o Buenos Aires no pueden quemar presupuesto en GPUs ociosas al ritmo de Silicon Valley. Para ellas, una herramienta que logre acercarse a la promesa de “80 % menos coste” no es un nice-to-have, sino la diferencia entre poder ofrecer IA en producción… o no hacerlo.
En España, donde el ecosistema cloud-native en Madrid y Barcelona empieza a madurar, veremos seguramente a integradores y consultoras especializadas posicionarse como socios de este tipo de plataformas, conectándolas con bancos, telcos y administraciones públicas sujetas a estrictos requisitos de continuidad de negocio.
Mirando hacia adelante
La pregunta clave no es si vamos hacia una infraestructura más autónoma, sino quién se quedará con el timón.
En los próximos tres a cinco años podemos imaginar varios caminos:
- Escenario “vendido al gigante”: un hiperescalador o un gran proveedor de GPUs compra ScaleOps para integrar la optimización en su nube y usarla como ventaja competitiva.
- Escenario “capa estándar”: ScaleOps (o un rival) se convierte en el equivalente a un “sistema operativo” para Kubernetes multi-cloud, integrado con CI/CD, observabilidad y seguridad.
- Escenario “nicho rentable”: foco casi exclusivo en clústeres de alto valor (banca, seguros, comercio electrónico a gran escala), donde cada punto porcentual de eficiencia vale millones.
Factores a vigilar:
- ¿Hasta qué punto amplía ScaleOps su alcance más allá de Kubernetes hacia serverless, plataformas de datos o incluso edge computing?
- ¿Cómo responden los reguladores europeos y latinoamericanos a la idea de sistemas que toman decisiones de infraestructura de forma autónoma? ¿Veremos requisitos de trazabilidad similares a los que se discuten para la IA generativa?
- ¿Desarrollarán proveedores europeos o latinoamericanos alternativas propias, más alineadas con sus marcos regulatorios y de soberanía de datos?
El riesgo principal es evidente: un fallo sonado de optimización que deje fuera de servicio a un banco o a una gran plataforma de e-commerce y genere desconfianza generalizada. La oportunidad, también: ser esa capa silenciosa que permite a miles de empresas usar IA intensiva sin arruinarse ni bloquearse en decisiones técnicas.
En resumen
La ronda de 130 millones de dólares de ScaleOps confirma que la fiebre del oro de la IA entra en fase de madurez: ya no basta con comprar más GPUs, hay que exprimir las que ya tenemos. La infraestructura autónoma sobre Kubernetes apunta a convertirse en requisito básico para desplegar IA a escala, especialmente en entornos regulados y sensibles al coste como Europa y gran parte de Latinoamérica. La cuestión para los lectores no es si adoptarla, sino cuándo y con qué grado de control interno frente a dependencia de proveedores externos.



