Sarvam y la revancha del “suficientemente bueno”: la apuesta india que incomoda a la IA cerrada

19 de febrero de 2026
5 min de lectura
Ilustración de centros de datos en India conectados con desarrolladores de IA de código abierto

1. Titular e introducción

Mientras el debate global se obsesiona con quién tiene el modelo más grande y caro, Sarvam –un laboratorio indio relativamente joven– plantea otra pregunta: ¿y si la verdadera batalla se libra en el terreno de lo suficientemente bueno, eficiente y abierto? Sus nuevos modelos no buscan destronar a OpenAI en benchmarks, sino demostrar que se puede hacer IA útil y competitiva sin depender de cajas negras estadounidenses o chinas.

En este análisis repasamos qué ha presentado Sarvam, por qué es un experimento clave para la viabilidad del código abierto en IA, cómo encaja en la carrera por la soberanía digital y qué implicaciones tiene para Europa y también para los mercados hispanohablantes en América Latina.


2. La noticia en breve

Según informa TechCrunch, el laboratorio indio Sarvam anunció en el India AI Impact Summit de Nueva Delhi una nueva generación de modelos. El paquete incluye dos grandes modelos de lenguaje de 30.000 y 105.000 millones de parámetros con arquitectura mixture‑of‑experts (MoE), un modelo de texto a voz, otro de voz a texto y un modelo de visión para analizar documentos.

Sarvam asegura que ambos LLM se entrenaron desde cero, sin partir de modelos abiertos existentes. El modelo de 30B se preentrenó con unos 16 billones de tokens, mientras que el de 105B utilizó “billones” de tokens en varios idiomas indios. El primero ofrece una ventana de contexto de 32.000 tokens, el segundo de 128.000, orientados respectivamente a conversación en tiempo real y tareas de razonamiento complejas.

El entrenamiento se apoyó en recursos de computación del programa público IndiaAI Mission, con soporte de infraestructura del operador de centros de datos Yotta y apoyo técnico de Nvidia. Sarvam afirma que planea publicar ambos modelos como open source, aunque aún no ha detallado si liberará solo los pesos o también datos y código de entrenamiento. Fundada en 2023, la empresa ha levantado más de 50 millones de dólares de fondos como Lightspeed, Khosla y Peak XV.


3. Por qué importa

Sarvam cristaliza una tesis que cada vez se escucha más en los pasillos de la industria: para la gran mayoría de casos de uso empresariales, modelos medianos, eficientes y abiertos serán suficientes… y mucho más baratos que los sistemas cerrados de frontera.

La arquitectura MoE es la clave técnica. Solo se activa una fracción de los parámetros en cada paso, lo que permite comportarse como un modelo mayor manteniendo costes de inferencia más cercanos a un modelo denso de tamaño medio. Si los modelos de 30B y 105B de Sarvam logran un rendimiento competitivo con un coste por consulta sensiblemente menor, se vuelven especialmente interesantes para pymes, gobiernos y startups que no pueden —o no quieren— pagar las tarifas de los hyperscalers.

Los ganadores potenciales:

  • El ecosistema tecnológico indio: desde startups hasta gigantes de servicios TI que buscan modelos adaptados a lenguas locales sin dependencia directa de Estados Unidos.
  • Administraciones públicas que quieren infraestructuras de IA que puedan auditar y condicionar políticamente.
  • Empresas globales orientadas al open source, que necesitan desplegar modelos en sus propias nubes o centros de datos por motivos regulatorios.

¿Quién puede perder?

  • Vendedores indios de IA cerrada cuyo único valor diferencial era “indianizar” modelos extranjeros.
  • Proveedores comerciales de gama media, que verán cuestionado su precio si se consolidan alternativas abiertas suficientemente buenas.

El gran interrogante es qué entiende Sarvam por open source. Un lanzamiento realmente abierto —pesos, documentación detallada de datos y código bajo licencia permisiva— sería un hito. Un esquema estilo Llama (pesos abiertos, datos opacos, licencia restrictiva) seguiría siendo útil, pero más cercano al “open weight” que al software libre clásico.

En cualquier caso, Sarvam está optimizando para casos de uso concretos, no para rankings: asistentes de voz en idiomas indios, chats para atención ciudadana, automatización de back‑office. Ahí es donde está el dinero, también en España y América Latina.


4. El panorama más amplio

El anuncio de Sarvam encaja en varias tendencias que llevan tiempo gestándose.

Primero, el avance de los modelos soberanos y regionales. Europa tiene a Mistral o Aleph Alpha; el Golfo impulsa modelos centrados en árabe; Brasil y otros países latinoamericanos exploran alternativas propias en portugués y español. India se suma con una apuesta clara por hindi y otras lenguas locales. La lógica es evidente: las grandes economías no quieren depender exclusivamente de APIs cerradas controladas desde Silicon Valley o Pekín.

Segundo, la consolidación de la estrategia de modelos “de peso medio”. Aunque la atención mediática se la llevan los modelos con decenas de billones de parámetros, en producción cada vez más organizaciones trabajan con rangos 7B–100B combinados con técnicas de cuantización, destilación y MoE. Llama y Mistral demostraron que se puede llegar muy lejos ahí; Sarvam lleva ese enfoque al subcontinente indio.

Tercero, la computación como política industrial. India utiliza la IndiaAI Mission para subvencionar GPU y crear un polo local de entrenamiento de modelos, algo que recuerda a iniciativas europeas como EuroHPC o proyectos nacionales de supercomputación en España, Francia o Alemania. Los gobiernos empiezan a tratar la infraestructura de IA como trataron en su día a las redes eléctricas: cara, estratégica y demasiado importante para dejarla solo al mercado.

Mirando atrás, no es la primera vez que pasa. En telecomunicaciones, muchos países construyeron operadores públicos para no quedar a merced de compañías extranjeras. En la nube, Europa reaccionó tarde y hoy depende en gran medida de tres gigantes estadounidenses. Con la IA, tanto la UE como India intentan ser proactivas desde el principio.

Sarvam es diminuta frente a OpenAI o Google, pero juega con otras ventajas: datos locales, apoyo político, una narrativa de soberanía tecnológica y una cultura muy arraigada de servicios TI orientados al cliente internacional. No necesita ganar en todo el mundo; le basta con ser la referencia en India y un proveedor atractivo para integradores globales. Eso ya bastaría para alterar el equilibrio de poder en el ecosistema de modelos abiertos.


5. La perspectiva europea e hispanohablante

Para Europa, Sarvam actúa como espejo incómodo. Para el mundo hispanohablante —tanto en España como en América Latina— ofrece pistas claras sobre posibles caminos.

Por el lado europeo, refuerza la apuesta por modelos abiertos compatibles con el marco regulatorio de la UE: GDPR, Ley de Servicios Digitales, Ley de Mercados Digitales y el recién aprobado Reglamento de IA (AI Act). La UE discute cómo tratar los modelos abiertos para no ahogar el ecosistema; India, en cambio, se permite moverse más rápido gracias a un marco regulatorio menos denso.

Para España y América Latina hay, además, un matiz práctico: gran parte de los grandes BPO y centros de atención al cliente que atienden a usuarios hispanohablantes se ubican en India, Filipinas o Latinoamérica. Si las empresas indias adoptan masivamente modelos como los de Sarvam, es probable que acaben gestionando consultas en español, catalán o portugués —aunque los modelos hayan sido optimizados inicialmente para hindi.

A la vez, Europa y América Latina tienen algo en común con India: idiomas “medianos” o “pequeños” frente al dominio del inglés. El movimiento de Sarvam es un recordatorio de que no hace falta esperar a que una gran big tech se acuerde de tu idioma; se puede construir un stack propio sobre modelos abiertos.

La cuestión es si la regulación europea acabará siendo más dura con los desarrolladores locales de modelos abiertos que con la importación de modelos abiertos entrenados en jurisdicciones con menos exigencias. Si ocurre, Europa podría repetir el patrón de la nube: reguladora fuerte, pero dependiente tecnológicamente.


6. Mirando hacia adelante

¿Qué cabe esperar en los próximos 12–24 meses?

  1. Definición de la licencia. Si Sarvam opta por una licencia permisiva y publica pesos con buena documentación y benchmarks, sus modelos podrían volverse estándar de facto en plataformas como Hugging Face, también para proyectos hispanos que necesiten IA barata y adaptable.

  2. Rendimiento en otros idiomas. El grado de competencia en inglés y en pruebas multilingües marcará hasta dónde pueden usarse en España y América Latina. Si el rendimiento fuera razonable, podrían ser una base interesante para afinar modelos en español y portugués.

  3. Capacidad de construir ecosistema. Que existan modelos es solo el primer paso; faltan herramientas de inferencia, recetas de fine‑tuning, sistemas de seguridad, monitorización. Sarvam habla de productos como “Sarvam for Work” y la plataforma conversacional Samvaad, lo que apunta a una ambición de plataforma más que de simple proveedor de pesos.

  4. Estabilidad de la apuesta estatal. Tanto India como la UE deberán demostrar continuidad en sus programas de apoyo a la IA. En América Latina, donde los ciclos políticos son inestables, este es quizá el punto más delicado para replicar el modelo.

  5. Cooperaciones cruzadas. Es plausible imaginar alianzas: modelos europeos para lenguas de la UE combinados con modelos indios para idiomas del sur global, empaquetados por grandes consultoras que operan en ambos lados del Atlántico.

Mi pronóstico: en tres años, la mayoría de grandes organizaciones operará con una cartera de modelos —un frontier cerrado para tareas críticas y varios modelos abiertos especializados para soporte, código, documentos y voz. Si Sarvam se posiciona como la opción abierta por defecto para asistentes de voz y chat multilingüe, tendrá un rol relevante también en proyectos dirigidos a usuarios hispanohablantes.


7. Conclusión

Los nuevos modelos de Sarvam no pretenden coronarse como la IA más inteligente del planeta, sino cuestionar la premisa de que solo los gigantes cerrados importan. Al combinar eficiencia MoE, cómputo financiado por el Estado y una narrativa de apertura, India está poniendo a prueba si “suficientemente bueno y abierto” puede ganar a “lo mejor pero cerrado” en muchos casos reales.

Para Europa y el mundo hispanohablante, la pregunta es directa: ¿queremos ser meros usuarios de esta nueva capa de infraestructura o participar en su construcción? Y, sobre todo, ¿estamos dispuestos a que nuestras leyes y presupuestos respalden de verdad el desarrollo de modelos abiertos competitivos?

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.