El ataque a Mercor destapa el eslabón más débil de la IA: la cadena de suministro open source

1 de abril de 2026
5 min de lectura
Ilustración de una red de componentes de software con un nodo vulnerable destacado

Titular e introducción

El incidente de Mercor no va de un «startup más hackeada». Va de cómo toda la revolución de la IA se apoya en piezas open source casi invisibles, mantenidas por muy pocas personas y ahora en el punto de mira de los atacantes. A través de LiteLLM, una librería popular para trabajar con modelos de lenguaje, un grupo de hackers habría llegado a un unicornio de 10.000 millones de dólares que colabora con OpenAI, Anthropic y otros gigantes. En este análisis veremos qué ha pasado, por qué LiteLLM es un cuello de botella peligroso, qué implica para Europa y el mundo hispanohablante y hacia dónde se mueve la industria.


La noticia en breve

Según informa TechCrunch, Mercor, una plataforma de recruiting de expertos para proyectos de IA, ha confirmado un incidente de seguridad vinculado a un ataque a la cadena de suministro que afectó al proyecto open source LiteLLM.

De acuerdo con TechCrunch:

  • Mercor indicó que fue «una de miles de compañías» impactadas por el compromiso de LiteLLM, que investigadores de seguridad atribuyen a un grupo llamado TeamPCP.
  • El grupo de extorsión Lapsus$ afirmó por su lado haber obtenido datos de Mercor y publicó en su sitio de filtraciones un supuesto ejemplo: referencias a datos de Slack y sistemas de tickets internos, además de dos vídeos de interacciones entre los sistemas de IA de Mercor y contratistas.
  • Mercor aseguró haber actuado con rapidez para contener el incidente, iniciar la remediación y contratar a expertos forenses externos, pero declinó responder si datos de clientes o contratistas habían sido accedidos o extraídos.
  • En el caso de LiteLLM, el código malicioso fue detectado y eliminado en cuestión de horas; no obstante, la librería suma millones de descargas diarias, según cifras de Snyk citadas por TechCrunch.

El alcance real del incidente y la posible exposición de datos en otras empresas aún se está investigando.


Por qué importa

Mercor ocupa una posición muy delicada en la cadena de valor de la IA. No es solo una bolsa de trabajo: coordina a miles de expertos —médicos, abogados, científicos— que diseñan y ejecutan tareas para entrenar y evaluar modelos de IA. La propia empresa habla de más de 2 millones de dólares en pagos diarios.

Eso significa que, en caso de fuga real de datos, podrían verse comprometidos:

  • datos personales y financieros de contratistas altamente cualificados,
  • instrucciones y prompts de entrenamiento proporcionados por clientes como OpenAI y Anthropic,
  • diálogos completos entre humanos y sistemas de IA, con casos de uso sensibles.

Más allá del daño puntual, el mensaje de fondo es claro: los unicornios de IA son tan seguros como la pieza open source más débil de su stack. No hace falta vulnerar a un hiperescalador; basta con colar código malicioso en una librería muy usada.

Este caso revela varias carencias estructurales:

  1. Dependencia extrema de proyectos open source infradotados. LiteLLM hace la vida más fácil a miles de equipos, pero sus mantenedores rara vez tienen recursos a la altura de esa responsabilidad.
  2. Cumplimiento no equivale a seguridad. Tras el incidente, LiteLLM cambia de proveedor de compliance. Es un recordatorio de que muchos sellos y auditorías dicen poco sobre la seguridad real del código y del proceso de despliegue.
  3. Los atacantes ya han olido el dinero de la IA. Grupos como Lapsus$ y TeamPCP están moviendo el foco desde las grandes telcos y tecnológicas hacia la fontanería de la IA, donde un solo éxito rinde muchas víctimas.

El panorama general

El caso Mercor/LiteLLM encaja en una tendencia clara: la cadena de suministro de software se ha convertido en el vector preferido para ataques a gran escala.

Algunos antecedentes clave:

  • SolarWinds (2020): una actualización comprometida abrió puertas en agencias gubernamentales y grandes corporaciones.
  • Log4Shell (2021): una vulnerabilidad en una librería de logging omnipresente provocó una carrera global por parchear sistemas.
  • Backdoor en XZ Utils (2024): una puerta trasera cuidadosamente introducida en una herramienta de compresión fue detectada justo antes de desplegarse masivamente en distribuciones Linux.

LiteLLM juega un papel similar en el ecosistema de IA: una librería aparentemente inocua que simplifica el acceso a modelos. Pero esa comodidad concentra riesgo. Un atacante que manipula LiteLLM no tiene que tocar directamente a OpenAI, Anthropic o Mercor; la librería ya está integrada en cientos de proyectos.

En contextos de IA, el daño potencial se multiplica por:

  • sensibilidad de los datos, que suelen incluir información de negocio y, a veces, datos personales o clínicos;
  • automatización de pipelines, donde un componente malicioso puede robar claves, prompts o resultados sin intervención humana;
  • velocidad de adopción, con equipos que priorizan sacar funcionalidades de IA al mercado por delante de los chequeos de seguridad.

Las grandes empresas y proveedores cloud ya reaccionan:

  • crean repositorios internos con paquetes verificados,
  • exigen SBOM (Software Bill of Materials) a sus suministradores,
  • migran de wrappers comunitarios a SDKs propios más controlados.

Todo indica que Mercor/LiteLLM servirá de ejemplo para reforzar esa línea. La pregunta que escucharemos en muchos comités de riesgo será: ¿qué otras librerías en nuestra pila de IA tienen un perfil similar al de LiteLLM?


La perspectiva europea e hispanohablante

En Europa, este incidente llega en pleno despliegue de NIS2, el Reglamento de Ciberresiliencia (CRA) y la inminente Ley de IA, tres piezas que ponen el foco precisamente en la cadena de suministro digital.

Si Mercor gestiona datos de usuarios o contratistas en la UE —algo probable dado su alcance global—, entran en juego varios marcos:

  • GDPR: cualquier filtración de datos personales de ciudadanos europeos exige notificación a autoridades y afectados, y puede implicar sanciones significativas.
  • NIS2: empresas consideradas esenciales o importantes deberán demostrar cómo gestionan el riesgo de terceros, incluidos proveedores que usan componentes como LiteLLM.
  • Ley de IA de la UE: los sistemas de alto riesgo tendrán que documentar y mitigar riesgos en todo el ciclo de vida, lo que incluye herramientas usadas para recopilar datos y evaluar modelos.

Para España y América Latina, donde muchos profesionales ya trabajan como etiquetadores y expertos remotos para plataformas de IA, hay una lectura clara: su sustento económico y su privacidad dependen de decisiones de seguridad que se toman en startups y proyectos open source, muchas veces en EE. UU.

Esto refuerza debates sobre:

  • la necesidad de alternativas europeas y latinoamericanas en la infraestructura de IA,
  • programas públicos que financien el endurecimiento de componentes open source críticos,
  • cláusulas contractuales más exigentes en materia de seguridad y transparencia hacia plataformas como Mercor.

Mirando hacia adelante

Es poco probable que este sea el último episodio relacionado con LiteLLM. A corto y medio plazo conviene estar atentos a varios frentes:

  1. Detalles técnicos del ataque. Cuando los informes forenses salgan a la luz, sabremos si se comprometieron cuentas de desarrolladores, pipelines de compilación o repositorios de paquetes, y si el mismo modus operandi se ha intentado en otras librerías clave de IA.
  2. Lista real de víctimas. Si aparecen más empresas relevantes, LiteLLM pasará a formar parte del «panteón» de casos de estudio junto a SolarWinds y Log4j, y los CISO lo usarán para justificar inversiones en seguridad de la cadena de suministro.
  3. Respuesta regulatoria. Es esperable que autoridades de protección de datos en la UE y América Latina pidan explicaciones a plataformas que combinan trabajo remoto masivo, datos personales y componentes open source de alto impacto.

Para startups de IA, el mensaje es incómodo pero nítido:

  • hay que profesionalizar la gestión de dependencias y automatizar los escaneos de vulnerabilidades,
  • mantener SBOMs actualizados y tratar a los mantenedores de proyectos clave como socios estratégicos,
  • integrar el riesgo de la cadena de suministro en la gestión global de riesgos, no solo hablar de «seguridad de modelos».

La oportunidad: este tipo de incidentes suele desbloquear presupuestos. Hasta ahora, el dinero se iba a GPUs, datasets y PoCs vistosas; la seguridad de la infraestructura quedaba para «más adelante». Ese «más adelante» acaba de llegar.


Conclusión

El caso Mercor–LiteLLM es un aviso serio: la revolución de la IA se sostiene sobre una infraestructura open source mucho más frágil de lo que a la industria le gusta reconocer. Para empresas, reguladores y profesionales, la pregunta obligatoria a cualquier proveedor de IA es: enséñame tu cadena de suministro. Hasta que el sector invierta en fortificar estos cimientos con la misma energía que dedica a lanzar nuevos modelos, seguiremos viendo brechas similares, cada vez con más datos, más dinero y más personas en juego.

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.