Yann LeCun no se anda con rodeos: los grandes modelos de lenguaje son útiles, pero "básicamente una vía muerta" si el objetivo es llegar a una superinteligencia.
No lo dice cualquiera. Lo dice uno de los "padrinos" de la IA moderna, premio Turing en 2018 junto a Geoffrey Hinton y Yoshua Bengio, y hasta ahora científico jefe de IA en Meta. Después de más de una década dentro del gigante de Menlo Park, LeCun se marcha para impulsar su propio laboratorio y apostar por otra arquitectura: los modelos de mundo.
Del FAIR de Facebook a Advanced Machine Intelligence Labs
En 2013, cuando el deep learning empezaba a romper récords en reconocimiento de imágenes, Mark Zuckerberg invitó a LeCun a cenar a su casa en California. "Pollo con un vino blanco bastante bueno", recuerda el francés.
Zuckerberg quería que montara desde cero un laboratorio de investigación fundamental en IA. LeCun solo aceptó con tres condiciones muy claras:
- Mantener su puesto de profesor en la Universidad de Nueva York.
- No mudarse a California.
- Publicar los resultados del laboratorio.
El CEO de Facebook dijo que sí. Así nació Facebook Artificial Intelligence Research (FAIR), con una especie de "carta blanca" y sin grandes límites presupuestarios, según LeCun.
Diez años después, la historia es otra. La salida de LeCun de Meta, adelantada por el Financial Times, ha acelerado los planes para su nueva aventura: Advanced Machine Intelligence Labs, una compañía "mundial" pero con base fuerte en Francia. El CEO será Alex LeBrun, cofundador y director de la startup francesa de IA sanitaria Nabla, mientras que LeCun ocupará el puesto de presidente ejecutivo.
"Soy científico, un visionario", explica. "Puedo inspirar a la gente para trabajar en cosas interesantes. Soy bastante bueno adivinando qué tipo de tecnología va a funcionar o no. Pero no puedo ser CEO: soy demasiado desorganizado y también demasiado mayor para eso".
El choque con la fiebre del LLM en Meta
La gran ruptura llega con la explosión de ChatGPT. A principios de 2022, todos los grandes laboratorios tenían prototipos de modelos de lenguaje. Pero fue OpenAI quien desató la locura al lanzar su chatbot al público general.
En Meta, la reacción fue un volantazo. La compañía volcó sus recursos en Llama, su familia de LLM, y Zuckerberg reordenó los equipos para crear una unidad de IA generativa centrada en llevar modelos a productos lo antes posible.
LeCun empujó en la otra dirección: hacia la apertura. Llama 2, lanzado con pesos abiertos y descargables, fue, en sus palabras, un "punto de inflexión" que "cambió toda la industria". Durante un tiempo, Meta apareció como el "chico bueno" de la IA frente al enfoque cerrado de Google y OpenAI.
Pero la obsesión por lo inmediato tuvo coste. "Teníamos muchas ideas nuevas y cosas muy chulas que deberían haber implementado", cuenta. "Pero iban a por lo que era seguro y ya estaba probado. Cuando haces eso, te quedas atrás".
Las siguientes versiones de Llama decepcionaron. Llama 4, publicada en abril de 2025, fue un fiasco, y Meta fue acusada de maquillar benchmarks. LeCun admite que los resultados se "retocaron un poco", usando modelos distintos para diferentes pruebas.
Según él, Mark Zuckerberg se enfadó mucho y perdió la confianza en quienes lideraban la unidad de IA generativa. Muchos ya han salido de la empresa, y otros están haciendo las maletas.
15.000 millones para Scale AI y un jefe de 28 años
En junio de 2025, Meta dio otro giro: invirtió 15.000 millones de dólares en Scale AI, la empresa de etiquetado de datos, y fichó a su CEO y cofundador, Alexandr Wang, de 28 años, para dirigir el nuevo TBD Lab, enfocado en modelos frontera.
El movimiento llegó acompañado de titulares sobre bonus de fichaje de hasta 100 millones de dólares para atraer a investigadores estrella.
LeCun define a Wang como "joven" e "inexperto" en cultura de investigación, aunque matiza que "aprende rápido" y "sabe lo que no sabe".
"No hay experiencia con la investigación, con cómo se practica, cómo se hace, o qué resulta atractivo o repulsivo para un investigador", apunta.
Wang pasó a ser su jefe directo. La edad, insiste LeCun, no es el problema: lleva años trabajando con ingenieros de veintitantos. Lo que le incomoda es la visión.
El equipo fichado para la apuesta de superinteligencia de Meta está, dice, "completamente LLM‑pilled": convencido de que todo se resuelve con modelos de lenguaje cada vez más grandes.
"Estoy seguro de que hay mucha gente en Meta, quizá también Alex, a la que le gustaría que no dijera al mundo que los LLM son básicamente una vía muerta cuando se trata de superinteligencia", afirma. "Pero no voy a cambiar de opinión porque algún tipo piense que estoy equivocado. No lo estoy. Mi integridad como científico no me lo permite".
Por qué cree que los LLM tocan techo
LeCun no demoniza los LLM. Reconoce que son herramientas útiles. El problema es creer que, escalar y escalar, nos llevará mágicamente a una mente sobrehumana.
El límite, según él, está en el propio lenguaje.
Para llegar a una inteligencia al nivel humano, las máquinas necesitan entender cómo funciona el mundo físico, no solo predecir la siguiente palabra en una frase.
Su alternativa se llama V‑JEPA, una arquitectura de "modelo de mundo" que aprende a partir de vídeos y datos espaciales en lugar de solo texto. Forma el núcleo de lo que LeCun ha bautizado como Advanced Machine Intelligence (AMI).
Los modelos de mundo buscan:
- construir simulaciones internas ricas del entorno físico,
- razonar y planificar sobre esas simulaciones,
- mantener memoria persistente de experiencias pasadas.
Además, su diseño incorpora algo parecido a "emociones": atajos que resumen experiencias previas y guían la toma de decisiones.
"Si te pellizco, sentirás dolor", explica. "Tu modelo mental de mí cambiará, y la próxima vez que acerque el brazo, te apartarás. Esa es tu predicción, y la emoción que provoca es miedo o evitar el dolor".
LeCun cree que veremos versiones "bebé" de estos sistemas en unos 12 meses, y variantes más potentes en unos pocos años. No será aún superinteligencia, pero sí, dice, un camino plausible hacia ella: "Puede que haya un obstáculo que todavía no vemos, pero al menos hay esperanza".
Neolabs: la nueva frontera de la investigación en IA
Su nuevo proyecto encaja en una tendencia emergente: los "neolabs", startups creadas no para lanzar un producto rápido, sino para hacer investigación básica con capital privado.
LeCun cita a Thinking Machines, la empresa de la ex‑CTO de OpenAI Mira Murati —"espero que los inversores sepan lo que hacen"— y a Safe Superintelligence, fundada por el ex‑científico jefe de OpenAI Ilya Sutskever —"ahí sé que los inversores no tienen ni idea de lo que hacen"— como ejemplos del giro.
En su caso, las primeras aplicaciones podrían llegar lejos del mundo de las redes sociales: motores a reacción, robótica, industria pesada, sectores donde entender la física del sistema importa más que completar frases.
"Sufrimos por la estupidez"
Cuando le preguntan qué legado quiere dejar, LeCun no duda: aumentar la cantidad de inteligencia en el mundo.
"La inteligencia es realmente aquello de lo que deberíamos tener más", afirma. Con más inteligencia, argumenta, hay menos sufrimiento humano, decisiones más racionales y una mejor comprensión del mundo y del universo.
Y remata con una frase que suena casi a diagnóstico de época: "Sufrimos por la estupidez".
Con su salida de Meta y la creación de Advanced Machine Intelligence Labs, LeCun se coloca deliberadamente fuera del carril dominante marcado por los LLM. Si tiene razón y los modelos de mundo son el siguiente gran salto, la próxima revolución de la IA podría nacer más de vídeos y física que de texto y prompts.



