Categoría: IA
Titular e introducción
Un chatbot puede recordar lo que escribiste ayer, pero tus gafas inteligentes siguen sin saber dónde dejaste las llaves anoche. La inteligencia artificial está entrando en el mundo físico a través de wearables y robots, y ahí la memoria ya no es un extra: es la diferencia entre un truco llamativo y una herramienta imprescindible. El startup estadounidense Memories.ai quiere ocupar justo ese espacio con una “capa de memoria visual” apoyada en Nvidia. En este análisis veremos qué implica esa apuesta, cómo encaja en las tendencias actuales y qué significa para los mercados europeos e hispanohablantes.
La noticia en breve
Según informa TechCrunch, Memories.ai anunció en la conferencia Nvidia GTC 2026 una colaboración con Nvidia para desarrollar infraestructura que permita a los sistemas de IA almacenar y recuperar recuerdos visuales.
La empresa fue fundada en 2024 por Shawn Shen y Ben Zhou, tras trabajar en el sistema de IA de las gafas inteligentes Ray‑Ban de Meta. Memories.ai utiliza el modelo Cosmos-Reason 2 de Nvidia, un modelo visión‑lenguaje orientado al razonamiento, y la plataforma Nvidia Metropolis para búsqueda y resumen de vídeo. Sobre esa base han creado un “Large Visual Memory Model” (LVMM) que convierte las secuencias de vídeo en vectores, las indexa y las hace consultables.
De acuerdo con TechCrunch, el startup ha recaudado unos 16 millones de dólares hasta la fecha: una ronda semilla de 8 millones más una extensión de otros 8 millones liderada por Susa Ventures con la participación de fondos como Seedcamp, Fusion Fund y Crane Venture Partners. Además, han firmado una alianza con Qualcomm para ejecutar la segunda generación de su LVMM en procesadores Qualcomm y ya trabajan con varios grandes fabricantes de wearables cuyos nombres aún no se han revelado.
Por qué importa
Hoy la mayoría de wearables y robots sufren una especie de “amnesia crónica”: ven el mundo en tiempo real, pero casi nada de lo que captan se convierte en memoria operativa. Memories.ai apuesta a que quien resuelva este déficit se convertirá en la capa de infraestructura obligatoria para cualquier dispositivo que necesite entender su entorno a lo largo del tiempo.
Técnicamente, esta “memoria visual” es una combinación de base de datos vectorial y motor de razonamiento entrenado específicamente con imágenes y vídeo. Eso se traduce en casos muy concretos:
- gafas de realidad aumentada que respondan: «¿Dónde estaba el portátil azul la última vez que estuve en la oficina?»;
- robots logísticos que detecten: «Este tipo de paquete dañado ya apareció varias veces en este almacén»;
- cascos de mantenimiento industrial que muestren automáticamente la documentación revisada en la última visita a esa planta.
Los ganadores inmediatos son:
- Nvidia, que suma otro escaparate para su stack de visión y refuerza la dependencia de startups de su ecosistema.
- Qualcomm y otros fabricantes de chips para el borde, que obtienen un caso de uso potente para IA en dispositivo más allá de ejecutar un LLM genérico.
- Los grandes OEM de wearables y robótica, que pueden externalizar un problema de infraestructura complejo en lugar de construirlo internamente.
Entre los perdedores potenciales están las plataformas que sigan centradas en texto e ignoren la transición hacia una IA encarnada, y los pequeños fabricantes de hardware que queden atrapados en la capa de memoria elegida por los gigantes.
Pero el giro de fondo es otro: la memoria visual convierte el vídeo continuo de ser un coste y un riesgo de privacidad en un activo estructurado y consultable. En el momento en que una cámara “entiende y recuerda” lo que ve, la cámara deja de ser un sensor pasivo y pasa a ser una fuente de contexto permanente.
El contexto más amplio
La apuesta de Memories.ai encaja con varias dinámicas que ya veníamos viendo.
Primero, la IA lleva dos años incorporando memoria a largo plazo. Como recuerda TechCrunch, OpenAI, Google Gemini y xAI han lanzado funciones de memoria textual desde 2024. Eso resuelve el problema de “recordar conversaciones”, pero no el de recordar experiencias sensoriales. Texto y logs son compactos y fáciles de indexar; la realidad, en cambio, llega en forma de vídeo ruidoso y ambiguo.
Segundo, estamos en plena ola de dispositivos-agente y wearables con IA. Las gafas de Meta, los intentos de asistentes portátiles de otras empresas… todos comparten la visión de un compañero digital que te acompaña todo el día. El entusiasmo inicial se convierte en frustración cuando el usuario descubre que el dispositivo no “se acuerda” de casi nada útil. Una capa de memoria visual común podría ser precisamente el pegamento que falta.
Tercero, la robótica está saliendo de entornos predecibles para entrar en almacenes caóticos, hospitales o incluso hogares. Ahí no basta con mapas estáticos: un robot necesita recordar errores raros, nuevas disposiciones del entorno y patrones temporales. Hasta ahora, cada fabricante improvisaba su propia solución de logging + analítica. Estandarizar este componente como servicio de infraestructura –lo que propone Memories.ai– puede acelerar enormemente el desarrollo de robots realmente autónomos.
Hay también un eco histórico. Los intentos de “lifelogging” de hace una década (Google Glass, cámaras de clip, etc.) fracasaron en gran medida porque la avalancha de datos no se podía convertir en información útil. Hoy tenemos modelos mucho mejores y hardware más eficiente. El riesgo es que esta vez sí funcione… pero concentrado en manos de muy pocos actores.
El ángulo europeo e hispano
Para Europa, y también para América Latina, la memoria visual es tanto una oportunidad industrial como un desafío regulatorio y cultural.
En el lado positivo, encaja con sectores donde Europa y varias economías latinoamericanas son fuertes: automoción, logística, minería, energía, agroindustria. Robots y sistemas de visión que “recuerdan” lo que han visto pueden mejorar calidad, seguridad y mantenimiento sin sustituir necesariamente a la mano de obra.
En el lado problemático, chocamos de frente con la protección de datos. La UE tiene el GDPR y la próxima Ley de IA europea (AI Act), que regulan con dureza el tratamiento de vídeo, datos biométricos y sistemas de vigilancia. Un wearable que grabe de forma continua, convierta todo en embeddings y lo haga consultable plantea preguntas serias: ¿qué pasa con las personas que aparecen de fondo?, ¿cuánto tiempo se conserva esa memoria?, ¿puede usarse para reconocimiento de personas o solo de objetos y escenas?
En España, donde el uso de cámaras en espacios públicos ya genera controversia, un sistema de memoria visual tendrá que demostrar un diseño de privacidad sólido para ser socialmente aceptable. En Latinoamérica, con marcos legales más heterogéneos, el riesgo es el opuesto: adopción sin salvaguardas claras, especialmente en seguridad privada y vigilancia estatal.
Esto abre la puerta a alternativas locales: empresas europeas o latinoamericanas que construyan capas de memoria visual con privacidad por defecto (procesamiento en el borde, federado, con controles granulares de acceso) y modelos entrenados en contextos locales. Quien combine bien cumplimiento normativo y valor industrial tendrá ventaja.
Mirando hacia adelante
En los próximos 2–3 años es probable que Memories.ai se consolide –si todo va bien– como proveedor silencioso de infraestructura. No veremos su logo en las tiendas, sino SDKs y APIs integrados en gafas, robots y cámaras industriales.
Puntos clave a seguir:
- Profundidad de las integraciones: si los grandes fabricantes presentan la memoria visual como función estrella o si la esconden como simple mejora interna.
- Equilibrio borde‑nube: cuánta lógica de su LVMM puede ejecutarse realmente en chips tipo Qualcomm, y qué parte seguirá dependiendo de la nube.
- Primeros choques regulatorios: el primer escándalo mediático por uso abusivo de memoria visual (reconocimiento de personas, vigilancia encubierta, etc.) marcará líneas rojas.
- Respuesta de las big tech: el día que Apple, Google, Meta u OpenAI anuncien su propia capa de memoria visual integrada en sus ecosistemas, el margen para actores independientes se estrechará.
Técnicamente, la gran incógnita es la calidad y diversidad de los datos de entrenamiento. TechCrunch menciona que Memories.ai utiliza un wearable propio, LUCI, para recopilar vídeo. Eso da control, pero también sesgo: si la mayoría de datos proceden de determinados países, entornos o usos, el modelo puede fallar en otros. Es un problema especialmente relevante para mercados tan diversos como el latinoamericano.
Aun así, la dirección es clara: la IA realmente útil en wearables y robots será la que pueda razonar sobre lo que ha visto durante días, semanas o meses, no solo sobre lo que le decimos por voz o texto.
Conclusión
La memoria visual apunta a convertirse en la nueva capa invisible que separa los gadgets curiosos de las herramientas de trabajo serias en el mundo físico. Con el respaldo de Nvidia, Memories.ai se coloca en buena posición para definir ese estándar, pero los gigantes tecnológicos aún no han jugado todas sus cartas. Para usuarios y reguladores en el mundo hispanohablante la pregunta es incómoda pero inevitable: ¿queremos dispositivos que no olvidan lo que ven, y bajo qué reglas estamos dispuestos a aceptar ese nuevo tipo de memoria?



