Titular e introducción
La fiebre de la IA generativa se ha financiado a base de GPU en la nube y márgenes negativos. Ese modelo ya hace agua, y la salida pasa por un cambio silencioso: que más inteligencia se ejecute directamente en tu portátil o móvil. Mirai, un equipo de Londres fundado por los creadores de Prisma y Reface, es una apuesta directa por ese giro hacia la IA en el dispositivo. En este artículo analizamos qué hay realmente detrás de su propuesta, quién puede ganar o perder con este cambio y qué significa para los mercados hispanohablantes en Europa y Latinoamérica.
La noticia, en breve
Según informa TechCrunch, Mirai es una startup con sede en Londres que desarrolla un motor de inferencia para ejecutar modelos de IA de forma eficiente en hardware de consumo, empezando por ordenadores con Apple Silicon. La empresa se fundó en 2025 de la mano de Dima Shvets, cofundador de la app de intercambio de caras Reface, y Alexey Moiseenkov, cofundador y ex CEO de la app de filtros Prisma.
Mirai ha levantado una ronda semilla de 10 millones de dólares liderada por Uncork Capital, con la participación de varios business angels vinculados a compañías como Snowflake, ElevenLabs y Coinbase. El equipo técnico, de 14 personas, ha creado un motor basado en Rust que, según sus propias pruebas, puede acelerar la generación de modelos hasta un 37 por ciento en Apple Silicon sin tocar los pesos del modelo. Hoy se centra en texto y voz, con planes de añadir visión por computador.
La empresa prepara un SDK que permitirá a desarrolladores integrar el runtime en sus apps con pocas líneas de código. Además, trabaja con proveedores de modelos frontera y fabricantes de chips para optimizar sus modelos para el edge, planea portar la tecnología a Android y está construyendo una capa de orquestación que envía a la nube las peticiones que el dispositivo no pueda resolver localmente.
Por qué importa
Detrás de muchos productos de IA con titulares espectaculares hay una realidad incómoda: los números no salen. El gran coste ya no es entrenar, sino inferir los modelos a escala. Un asistente conversacional que parece gratuito para el usuario puede consumir varios centavos en cómputo en la nube por sesión. Mientras el capital riesgo fluye, se puede esconder; cuando los inversores exigen beneficios, se vuelve insostenible.
Mirai apunta justo a este talón de Aquiles: trasladar la mayor parte posible de la inferencia a dispositivos que el usuario ya ha pagado. Si un portátil con Apple Silicon puede ejecutar localmente un modelo de lenguaje o de voz razonablemente potente, el coste marginal por consulta tiende a cero. El foco de valor se desplaza del centro de datos a la capa de software que exprime cada vatio del chip del usuario.
Para desarrolladores, la promesa tiene dos caras. Una, mejorar márgenes y reducir la dependencia de los grandes clouds de Estados Unidos. Dos, simplificar la integración: Mirai quiere ser algo así como el Stripe de la IA en el dispositivo, escondiendo la complejidad de kernels, cuantización y peculiaridades de cada chip detrás de un SDK. Si lo consiguen, equipos pequeños podrán lanzar asistentes, transcriptores o traductores casi en tiempo real sin hipotecarse en GPUs.
Los potenciales perdedores son, en el margen, los proveedores de nube y los fabricantes de GPU que hoy monetizan cada token generado. Seguirán siendo cruciales para el entrenamiento y para cargas muy pesadas, pero mover siquiera un 20 o 30 por ciento de la inferencia al borde sería significativo. También erosiona, aunque sea ligeramente, el poder de plataformas como Apple, Google o Qualcomm, que empujan sus propios marcos de IA local.
La foto completa
Mirai no ha descubierto la IA en el dispositivo; pretende universalizar algo que las grandes plataformas ya han validado. Apple lleva años usando su Neural Engine para fotos, reconocimiento de voz y privacidad. Google ejecuta modelos de traducción y predicción directamente en móviles Android. Muchas apps de teclado incluyen pequeños modelos de lenguaje para sugerencias.
Lo que ha cambiado es la escala y las expectativas. Los usuarios esperan chatbots, copilotos y asistentes de voz que se acerquen a la calidad de la nube. Al mismo tiempo, el sector ha visto el verdadero coste de servir todo desde centros de datos. Ahí es donde una capa de inferencia en el edge, neutral y centrada en desarrolladores, puede encajar muy bien, sobre todo para quienes no quieren casarse en exclusiva con un único proveedor de nube.
También hay un eco histórico. Hace casi una década surgió una primera ola de startups de machine learning en el borde, centradas en móviles e IoT. Muchas llegaron demasiado pronto: los modelos eran pequeños, el valor para el usuario poco claro y la nube barata. Varias acabaron vendiéndose de forma discreta a grandes empresas. Hoy el contexto es otro: modelos enormes, demanda obvia y capacidad de GPU limitada.
Frente a los gigantes actuales, la diferencia de Mirai no será que permita ejecutar modelos en el dispositivo – eso ya existe –, sino si logra convertirse en la puerta de entrada por defecto para los desarrolladores. El equivalente a Stripe en pagos o Twilio en mensajería. Para ello deberá ser brutalmente pragmática: soportar los modelos y chips que realmente importan, ofrecer herramientas y benchmarks de alto nivel y tratar la orquestación entre edge y nube como parte central del producto.
Perspectiva europea e hispana
En Europa, la IA en el dispositivo no es solo un truco para ahorrar costes; es una herramienta para cumplir normativa y ganar soberanía digital. El RGPD ya impulsa la minimización y el procesamiento local de datos. El futuro Reglamento europeo de IA, con su enfoque basado en riesgos, añadirá obligaciones sobre cómo se tratan y dónde se almacenan los datos sensibles. Ejecutar más inferencia en el terminal encaja muy bien con estas exigencias: menos datos personales viajan o se guardan en servidores de terceros.
Eso es especialmente relevante en verticales donde Europa y España tienen peso: automoción, industria, salud, fintech, sector público. Pensemos en una historia clínica que se transcribe en la tableta del médico, o en una app bancaria que hace parte del análisis de riesgo en el móvil antes de enviar solo señales agregadas al backend. Desde la óptica de los reguladores, esos diseños son más defendibles si la capa de runtime es robusta y transparente.
Para el ecosistema hispanohablante, tanto en España como en América Latina, hay un ángulo adicional: la conectividad. En muchos mercados latinoamericanos la red móvil es cara, irregular o ambas cosas. Una app de IA que funcione bien sin conexión estable tiene una ventaja competitiva real. Mirai o soluciones similares podrían permitir asistentes educativos, herramientas agrícolas o servicios de salud digital que funcionen en un Android de gama media sin depender de un data center a miles de kilómetros.
A la vez, la UE impulsa su Agenda Digital y busca reducir la dependencia estructural de los grandes clouds extranjeros. Un runtime de edge con base en Europa, aunque trabaje con modelos globales, encaja en esa narrativa de autonomía estratégica.
Lo que viene
El futuro de Mirai dependerá de varias piezas que aún están en movimiento.
La primera es la relación con las grandes plataformas. Apple, Google y los fabricantes de chips seguirán reforzando sus propios SDKs para IA local. Mirai tendrá que demostrar que una capa intermedia multiplataforma aporta suficiente valor añadido, ya sea en rendimiento, en facilidad de uso o en cumplimiento normativo, como para que merezca la pena añadir ese nuevo eslabón a la cadena.
La segunda es la competencia open source. Existe un ecosistema vibrante de bibliotecas y runtimes ligeros para ejecutar modelos cuantizados en CPUs y GPUs de usuario. Mirai apuesta porque muchas empresas preferirán una solución comercial con soporte, métricas y orquestación integrada a ensamblar piezas por su cuenta. El precio será clave, sobre todo para startups de España y América Latina que operan con márgenes limitados.
La tercera es la historia híbrida. La capa que decide qué peticiones se ejecutan en el dispositivo y cuáles van a la nube será probablemente el corazón del producto y de los ingresos. Ahí entran en juego la latencia, el coste, la capacidad del dispositivo, las preferencias del usuario y las reglas de privacidad. Resolver bien esa ecuación no es trivial.
En los próximos 12 a 24 meses convendrá fijarse en tres señales: benchmarks independientes, primeros clientes de referencia (idealmente en sectores regulados) y acuerdos con fabricantes de chips o proveedores de modelos. Para el mundo hispanohablante, será interesante ver si emergen startups en Madrid, Ciudad de México o São Paulo que construyan productos sobre Mirai para nichos locales.
En resumen
Mirai representa una apuesta clara por una genAI distribuida, donde la inteligencia se ejecuta allí donde tiene más sentido económico y regulatorio, y no siempre en un data center lejano. La experiencia de sus fundadores en apps de consumo masivo y el foco en la experiencia de desarrollador son buenas cartas, pero el mercado de runtimes en el dispositivo será feroz y muy influido por la política de plataformas. Para los creadores de producto en el espacio hispano, la pregunta no es si crecerá la inferencia en el edge – crecerá –, sino quién controlará esa pieza crítica entre los modelos y los dispositivos que llevamos encima.



