OpenAI está reordenando la casa con una apuesta clara: el futuro de la informática se escucha, no se mira.
Según recoge TechCrunch a partir de información de The Information, la compañía ha unificado en los últimos dos meses varios equipos de ingeniería, producto e investigación. El objetivo es relanzar sus modelos de audio y preparar un dispositivo personal centrado en el sonido, previsto para dentro de aproximadamente un año.
No se trata solo de que ChatGPT suene mejor. Se trata de tratar el audio como interfaz principal y relegar las pantallas al fondo.
La próxima voz de OpenAI: más natural, más dialogante, más simultánea
El nuevo modelo de audio de OpenAI, que apunta a principios de 2026, llegaría con tres mejoras clave:
- Voz más natural, más cercana a la humana.
- Capacidad de gestionar interrupciones, para que usted pueda cortarlo a mitad de frase, como en una conversación real.
- Posibilidad de hablar mientras usted habla, algo que los modelos actuales, en general, no hacen bien.
Además del modelo, OpenAI imagina una familia de dispositivos:
- Posibles gafas.
- Posibles altavoces inteligentes sin pantalla.
La idea no es otro cacharro más sobre la mesa, sino algo que funcione como un compañero: siempre presente, siempre escuchando, siempre listo para contestar.
Ahí entra en juego Jony Ive, el histórico jefe de diseño de Apple, que se sumó al esfuerzo de hardware de OpenAI tras la adquisición en mayo, por 6.500 millones de dólares, de su firma io. Según The Information, Ive ha puesto como prioridad reducir la adicción a los dispositivos y ve el diseño centrado en el audio como una oportunidad para «arreglar los errores» de los gadgets de consumo del pasado.
Si lo consigue, podríamos ver el primer gran dispositivo de IA que promete menos tiempo de pantalla, no más.
La guerra silenciosa contra las pantallas
OpenAI no va solo. Todo el sector se está moviendo hacia un mundo audio‑first.
- Los altavoces inteligentes ya han convertido a los asistentes de voz en algo cotidiano en más de un tercio de los hogares de EE. UU.
- Las gafas inteligentes Ray‑Ban de Meta incorporan una matriz de cinco micrófonos para ayudarle a escuchar conversaciones en entornos ruidosos; en la práctica, su cara se convierte en un dispositivo de escucha direccional.
- Google empezó en junio a experimentar con “Audio Overviews”, que convierten los resultados de búsqueda en resúmenes conversacionales.
- Tesla está integrando Grok y otros grandes modelos de lenguaje en sus vehículos para crear asistentes de voz capaces de gestionar navegación, climatización y más mediante diálogo natural.
Coches, gafas, altavoces… El formato cambia, pero la apuesta es la misma: el audio como capa por defecto entre las personas y el software.
Cada espacio – el hogar, el coche e incluso la cara – se está convirtiendo en una interfaz.
Startups en la frontera del audio continuo
Mientras los gigantes tecnológicos construyen plataformas a largo plazo, las startups juegan en la frontera de lo aceptable.
- Los creadores del Humane AI Pin quemaron cientos de millones de dólares en un wearable sin pantalla que hoy se cita como caso de advertencia.
- El colgante Friend AI, un collar que graba su vida y ofrece compañía, ha despertado fuertes preocupaciones de privacidad y también cierta angustia existencial.
- Al menos dos empresas, entre ellas Sandbar y otra liderada por el fundador de Pebble, Eric Migicovsky, trabajan en anillos de IA que deberían llegar en 2026, para que pueda literal y figuradamente hablar con la mano.
Son factores de forma distintos, pero comparten una tesis: el audio es la interfaz del futuro.
Estos experimentos son desordenados, sí, pero sirven para medir hasta dónde están dispuestas a llegar las personas: micrófonos permanentes, grabación por defecto, “compañeros” de IA pegados al cuerpo en lugar de tras una pantalla.
OpenAI e Ive: ¿un gadget de IA con menos brillo y más voz?
La pieza más interesante del puzzle es Jony Ive.
Su legado en Apple está lleno de dispositivos que muchos no podían dejar de mirar. Ahora, tras la adquisición de io por parte de OpenAI, se le presenta la oportunidad de diseñar hardware que libere en lugar de atrapar la atención.
Un dispositivo personal centrado en el audio bajo esa filosofía apuntaría a:
- Integrarse en el entorno en lugar de reclamar la vista todo el tiempo.
- Permitir hablar y escuchar sin necesidad de mirar constantemente una pantalla.
- Mantenerle informado mientras la pantalla pasa a un rol claramente secundario.
Para los equipos de producto en Madrid, Ciudad de México, Bogotá o Buenos Aires, el mensaje es claro: los próximos lanzamientos no pueden tratar el audio como un accesorio; tendrá que ser modo principal de interacción.
2026: el año en que tus dispositivos de verdad te contestan
De aquí a principios de 2026 deberían confluir varias tendencias:
- El nuevo modelo de audio de OpenAI.
- Un probable dispositivo personal audio‑first de la compañía.
- Nuevos anillos de IA, gafas más inteligentes y asistentes de coche aún más capaces.
Quedan, eso sí, muchas preguntas incómodas:
- ¿Un “compañero” de IA se sentirá como ayuda… o como invasión?
- ¿Pueden los dispositivos centrados en el audio reducir la adicción a las pantallas sin crear una nueva dependencia?
- ¿Qué pasa con la privacidad cuando los micrófonos y los modelos se incrustan en el salón, el coche y la cara?
Lo que sí parece decidido es el giro estratégico: la próxima gran plataforma de Silicon Valley probablemente no será otra pantalla brillante. Será una voz al oído. Y, si OpenAI acierta, llegará mucho antes de lo que nos imaginamos.



