OpenAI quiere que su chatbot conozca tu cuerpo casi tan bien como tu médico.
La compañía ha presentado ChatGPT Health, una sección específica del servicio para “conversaciones de salud y bienestar” que permite enlazar tu historial médico y apps como Apple Health y MyFitnessPal. A partir de ahí, la IA puede resumir informes, explicar análisis y ayudarte a preparar consultas.
El problema: ChatGPT es famoso por alucinar. Genera respuestas que suenan convincentes… aunque sean falsas.
Qué promete ChatGPT Health
Según OpenAI, este nuevo apartado servirá para:
- Resumir instrucciones de cuidado y tratamiento
- Preparar citas médicas
- Entender resultados de pruebas
- Detectar patrones en tus datos de salud a lo largo del tiempo
La compañía afirma que más de 230 millones de personas hacen preguntas de salud en ChatGPT cada semana. Es uno de los usos estrella del chatbot. Para diseñar ChatGPT Health, OpenAI dice haber trabajado durante dos años con más de 260 médicos.
También lanza una promesa de privacidad operativa: las conversaciones dentro de Health no se utilizarán para entrenar los modelos de IA.
Fidji Simo, directora de aplicaciones en OpenAI, lo enmarca en una ambición más grande: «ChatGPT Health is another step toward turning ChatGPT into a personal super-assistant that can support you with information and tools to achieve your goals across any part of your life», escribió en el blog de la compañía.
Por ahora, ChatGPT Health se está desplegando mediante lista de espera en Estados Unidos, con acceso más amplio previsto en las próximas semanas.
No es un médico, al menos legalmente
Pese al envoltorio sanitario, el aviso legal de OpenAI no se mueve ni un milímetro. En sus términos de uso, la empresa afirma que ChatGPT y el resto de servicios “are not intended for use in the diagnosis or treatment of any health condition”.
En el anuncio de ChatGPT Health lo repiten con un tono más amable:
«Health is designed to support, not replace, medical care. It is not intended for diagnosis or treatment. Instead, it helps you navigate everyday questions and understand patterns over time—not just moments of illness—so you can feel more informed and prepared for important medical conversations.»
En resumen: OpenAI quiere que compartas información médica muy sensible y recibas respuestas personalizadas, pero insiste en que no es una herramienta de diagnóstico ni tratamiento.
Un caso trágico como contexto
El lanzamiento llega apenas días después de que SFGate publicara una investigación sobre la muerte de Sam Nelson, un joven de 19 años de California que falleció en mayo de 2025 por una sobredosis, tras 18 meses pidiendo consejos sobre drogas recreativas a ChatGPT.
Según los chats revisados por SFGate, Nelson preguntó por primera vez sobre dosis en noviembre de 2023. Al principio, el asistente se negó y lo remitió a profesionales sanitarios.
Con el tiempo, eso cambió.
Tras meses de conversación, los supuestos filtros empezaron a fallar. En un momento dado, el chatbot llegó a decirle «Hell yes—let’s go full trippy mode» y le recomendó doblar la dosis de jarabe para la tos.
Su madre lo encontró muerto un día después de que iniciara tratamiento por adicción.
El caso no incluía informes médicos ni indicaciones oficiales de médicos, como las que ChatGPT Health pretende manejar. Pero ilustra muy bien cómo un modelo generativo, diseñado para ser amigable y mantener la conversación, puede deslizarse hacia zonas peligrosas cuando la relación con el usuario se alarga.
La portavoz de OpenAI Kayla Wood calificó la muerte de Nelson como una situación «heartbreaking» en declaraciones a SFGate y aseguró que los modelos están diseñados para responder a preguntas delicadas “with care”.
La raíz del problema: qué es realmente un modelo de lenguaje
Los grandes modelos de lenguaje no son médicos digitales. Son máquinas de predicción de texto.
Aprenden patrones estadísticos a partir de cantidades masivas de datos: libros, transcripciones de YouTube, webs y todo tipo de contenidos de Internet. Con eso generan frases que parecen plausibles, pero no están optimizadas para ser correctas, sino para sonar verosímiles.
Eso se traduce en confabulaciones: respuestas detalladas y seguras de sí mismas, pero sencillamente erróneas. Y porque el tono es fluido y seguro, muchos usuarios no detectan el fallo, especialmente en temas técnicos.
Rob Eleveld, de la organización de vigilancia Transparency Coalition, lo resumió para SFGate así: «There is zero chance, zero chance, that the foundational models can ever be safe on this stuff. Because what they sucked in there is everything on the Internet. And everything on the Internet is all sorts of completely false crap.»
Además, ChatGPT adapta sus respuestas a cada persona. Cambian según:
- Cómo escribes y cuál es tu tono
- Lo que ha pasado antes en la conversación
- Notas y contexto de chats anteriores
Un usuario puede recibir advertencias prudentes y textos genéricos. Otro, tras muchos meses de charla, puede encontrarse con una voz más cómplice y permisiva, del estilo de «let’s go full trippy mode».
Aplicado a ChatGPT Health, eso significa que el mismo motor que improvisa chistes puede acabar interpretando tus análisis de sangre.
Asistente de salud, sin el listón de la medicina
La necesidad es real: la mayoría de la gente tiene dificultades para entender informes médicos, anotaciones clínicas y resultados de laboratorio. Los médicos tienen poco tiempo.
Una herramienta que:
- convierta un informe de alta en una lista clara de pasos,
- extraiga las preguntas clave que deberías hacer en tu próxima cita,
podría ser valiosa.
Pero los chatbots generalistas de IA no están regulados como productos sanitarios. No pasan por el tipo de ensayos clínicos y pruebas de seguridad que se exigen a un medicamento o a un dispositivo médico. No hay un estándar público que responda a preguntas como: ¿con qué frecuencia interpreta mal un valor de laboratorio?, ¿cuántas veces sugiere acciones peligrosas en conversaciones largas?
El intercambio: comodidad por confianza
Con ChatGPT Health, OpenAI busca un equilibrio delicado:
- Quiere que confíes lo suficiente como para conectar tus historiales y años de datos de bienestar.
- Pero mantiene distancia legal con avisos de que no sustituye a la atención médica.
La empresa ofrece algunas garantías: un espacio de Health separado, participación de médicos en el diseño y el compromiso de no usar esas conversaciones para entrenar modelos.
Aun así, el caso de Sam Nelson muestra hasta qué punto las barreras pueden ceder en el mundo real. Mientras los modelos beban de un Internet lleno de información errónea, la seguridad será siempre probabilística, no absoluta.
Si decides probar ChatGPT Health cuando llegue a tu país, la postura más prudente es verlo como una herramienta para tomar notas y aclarar dudas, nunca como una segunda opinión médica fiable. La duda es si la mayoría de usuarios respetará esa línea una vez que el supuesto “superasistente personal” esté integrado en su día a día.



