OpenAI macht einen seiner wichtigsten Anwendungsfälle offiziell: medizinische Fragen an den Chatbot.
Am 7. Januar hat das Unternehmen ChatGPT Health vorgestellt – einen eigenen Bereich innerhalb von ChatGPT für Gespräche rund um Gesundheit und Wohlbefinden. Laut OpenAI stellen jede Woche mehr als 230 Millionen Menschen Gesundheits- und Wellnessfragen auf der Plattform.
Ein separater Bereich für sensible Daten
Bisher landeten Fragen zu Symptomen, Trainingsplänen oder Ernährung in denselben Chat-Verläufen wie Coding-Hilfen oder Reiseplanung. ChatGPT Health trennt das nun deutlich.
Nach Angaben von OpenAI soll der neue Dienst:
- Gesundheitsgespräche von anderen Chats trennen, damit dieser Kontext nicht in allgemeine Anfragen hineinspielt.
- Gesundheitsthemen standardmäßig aus normalen Chats heraushalten. Beginnen Sie außerhalb des Health-Bereichs über Symptome oder Behandlungen zu sprechen, wird das System Sie in den Health-Bereich „anstupsen“.
- Dennoch auf frühere Interaktionen im normalen ChatGPT zurückgreifen. Wenn Sie sich dort etwa einen Marathon-Trainingsplan haben erstellen lassen, weiß ChatGPT Health später, dass Sie Läufer sind, und kann Ihre Fitnessziele entsprechend einordnen.
OpenAI versucht damit, Gesundheitsdaten in einem eigenen „Silo“ zu halten, ohne den übergreifenden Kontext völlig zu verlieren.
Anbindung an Apple Health & Co.
Gleichzeitig geht OpenAI einen Schritt weiter in Richtung persönliche Daten – allerdings nur, wenn Sie zustimmen.
ChatGPT Health soll sich mit persönlichen Informationen oder medizinischen Aufzeichnungen aus Wellness-Apps verbinden können, darunter:
- Apple Health
- Function
- MyFitnessPal
Damit soll der Dienst Empfehlungen stärker an Ihr tatsächliches Verhalten anpassen können – also an Bewegung, Ernährungstagebuch oder Schlafdaten.
Wichtig aus Sicht des Datenschutzes: OpenAI betont, dass Gespräche innerhalb von ChatGPT Health nicht zum Training der Modelle verwendet werden.
OpenAIs Antwort auf die Schwächen des Gesundheitssystems
Fidji Simo, CEO of Applications bei OpenAI, positioniert ChatGPT Health als Reaktion auf bekannte Probleme im Gesundheitswesen. In einem Blogbeitrag verweist sie auf:
- Kosten- und Zugangshürden,
- überbuchte Ärztinnen und Ärzte,
- mangelnde Kontinuität in der Versorgung.
Die Botschaft: Wenn reale Versorgung schwer zugänglich oder bruchstückhaft ist, könnte ein KI-Assistent zumindest Teile dieser Lücke schließen.
Das Grundproblem: Halluzinierende Modelle
Gerade im medizinischen Bereich sind die Grenzen großer Sprachmodelle jedoch besonders kritisch.
OpenAI weist selbst darauf hin, dass Modelle wie ChatGPT nicht zwischen wahr und falsch „verstehen“. Sie erzeugen die wahrscheinlichste Antwort – nicht zwingend die richtige – und sind anfällig für Halluzinationen.
Das spiegelt sich auch in den eigenen Nutzungsbedingungen. Dort heißt es, ChatGPT sei „not intended for use in the diagnosis or treatment of any health condition.“
Damit entsteht ein klarer Spannungsbogen: ChatGPT Health ist explizit für Gesundheitsgespräche gedacht und kann sich mit Fitness- und Wellnessdaten verbinden, während OpenAI gleichzeitig davor warnt, den Dienst zur Diagnose oder Behandlung zu nutzen.
Rollout in den kommenden Wochen
OpenAI kündigt an, ChatGPT Health in den kommenden Wochen auszurollen.
Wie Ärzt:innen, Aufsichtsbehörden und Patient:innen auf einen Dienst reagieren, der genau im Graubereich zwischen Gesundheitsberatung und Entertainment-KI liegt, wird darüber entscheiden, ob ChatGPT Health zum praktischen Begleiter – oder zum nächsten großen Streitfall zwischen Tech und Gesundheitssystem wird.



