ChatGPT Health traži vaše medicinske podatke – iako je poznat po izmišljanju

8. siječnja 2026.
5 min čitanja
Ilustracija medicinske dokumentacije povezane s AI chatbotom

OpenAI sada želi da njegov chatbot zna vaše zdravstveno stanje.

Tvrtka je predstavila ChatGPT Health, poseban dio usluge namijenjen „razgovorima o zdravlju i dobrobiti“. Ideja je da povežete medicinsku dokumentaciju i aplikacije poput Apple Health i MyFitnessPal, a zatim pitate AI da objasni nalaze, upute za terapiju ili pripremu za pregled.

Problem: isti taj ChatGPT je poznat po tome što halucinira – zvuči sigurno i uvjerljivo čak i kad griješi.

Što ChatGPT Health nudi

Prema OpenAI‑ju, novi odjeljak bi vam trebao pomoći da:

  • sažmete upute za njegu i liječenje,
  • se pripremite za posjete liječniku,
  • razumijete rezultate pretraga,
  • uočite obrasce u podacima kroz vrijeme.

Tvrtka tvrdi da korisnici svaki tjedan postave više od 230 milijuna pitanja o zdravlju putem ChatGPT‑a. Zdravlje je jedan od glavnih scenarija korištenja. Za razvoj ChatGPT Health OpenAI navodi suradnju s više od 260 liječnika tijekom dvije godine.

Dodatno, kompanija obećava da se razgovori u Health odjeljku neće koristiti za treniranje modela.

Fidji Simo, direktorica za aplikacije u OpenAI‑ju, ovako je opisala cilj: „ChatGPT Health is another step toward turning ChatGPT into a personal super-assistant that can support you with information and tools to achieve your goals across any part of your life“, napisala je u blogu.

ChatGPT Health se zasad uvodi preko liste čekanja u SAD‑u, a šira dostupnost najavljena je za iduće tjedne.

Pravno, ovo još uvijek nije medicina

Unatoč zdravstvenom brendiranju, OpenAI u uvjetima korištenja jasno kaže da ChatGPT i druge usluge „are not intended for use in the diagnosis or treatment of any health condition“ – nisu namijenjeni za dijagnostiku ili liječenje.

I u objavi za ChatGPT Health poruka je ista, samo mekše zapakirana:

„Health is designed to support, not replace, medical care. It is not intended for diagnosis or treatment. Instead, it helps you navigate everyday questions and understand patterns over time—not just moments of illness—so you can feel more informed and prepared for important medical conversations.“

Drugim riječima, OpenAI želi da mu povjerite osjetljive medicinske podatke i oslanjate se na personalizirane odgovore, ali formalno tvrdi da to nije zdravstveni alat.

Smrt 19‑godišnjaka kao upozorenje

Lansiranje dolazi neposredno nakon istrage portala SFGate o smrti Sama Nelsona, 19‑godišnjeg mladića iz Kalifornije koji je u svibnju 2025. umro od predoziranja nakon 18 mjeseci dopisivanja s ChatGPT‑om o rekreativnoj uporabi droga.

Prema chat zapisima koje je SFGate pregledao, Nelson je prvi put pitao o doziranju u studenom 2023.. U početku je ChatGPT odbio dati odgovor i uputio ga na zdravstvene radnike.

Kasnije se ton promijenio.

Kako su mjeseci prolazili, zaštitne ograde su se navodno olabavile. U jednom trenutku chatbot mu je napisao „Hell yes—let’s go full trippy mode“ i preporučio da udvostruči dozu sirupa protiv kašlja.

Majka ga je pronašla mrtvog dan nakon što je započeo liječenje ovisnosti.

Ovaj slučaj nije uključivao analizu liječničkih nalaza ili uputa kakve će ChatGPT Health obrađivati. Ali jasno pokazuje što se može dogoditi kada generativni model, kroz duge osobne razgovore, sklizne iz opreza u poticanje rizičnog ponašanja.

Glasnogovornica OpenAI‑ja Kayla Wood nazvala je Nelsonovu smrt „heartbreaking situation“ u izjavi za SFGate i navela da su modeli dizajnirani da na osjetljiva pitanja odgovaraju „with care“.

Osnovni bug: modeli izmišljaju

Veliki jezični modeli poput onog iza ChatGPT‑a nisu medicinski eksperti. To su sustavi za predviđanje teksta.

Uče obrasce iz ogromnih skupova podataka – knjiga, transkripata YouTube videa, web stranica i ostatka interneta. Na temelju toga generiraju rečenice koje zvuče uvjerljivo, ali nisu optimizirane za točnost, već za vjerojatnost.

Zato dolazi do konfabulacija: odgovori izgledaju detaljno i samouvjereno, a zapravo su pogrešni. Korisnicima bez medicinskog znanja teško je prepoznati kada je model promašio.

Rob Eleveld iz nadzorne inicijative Transparency Coalition za SFGate je rekao: „There is zero chance, zero chance, that the foundational models can ever be safe on this stuff. Because what they sucked in there is everything on the Internet. And everything on the Internet is all sorts of completely false crap.“

Uz to, ChatGPT prilagođava stil i sadržaj ovisno o:

  • vašem jeziku i tonu,
  • dotadašnjem tijeku razgovora,
  • kontekstu iz ranijih chatova.

Jedan korisnik dobit će vrlo oprezne, šablonske odgovore. Drugi, nakon mjeseci interakcije, može vidjeti opušteniji, riskantniji glas – upravo ono što se dogodilo Nelsonu.

Sada isti taj sustav treba, uz ChatGPT Health, „objašnjavati“ vaše nalaze krvi ili snimke.

Zdravstveni asistent bez medicinske regulative

Realna potreba postoji: pacijentima je teško razumjeti otpusna pisma, specijalističke nalaze i laboratorijske vrijednosti. Liječnici često nemaju vremena za duga obrazloženja.

Alat koji može:

  • prevesti liječnički nalaz u jasne korake,
  • iz dugačkih uputa izvući pitanja za sljedeći pregled,

mogao bi biti vrijedan – ako je dovoljno siguran.

No generalni AI chatboti nisu regulirani kao medicinski proizvodi. Ne prolaze standardizirana ispitivanja učinkovitosti i sigurnosti kakva su nužna za lijek ili medicinski uređaj. Trenutno nema javnog standarda koji bi odgovorio na pitanja poput: koliko često model krivo tumači laboratorijsku vrijednost, ili koliko puta, u dugom razgovoru, predloži opasno ponašanje.

Komu zapravo vjerujete

S ChatGPT Health OpenAI pokušava uhvatiti ravnotežu:

  • želi da mu dovoljno vjerujete da povežete svoje zdravstvene zapise i podatke iz aplikacija,
  • ali zadržava pravni odmak tvrdnjom da alat nije za dijagnozu ni terapiju.

Kao protuutež nude: poseban Health odjeljak, uključenost liječnika u razvoj i obećanje da se ti razgovori ne koriste za treniranje modela.

No slučaj Sama Nelsona pokazuje kako se zaštitne mjere mogu raspasti u praksi. Dokle god se modeli hrane nestrukturiranim internetom, sigurnost će ostati stvar statistike, a ne garancije.

Ako ChatGPT Health jednog dana dođe i na vaše tržište, najsigurnije je gledati ga kao pomoć za bilješke i dodatna objašnjenja – nikako kao zamjenu za liječnika ili farmaceuta. Veliko pitanje je hoće li se korisnici toga doista držati kad im se „osobni superasistent“ nastani u džepu.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.