ChatGPT Health želi vaše medicinske zapise – čeprav si stvari izmišljuje

8. januar 2026
5 min branja
Ilustracija zdravstvenih kartonov, povezanih z AI klepetalnikom

OpenAI želi, da svojemu klepetalniku zaupate zdravstvene podatke.

Podjetje je predstavilo ChatGPT Health, poseben del storitve za »pogovore o zdravju in dobrem počutju«, ki se lahko poveže z vašimi zdravstvenimi kartoni in aplikacijami, kot sta Apple Health in MyFitnessPal. Ideja: AI naj vam pomaga razumeti izvide, navodila za zdravljenje in pripravo na pregled.

Toda ChatGPT je znan po tem, da halucinira – samozavestno poda napačne informacije.

Kaj obljublja ChatGPT Health

OpenAI pravi, da vam bo novi razdelek pomagal:

  • povzemati zdravniška navodila,
  • pripraviti vprašanja za zdravnika,
  • razlagati laboratorijske in druge izvide,
  • prepoznavati vzorce v podatkih skozi čas.

Po podatkih podjetja uporabniki ChatGPT vsak teden zastavijo več kot 230 milijonov zdravstvenih vprašanj, zato je to eden najpogostejših načinov uporabe klepetalnika. Pri razvoju ChatGPT Health je OpenAI sodeloval z več kot 260 zdravniki v dveh letih.

Podjetje ob tem obljublja, da pogovori v razdelku Health ne bodo uporabljeni za učenje modelov.

Direktorica za aplikacije pri OpenAI Fidji Simo je zapisala, da je »ChatGPT Health še en korak k temu, da ChatGPT postane osebni superasistent, ki vas lahko podpira z informacijami in orodji pri doseganju ciljev na katerem koli področju vašega življenja«.

Za zdaj se ChatGPT Health uvaja prek čakalnega seznama v ZDA, širša dostopnost pa naj bi sledila v naslednjih tednih.

Pravne omejitve ostajajo

Kljub zdravstvenemu preoblečenemu vmesniku so pogoji uporabe jasni: storitve OpenAI »niso namenjene za uporabo pri diagnosticiranju ali zdravljenju kakršnega koli zdravstvenega stanja«.

V objavi o ChatGPT Health podjetje to ponovi v milejši obliki:

»Health je zasnovan kot podpora, ne zamenjava za zdravstveno oskrbo. Ni namenjen diagnosticiranju ali zdravljenju. Namesto tega vam pomaga pri vsakodnevnih vprašanjih in razumevanju vzorcev skozi čas – ne le v trenutkih bolezni –, da se lahko počutite bolj informirani in pripravljeni na pomembne zdravstvene pogovore.«

OpenAI vas torej vabi, da delite zelo občutljive podatke in dobivate personalizirane odgovore – hkrati pa poudarja, da to ni diagnostično orodje.

Tragičen primer iz prakse

Nova storitev prihaja takoj po preiskavi portala SFGate o smrti Sama Nelsona, 19-letnika iz Kalifornije, ki je umrl zaradi predoziranja maja 2025 po 18 mesecih pogovorov s ChatGPT o rekreativni uporabi drog.

Po navedbah SFGate je Nelson prvič vprašal o odmerkih novembra 2023. Sprva je ChatGPT zavrnil odgovor in ga usmeril k zdravnikom.

Kasneje se je ton spremenil.

Po daljšem nizu pogovorov so se varovalke domnevno zrahljale. Klepetalnik mu je med drugim odgovoril »Hell yes—let’s go full trippy mode« in mu priporočil, naj podvoji odmerek sirupa proti kašlju.

Njegova mati ga je našla mrtvega dan po tem, ko je začel zdravljenje odvisnosti.

Ta primer ni vključeval zdravniško potrjenih navodil ali izvidov, kot jih bo obravnaval ChatGPT Health. Pokaže pa, kako lahko generativni model v dolgih, osebnih pogovorih postopoma zdrsne v nevarno območje.

Predstavnica OpenAI Kayla Wood je za SFGate Nelsonovo smrt označila za »heartbreaking situation« in dejala, da so modeli zasnovani tako, da na občutljiva vprašanja odgovarjajo »with care«.

Jedro problema: modeli si izmišljujejo

Veliki jezikovni modeli, kot je tisti za ChatGPT, niso medicinska orodja, ampak sistemi za napovedovanje besedila.

Učijo se iz ogromnih količin podatkov – knjig, prepisov videov na YouTubu, spletnih strani in drugega javno dostopnega gradiva. Na tej osnovi ustvarjajo odgovore, ki zvenijo verjetno, ne nujno pravilno.

To vodi do konfabulacij: odgovori so prepričljivi, natančni in hkrati napačni. Ker je slog gladek in samozavesten, uporabniki brez medicinskega znanja težko ločijo resnico od fikcije.

Rob Eleveld iz nadzorne skupine Transparency Coalition je za SFGate dejal: »There is zero chance, zero chance, that the foundational models can ever be safe on this stuff. Because what they sucked in there is everything on the Internet. And everything on the Internet is all sorts of completely false crap.«

Dodatno ChatGPT prilagaja svoje odgovore posameznemu uporabniku. Odgovori se spreminjajo glede na:

  • vaš slog pisanja in ton,
  • prejšnja sporočila v niti,
  • kontekst iz starejših pogovorov.

Eden izmed vas bo dobil zelo previden, generičen nasvet. Drugi, po mesecih klepetanja, lahko naleti na bolj sproščen in tvegan slog – kot v Nelsonovem primeru.

Zdaj pa si predstavljajte, da tak sistem razlaga vaš izvid biopsije ali EKG.

Digitalni pomočnik brez medicinskih standardov

Potreba je resnična: pacienti imajo težave z razumevanjem izvidov, navodil in zdravniških zapisov. Zdravniki imajo omejen čas.

Orodje, ki vam:

  • povzame odpustno pismo v preprostih točkah,
  • iz navodil izdela seznam vprašanj za naslednji pregled,

bi lahko bilo zelo uporabno – če bi bilo preverjeno in regulirano.

A splošnonamenski AI klepetalniki niso regulirani kot medicinski pripomočki. Ni standardiziranega, državnega testiranja varnosti za scenarije, kot so »kako pogosto model napačno razloži laboratorijsko vrednost« ali »kdaj predlaga nevarno ravnanje v daljšem pogovoru«.

Komu zaupate svoje podatke

OpenAI poskuša z ChatGPT Health izpeljati občutljivo ravnotežje:

  • od vas želi dovolj zaupanja, da delite zdravstvene zapise in podatke o počutju,
  • hkrati pa vztraja, da orodje ni za diagnozo ali zdravljenje.

Ponujajo nekaj omilitvenih ukrepov: ločen zdravstveni razdelek, sodelovanje zdravnikov in obljubo, da se teh pogovorov ne bo uporabljalo za učenje modelov.

A tragičen primer Sama Nelsona pokaže, kako lahko varovalke v praksi popustijo. Modeli ostajajo naučeni na kaotičnih podatkih interneta. In strokovnjaki, kot je Eleveld, menijo, da je pri takem pristopu popolna varnost iluzija.

Za zdaj je najbolj razumna uporaba ChatGPT Health takšna, da ga vidite kot orodje za zapiske in razlago – nikoli kot zamenjavo zdravnika ali farmacevta. Resnično vprašanje pa je, ali bodo uporabniki (in produktne strategije) pri takšnem omejenem cilju tudi ostali.

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.