Ko vrhovni kibernetski varuh ZDA podatke naloži v ChatGPT
1. Uvodni naslov in okvir
Če vršilec dolžnosti prvega kibernetskega varuha ZDA ne zna varno uporabljati ChatGPT, koliko realno lahko pričakujemo od občin, bolnišnic ali manjših podjetij?
Razkritje, da je vodja ameriške agencije CISA po pomoti naložil občutljive dokumente v javno različico ChatGPT, ni zgolj še ena politična zgodba iz Washingtona. Gre za preizkus, kako se države in organizacije v resnici spopadajo z generativno umetno inteligenco. V nadaljevanju analiziramo, kaj nam incident pove o upravljanju AI, zakaj bi moral zanimati tudi slovenske in evropske odločevalce ter kje so konkretne lekcije za javni sektor in podjetja.
2. Kaj se je zgodilo – na kratko
Kot poroča Ars Technica na podlagi razkritij portala Politico, je vršilec dolžnosti direktorja ameriške agencije za kibernetsko varnost in zaščito infrastrukture (CISA), Madhu Gottumukkala, lani poleti v javni ChatGPT naložil dokumente o državnih pogodbah, označene kot „samo za uradno uporabo“.
Na omrežju ameriškega ministrstva za domovinsko varnost (DHS) naj bi se zato sprožili notranji sistemi za zaznavanje morebitnega iznosa podatkov. Večina zaposlenih v DHS ima dostop do lastnih AI orodij, kot je „DHSChat“, medtem ko je javni ChatGPT praviloma blokiran. Gottumukkala je za uporabo javnega orodja pridobil posebno dovoljenje.
Po navedbah Ars Technice je DHS sprožil preiskavo o morebitni ogroženosti varnosti države, s potencialnimi disciplinskimi posledicami. Incident se je zgodil v času, ko je bil Gottumukkala že pod političnim pritiskom zaradi odpuščanj v CISA in vprašanj kongresa o njegovi presoji na področju kibernetske varnosti.
3. Zakaj je to pomembno
To ni samo zgodba o eni napaki posameznika, temveč simptom širšega problema: zmogljiva nova orodja v rokah organizacij, ki še nimajo prilagojenih pravil igre.
Najprej simbolika. CISA je agencija, ki podjetjem in javnim ustanovam po svetu razlaga, kako naj ravnajo z občutljivimi podatki. Če njen vršilec dolžnosti direktorja, z več kot dvema desetletjema izkušenj na področju IT, brez zadržkov lepi občutljive dokumente v javno AI storitev, je iluzorno pričakovati bolj disciplinirano ravnanje v manj zrelih okoljih.
Drugo, tveganje je sistemsko. Tudi če dokumenti niso bili tajni, temveč „zgolj“ občutljivi in neuclassifiedirani, so bili namenjeni ostati znotraj kontroliranih vladnih omrežij. Ko enkrat pridejo v komercialni model umetne inteligence, lahko tam ostanejo shranjeni, uporabijo se lahko za izboljšanje modela ali postanejo tarča vdora. Tudi če ponudnik obljublja ločeno obdelavo, se tveganje prenosa podatkov bistveno poveča.
Tretje, incident razgalja klasičen vzorec: politično vodstvo želi „hitro uvesti AI“ zaradi modernizacije in prihrankov, podporne politike, izobraževanja in kultura pa bistveno zaostajajo. DHS je imel interno AI orodje, zasnovano prav zato, da se takšni incidenti ne bi zgodili. Kljub temu je prvi človek CISA vztrajal pri uporabi javnega orodja – to ni inovativnost, temveč izvršni „shadow IT“.
Kdo pri tem pridobi? Podjetja, ki ponujajo tako imenovane suverene ali lokalno nameščene AI rešitve, so brezplačno dobila zelo prepričljiv prodajni primer. Kdo izgubi? Zaupanje v CISA kot partnerja in koordinatorja – od ameriških zasebnih operaterjev kritične infrastrukture do zaveznikov, tudi v Evropi.
4. Širši kontekst
Če dogodek gledamo izolirano, deluje kot nesrečno naključje. Če ga postavimo v zgodovinski okvir, se lepo vklaplja v dolg niz podobnih zgodb.
Spomnimo se: USB ključki, osebni Dropbox računi, službena komunikacija prek komercialnih klepetalnikov. Vojaki, ki so z aplikacijami za tek razkrivali lokacije vojaških oporišč. Diplomati, ki so občutljiva sporočila pošiljali prek zasebnih aplikacij. Zaposleni, ki so si zaradi udobja sinhronizirali zaupne datoteke v osebni oblak.
Generativna AI je samo naslednje poglavje – z razliko, da podatki ne živijo več v datoteki, temveč postanejo del sistema, ki ga lahko kdorkoli sprašuje. Potencialna škoda je zato dolgoročna: enkrat naložen dokument lahko prek odzivov modela vpliva na tisoče naslednjih interakcij.
Po svetu zato pospešeno nastajajo pravila za rabo LLM orodij. Italijanski regulator je ChatGPT leta 2023 začasno blokiral zaradi skrbi glede zasebnosti. Britanski NCSC in evropska ENISA sta objavila smernice, ki javnim uslužbencem izrecno odsvetujejo vnašanje občutljivih podatkov v javne modele. Velike korporacije uvajajo „enterprise“ različice modelov z obljubo, da se podatki ne mešajo z javnimi.
Primer CISA se prepleta še z notranjo krizo v agenciji: odpuščanja, politični pritiski zaradi varovanja volitev in sporni kadrovski premiki. Varnost pa je vedno tudi odraz kulture. Če vodstvo pošilja signal, da za njega pravila ne veljajo enako, bodo tudi drugi pripravljeni tvegati bližnjice.
Za Evropo je to zelo konkreten opomin, kaj se lahko zgodi v ministrstvih, regulatorjih ali celo v institucijah EU, ko „uvajanje AI“ prehiti realno upravljanje tveganj.
5. Evropski in slovenski pogled
Evropske institucije in države članice se znajdejo v dvojni vlogi: na eni strani morajo spodbujati digitalno preobrazbo in uporabo AI, na drugi pa uveljavljati GDPR, Zakon o digitalnih storitvah, NIS2 in v kratkem tudi Akt o umetni inteligenci.
Ti predpisi poudarjajo obvladovanje tveganj in zaščito podatkov, manj pa se ukvarjajo z vsakdanjimi situacijami: uslužbenec na ministrstvu v Ljubljani, ki želi hitro prevesti povzetek poročila; uradnica v občini, ki prosi model, naj poenostavi razpisno dokumentacijo; razvijalec v slovenskem fintech start‑upu, ki v ChatGPT prilepi del izvorne kode.
Nekatere evropske institucije so javne LLM že omejile ali prepovedale v službenih okoljih, druge uvajajo lastna orodja v evropskih podatkovnih centrih. Toda politika je pogosto neenotna, izjeme za „visoke funkcionarje“ pa pogoste. Primer CISA jasno pokaže, da so izjeme na vrhu organizacije največje tveganje.
Za Slovenijo in regijo je lekcija jasna:
- javni sektor potrebuje zelo konkretne smernice, kaj se sme in česa se ne sme vnašati v javne AI storitve;
- uvajanje internih LLM‑jev (npr. v državni upravi ali v zdravstvu) mora biti povezano z jasno odgovornostjo in revizijsko sledjo;
- kibernetska strategija in izvajanje NIS2 bi morala „AI higieno“ obravnavati kot del osnovne varnostne kulture.
Hkrati incident v ZDA krepi argumente za „digitalno suverenost“: evropske modele, ki jih je mogoče poganjati lokalno ali v zaupanja vrednih oblakih, tako da občutljivi dokumenti nikoli ne zapustijo jurisdikcije EU.
6. Pogled naprej
Ni verjetno, da bo to zadnji odmevni incident z napačno uporabo AI v javnem sektorju – ne v ZDA in ne v Evropi. Ko bodo LLM orodja postala tako samoumevna kot brskalnik, se bo površina za nenamerno razkritje podatkov dramatično povečala.
V ZDA se bo razprava vrtela okoli osebne odgovornosti Gottumukkale, ključno vprašanje pa je institucionalno: ali bo DHS dogodek izkoristil za zaostritev pravil in tehničnih omejitev ali pa bo vse ostalo pri interni zaušnici.
V Evropi velja v naslednjih 12–24 mesecih spremljati predvsem tri stvari:
- Natančna pravila uporabe AI v javni upravi, ki ne bodo ostala na ravni etičnih načel, ampak bodo operativno določila, kaj nikoli ne sme v javni model.
- Razpise za „suverene LLM‑je“ v državnih upravah, varnostnih organih in regulativnih agencijah – pogosto na osnovi odprtokodnih modelov, nameščenih v evropski infrastrukturi.
- Vključevanje AI v obveznosti po NIS2 in nacionalnih strategijah, kjer bo zloraba javnih LLM obravnavana kot varnostno tveganje, ne le kot kršitev internega pravilnika.
Odprta ostajajo praktična vprašanja: kako naj organi preverjajo, ali ponudniki res ločeno obdelujejo podatke? Kako nadzirati uporabo AI, ne da bi se zdrsnilo v pretiran nadzor zaposlenih? In kaj se zgodi, ko bo v javni model zašel ne le razpis, temveč operativni načrt kritične infrastrukture ali večje količine osebnih podatkov?
Uspešne bodo tiste organizacije, ki bodo AI obravnavale kot del kritične infrastrukture – z enako strogostjo, odgovornostjo in kulturo, kot jo zahtevamo pri električnem omrežju ali zdravstvenih sistemih.
7. Spodnja črta
Incident CISA–ChatGPT je neroden, vendar predvsem razgalja realnost: tudi najbolj izkušene kibernetske institucije improvizirajo pri uvajanju AI. Za slovenske in evropske organizacije je to brezplačna vaja. Ali boste pravočasno postavili jasna pravila uporabe AI – tudi za vodstvo – ali pa boste slej kot prej gledali lastne dokumente v tujem modelu. Vprašanje ni, ali se bo napaka zgodila, temveč ali boste nanjo pripravljeni.



