1. Uvodni naslov in uvod
Predstavljajte si, da o tem, kako pogosto se pregleda letalo ali kako se nadzorujejo plinovodi, ključno besedo dobi klepetalni robot. Prav v to smer se premika ameriško ministrstvo za promet (DOT), ki po poročanju ameriških medijev uporablja Google Gemini za pripravo osnutkov varnostnih predpisov. Vodstvo naj bi stremelo k hitrosti, ne k perfekcionizmu – »dovolj dobro« namesto brezhibno.
To ni le ameriška posebnost. Gre za zgodnji preizkus veliko širšega vprašanja: bodo vlade pisanje pravil prepustile komercialnim modelom umetne inteligence in kakšne posledice bo to imelo tudi za Evropo in Slovenijo?
2. Novica na kratko
Po preiskavi ProPublice, ki jo povzema tudi Ars Technica, je ameriško ministrstvo za promet začelo uporabljati Googlov sistem Gemini za pripravo zveznih varnostnih predpisov za letalski, cestni in cevovodni promet.
Iz notranjih zapisnikov, do katerih sta prišla medija, izhaja, da želi vodstvo DOT postopek pisanja pravil bistveno skrajšati: kar je prej trajalo tedne ali mesece, naj bi zdaj nastalo v približno 30 dneh, pri čemer Gemini osnutke generira v manj kot pol ure. Glavni pravnik ministrstva je v internem srečanju pojasnil, da pravila ni treba napisati popolno, temveč dovolj dobro, da se proces premakne naprej.
Več uslužbencev je anonimno opozorilo, da gre za izjemno kompleksno pravno in tehnično delo, ki ga je nevarno prepuščati splošnonamenskemu modelu, znanemu po halucinacijah. ProPublica navaja, da je bil Gemini uporabljen že pri vsaj enem še neobjavljenem pravilniku ameriške letalske agencije (FAA). Google medtem partnerstvo z DOT javno predstavlja kot primer digitalne preobrazbe javne uprave.
3. Zakaj je to pomembno
Pri varnostni regulativi v prometu ni prostora za lahkotnost. Slabo napisan predpis o spletnih piškotkih povzroči le nadležne pasice; slabo napisan predpis o vzdrževanju letal ali nadzoru plinovodov ima lahko smrtonosne posledice. Besedilo pravil je zadnja plast zaščite med zapletenimi tehničnimi sistemi in človeškimi življenji. Če ga obravnavamo kot »polnjenje besedila«, ne kot strokovno delo, smo v resnici odpovedali pri upravljanju tveganj.
Kdo pri tem pridobi? Kratkoročno vodstvo DOT in administracija Donalda Trumpa, ki lahko pokažeta na »posodobljeno« birokracijo, ter Google, ki si utrjuje položaj ponudnika, brez katerega si država ne zna več predstavljati dela. Če bo DOT res trdil, da lahko Gemini opravi 80–90 odstotkov pisanja predpisov, se vsak drug organ hitro spremeni v potencialno stranko.
Kdo izgubi? Najprej javnost, ki danes nima nobenega vpogleda v to, kateri členi življenjsko pomembnih pravil so nastali s pomočjo neprosojnega modela z neznanim učnim naborom. Nato uradniki, katerih naloga je bila desetletja prevajati tehnično realnost v jasne in izvedljive pravne okvirje. Če postanejo zgolj »nadzorniki AI«, se institucionalno znanje razkraja – in prav to znanje bomo potrebovali pri prvem resnem incidentu.
Obstaja še ena, politična cena: legitimnost. Tudi če bi bila vsa z AI pomočjo nastala pravila tehnično brezhibna, bo javno zaupanje upadlo, ko bo jasno, da je predpis, ki določa, kako varno je vaše naslednje letalo, v največji meri »napisal« chatbot. In ko pade zaupanje, pade tudi pripravljenost za spoštovanje pravil.
4. Širši kontekst
Eksperiment DOT prihaja po letu, v katerem je generativni AI že osmešil sodstvo. Odvetniki v različnih državah so bili kaznovani, ker so na sodišče vložili vloge z izmišljenimi sodbami, ki so jih nekritično prepisali iz klepetalnikov. Sodniki so javno priznali, da jih lahko navidez prepričljiva, a lažna besedila zavedejo. Vse to je jasen signal: veliki jezikovni modeli so mojstri prepričljivega tona, ne nujno resnice.
Vladajo pa tudi močni pritiski, da javne uprave »ne zaostanejo«. Številna ministrstva po svetu že preizkušajo AI za odgovarjanje na elektronsko pošto, povzemanje dokumentov in pripravo nezavezujočih osnutkov. Razlika pri DOT je kvalitativna: AI se premika iz pisarne v središče državne moči – v nastajanje zavezujočih pravil.
Zgodovina nas uči, da lahko takšna delegacija odločitvenih orodij hitro uide nadzoru. Pred finančno krizo 2008 so banke in regulatorji slepo zaupali modelom tržnega tveganja. Modeli sami po sebi niso bili zlonamerni; problem je bila institucionalizirana vera v orodja, ki jih nihče ni do konca razumel in jih nihče ni preizkusil na skrajne scenarije.
Če pogledamo druge varnostno kritične domene, vidimo popolnoma drugačen pristop. Programska oprema v avioniki ali jedrskih elektrarnah gre skozi stroge certifikacijske postopke, neodvisne revizije in redundantne sisteme. Ideja, da bi splošen generativni model brez formalnih garancij pisal pravila za te iste sisteme, brez primerljive strogosti, bi morala zaskrbeti tudi tiste, ki sicer navijajo za hitro uvajanje AI.
5. Evropski in slovenski vidik
Čeprav gre formalno za ameriški primer, bo vpliv globalen. Ameriška letalska in prometna regulativa pogosto določa standarde, ki jim sledijo prevozniki in proizvajalci po vsem svetu – tudi tisti, ki letijo v EU ali preko nje. Če bodo ti standardi začeli odražati omejitve in pristranskosti enega komercialnega modela AI, bo to posredno vplivalo tudi na evropske potnike in podjetja.
Evropska unija se sicer premika v drugo smer. GDPR, Zakon o digitalnih storitvah in prihajajoči Akt o umetni inteligenci poudarjajo odgovornost, sledljivost in človeka v nadzorni vlogi. Transportno ministrstvo katere koli članice EU, ki bi posnemalo DOT in AI prepustilo večino pisanja pravil, bi se hitro znašlo pod vprašanji regulatorjev, informacijski pooblaščenki in sodišč.
Za Slovenijo je to dober trenutek za razmislek. V javni upravi se že pojavljajo poskusi uporabe generativne AI – od priprave dopisov do internih analiz. Prav primer DOT kaže, kje je rdeča črta: kritična, visoko tvegana pravila ne smejo nastajati v neprosojnem komercialnem modelu, ki teče v tuji jurisdikciji. Če bodo slovenska ministrstva želela izkoristiti AI, bodo morala vnaprej določiti jasne omejitve in revizijske mehanizme.
6. Pogled naprej
Kaj sledi? V ZDA je skoraj neizogibno, da bo prvi velik incident, pri katerem bo v igri AI‑sooblikovan predpis, sprožil val tožb. Sodišča bodo želela vedeti, kako natančno je bil AI uporabljen, kdo je preverjal izpis in ali bi se napaka dala zaznati z razumno skrbnostjo. Že samo tveganje takšne pravne negotovosti bi moralo biti za regulatorje resen signal za previdnost.
Politično se lahko zgodba obrne v dve smeri. Če bo nekaj let videti, da AI‑pisani predpisi »delujejo«, se bo pritisk, naj jih sprejmejo tudi druge države in agencije, še okrepil. Če pa pride do ene same odmevne napake – morda nesreče, kjer bo razkrit AI izvor spornega člena – se lahko nihalo obrne v drugo skrajnost in bo generativni AI v regulativi za dalj časa stigmatiziran.
Na strani ponudnikov bomo skoraj zagotovo videli nove »vladne« različice modelov z obljubljenimi sledljivimi dnevniki, omejenimi učnimi podatki in domensko specializacijo. A to ne rešuje osnovnega vprašanja: kdo nosi politično in moralno odgovornost za stavek, ki ga je v pravilnik zapisala naprava?
Za evropske državljane in podjetja so ključna tri vprašanja:
- Ali bodo organi jasno razkrivali, kdaj in kako je AI sodelovala pri nastanku predpisov?
- Ali bodo obstajale neodvisne tehnične revizije AI‑generiranih besedil?
- Ali bomo imeli dostop vsaj do pozivov (prompts), ne le do končne različice v Uradnem listu?
Če na ta vprašanja ne dobimo odgovorov, se bomo zbudili v svetu, kjer nihče zares ne ve, kdo je napisal pravila, ki krojijo varnost našega prometa.
7. Sklep
Prepustiti pero za letalske in plinovodne predpise splošnonamenskemu klepetalniku zaradi nekaj prihranjenih tednov birokratskega dela je eksperiment z izjemno neuravnoteženimi tveganji. Dobiček je udobje uprave in politična točka, izguba pa lahko sega od erozije zaupanja do povsem konkretnih žrtev. Če želimo v Sloveniji in EU združiti inovacije in varnost, moramo AI obravnavati kot orodje v rokah odgovornih ljudi, ne kot skritega sozakonodajalca. Vprašanje je, ali bomo to zahtevali pravočasno – preden prvi »AI‑predpis« odpove v praksi.



