Kad „dovoljno dobro“ može ubiti: što eksperiment američkog ministarstva prometa s AI-jem znači za regulatore

27. siječnja 2026.
5 min čitanja
Državni službenik na prijenosnom računalu pregledava AI-generirane sigurnosne propise za promet

1. Naslov i uvod

Zamislite da o tome koliko se često pregledava avion ili kako se nadziru plinovodi odlučan utjecaj ima – chatbot. Upravo u tom smjeru ide američko Ministarstvo prometa (DOT), koje prema pisanju ProPublice i Ars Technice koristi Google Gemini za izradu nacrta sigurnosnih propisa. Prioritet nije savršenstvo, nego brzina – „dovoljno dobro“ umjesto temeljito.

To nije samo američka bizarnost. Riječ je o ranoj probi mnogo većeg pomaka: hoće li države prepustiti izradu pravila komercijalnoj umjetnoj inteligenciji i kakve će to posljedice imati za sigurnost, povjerenje i politiku – pa tako i u Hrvatskoj.


2. Vijest ukratko

Prema istrazi ProPublice, koju detaljno prenosi Ars Technica, američko Ministarstvo prometa počelo je koristiti Googleov AI sustav Gemini za izradu nacrta saveznih sigurnosnih propisa za zračni, cestovni i cjevovodni promet.

Na temelju internih bilješki, na koje se izvještaji pozivaju, vodstvo DOT-a želi drastično skratiti vrijeme potrebno za pisanje propisa: tekstovi koji su se ranije izrađivali tjednima ili mjesecima sada bi trebali biti gotovi u oko 30 dana, a Gemini navodno generira početne nacrte za manje od pola sata. Glavni pravni savjetnik ministarstva na sastancima je, prema tim bilješkama, istaknuo da pravila ne moraju biti savršena, već dovoljno dobra da se postupak pomakne naprijed.

Više službenika, anonimno, izrazilo je ozbiljnu zabrinutost zbog oslanjanja na općenamjenski chatbot za tako složen pravni i tehnički posao, podsjećajući na slučajeve u kojima su sudovi već bili dovedeni u zabludu AI „halucinacijama“. ProPublica navodi da je Gemini već korišten pri izradi barem jednog još neobjavljenog pravilnika američke zrakoplovne agencije (FAA). Google istodobno javno ističe DOT kao primjer digitalne transformacije državne uprave.


3. Zašto je to važno

Kod sigurnosne regulative razlika između „ispravno“ i „otprilike“ doslovno se broji životima. Loše sročena uredba o kolačićima na webu znači samo više dosadnih skočnih prozora; loše sročen propis o inspekcijama zrakoplova ili nadzoru tlaka u plinovodima može završiti katastrofom. Tekst propisa nije birokratska kozmetika, nego posljednja zaštitna mreža između složenih tehničkih sustava i ljudi. Ako ga tretiramo kao „prazan tekst“ koji može proizvesti stroj, to više nije tehničko, nego političko odustajanje od odgovornosti.

Tko dobiva? Kratkoročno, vodstvo DOT-a i administracija Donalda Trumpa, koje mogu pokazati „moderniziranu“ birokraciju, te Google, koji dobiva snažan referentni projekt: njegov se model nalazi u samoj srži postupka donošenja propisa u velikoj državi. Ako DOT doista krene od pretpostavke da Gemini može odraditi 80–90 % posla pisanja, sve druge agencije postaju potencijalne mušterije.

Tko gubi? Prije svega građani, koji nemaju stvaran uvid u to koji su dijelovi propisa nastali uz pomoć zatvorenog komercijalnog modela, treniranog na nepoznatim podacima. Zatim službenici‑stručnjaci, čija se uloga sa stvarnih autora propisa svodi na „kontrolore“ teksta koji je izbacila AI – i time polako nestaje institucionalno znanje koje je presudno kod složenih, kriznih situacija.

Tu je i gubitak legitimnosti. Čak i kad bi svi AI‑asistirani propisi bili tehnički ispravni, sama činjenica da ključna pravila o sigurnosti zrakoplova ili plinovoda u velikoj mjeri „piše“ chatbot narušava povjerenje u regulatora. A jednom izgubljeno povjerenje teško se vraća – i u SAD-u i u EU.


4. Šira slika

Potez DOT-a dolazi nakon godine u kojoj je generativni AI već osramotio pravosuđe. Odvjetnici u više država kažnjeni su jer su sudovima predali podneske s izmišljenom sudskom praksom koju su nekritički preuzeli iz chatbota, a suci su javno priznali da ih uvjerljivi, ali pogrešni tekstovi mogu zavesti. Poruka je jasna: veliki jezični modeli sjajno imitiraju ton i stil stručnjaka, ali im se ne može slijepo vjerovati kao izvoru činjenica.

Istodobno vlade diljem svijeta eksperimentiraju s AI‑jem u administraciji – od automatskih odgovora na e‑poštu do sažimanja dokumenata. Većina tih slučajeva relativno je niskog rizika. DOT, međutim, pomiče AI u samu jezgru državne moći: normiranje i regulaciju.

Povijest nas uči da takvo prepuštanje odluka modelima može skupo koštati. Prije financijske krize 2008. banke i regulatori su gotovo religiozno vjerovali modelima tržišnog rizika. Ti modeli nisu bili zli sami po sebi; problem je bio u tome što je cijeli sustav precijenio njihovu pouzdanost. Danas vidimo sličan obrazac: nova, teško provjerljiva tehnologija dobiva ulogu tihog suodlučitelja u području s ogromnim društvenim posljedicama.

Ako usporedimo s drugim sigurnosno kritičnim sektorima, kontrast je očit. Softver koji upravlja avionikom ili nuklearnim reaktorima prolazi stroge certifikacije, neovisne provjere i testiranja s višestrukim sigurnosnim marginama. Sama pomisao da bi propise za iste te sustave trebao djelomično pisati generički generator teksta, bez usporedivih jamstava kvalitete i odgovornosti, trebala bi zabrinuti svakoga tko prati digitalni razvoj, od Zagreba do Splita i Osijeka.


5. Europski i regionalni kontekst

Iako je slučaj američki, njegovi učinci neće ostati unutar SAD-a. Propisi američke Savezne zrakoplovne administracije i drugih tijela često postaju de facto globalni standard, koje prate i europske, pa i hrvatske zrakoplovne i logističke tvrtke ako žele letjeti ili poslovati na američkom tržištu. Ako te standarde počnu oblikovati ograničenja jednog komercijalnog AI modela, posljedice će se preliti i na europske putnike i operatore.

Europska unija u ovaj razgovor ulazi s drugačijim okvirom. GDPR, Akt o digitalnim uslugama i nadolazeći Akt o umjetnoj inteligenciji snažno naglašavaju odgovornost, transparentnost i ljudski nadzor. Ministarstvo prometa bilo koje države članice, koje bi DOT‑ovim putem prepustilo većinu pisanja propisa AI‑ju, vrlo brzo bi se suočilo s pitanjima tijela za zaštitu podataka, sudova i javnosti.

Za Hrvatsku i širu regiju jugoistočne Europe ovaj slučaj je pravovremeno upozorenje. Državna uprava već razmatra upotrebu generativnog AI‑ja za interne dopise, nacrte i analize. No primjer DOT‑a jasno pokazuje gdje bi trebala biti crvena linija: sigurnosno kritični propisi ne smiju nastajati u komercijalnom, zatvorenom modelu pod kontrolom velike strane platforme. Ako Zagreb želi iskoristiti AI, mora istodobno definirati stroga pravila igre – od lokalne obrade podataka do obveznih revizija i javne objave načina korištenja AI‑ja.


6. Pogled unaprijed

Što dalje? U SAD-u je vrlo vjerojatno da će prvi ozbiljniji incident povezan s propisom u čijoj je izradi sudjelovao AI dovesti do vala tužbi. Sudovi će tražiti precizne odgovore: kako je AI korišten, tko je provjeravao njegov izlaz i je li se uz razumnu pažnju mogla uočiti eventualna greška. Već samo to pravno sivilo trebalo bi biti signal opreza svakom regulatoru.

Politički, eksperiment može pojačati trend ili izazvati kontraudar. Ako nekoliko godina prođe bez javnih skandala, porast će pritisak na druge agencije i druge države da slijede isti put – često vođene štednjom, a ne kvalitetom. No dovoljan je jedan spektakularan neuspjeh, vezan uz AI‑generirani propis, da se klatno naglo okrene i da generativni AI u javnom sektoru postane sinonim za rizik.

Tehnološke će kompanije odgovoriti ponudom „državnih“ verzija modela, s dodatnim sustavima evidencije, kontroliranijim skupovima podataka i specijalizacijom za pojedine sektore. Ali ni to ne rješava ključno pitanje: gdje prestaje pomoć, a počinje delegiranje odgovornosti na stroj? Tko će, politički i pravno, stajati iza rečenice koju je prvo „predložio“ model, a čovjek samo površno ispravio?

Za građane i civilno društvo, i u Hrvatskoj i u EU, bit će ključno pratiti tri stvari:

  • hoće li tijela javne vlasti javno objavljivati kada i kako koriste AI pri izradi propisa;
  • hoće li postojati neovisne tehničke i pravne revizije AI‑generiranih tekstova;
  • hoće li zakonodavni proces ostavljati trag – uključujući promptove i međuverzije – dostupan za demokratski nadzor.

Bez toga polako klizimo prema „zakonodavstvu crne kutije“, u kojem nitko sa sigurnošću ne zna tko je zapravo napisao pravila koja uređuju naš promet i infrastrukturu.


7. Zaključak

Prepuštanje pera za zrakoplovne i plinovodne propise općenamjenskom chatbotu, u ime uštede nekoliko tjedana birokratskog rada, izuzetno je rizična razmjena: dobitak je udobnost uprave, a gubitak može biti od erozije povjerenja do konkretnih ljudskih žrtava. Ako želimo odgovorno koristiti AI u javnom sektoru – u Hrvatskoj, EU i šire – moramo je tretirati kao alat podložan strogom nadzoru, a ne kao nevidljivog sudonosioca odluka. Pitanje je hoćemo li tu granicu postaviti na vrijeme, prije nego što prvi „AI‑propis“ zakaže u stvarnom svijetu.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.