- NASLOV + UVOD
Sve češće ne pitamo Google, nego „pitanje pošaljemo“ chatbota. Dobijemo brz, siguran i gramatički besprijekoran odgovor – i tu često prestanemo razmišljati. Nova istraživanja pokazuju da ovaj refleks ima ime: kognitivna predaja.
U nastavku neću prepričavati studiju, već ću analizirati što njezini rezultati znače za korisnike, poduzeća i javni sektor, osobito u Hrvatskoj i regiji. Glavna teza: kratkoročni dobitak u produktivnosti lako se pretvara u dugoročnu degradaciju našeg kolektivnog razmišljanja.
- VIJEST UKRATKO
Kako piše Ars Technica, istraživači s University of Pennsylvania objavili su rad "Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender", u kojem su proučavali kako ljudi koriste velike jezične modele (LLM) pri rješavanju tzv. Cognitive Reflection Testova (CRT).
Sudionici su po želji mogli konzultirati LLM‑chatbota, kojeg je tim namjerno prilagodio tako da točno odgovara otprilike u polovici slučajeva, a u drugoj polovici generira pogrešne, ali vrlo uvjerljivo formulirane odgovore. Prema pisanju Ars Technice, u uzorku od 1.372 osobe i više od 9.500 pojedinačnih zadataka, ispitanici su prihvatili pogrešno rezoniranje AI‑ja u prosjeku u oko 73 % slučajeva, a osporili ga u manje od 20 %.
Kada je AI bio u pravu, korisnici su mu slijedili u više od 90 % slučajeva; čak i kada je griješio, složili su se s odgovorom u oko 80 % pokušaja. Sama mogućnost korištenja AI‑ja povisila je samopouzdanje sudionika u vlastite odgovore za oko 11,7 postotnih bodova, iako je model bio točan tek u polovici situacija. Uvođenje novčanih poticaja i trenutačne povratne informacije povećalo je sklonost ispravljanju AI‑ja, dok je vremensko ograničenje od 30 sekundi taj efekt smanjilo. Osobe s višom tzv. fluidnom inteligencijom manje su se oslanjale na AI i češće su prepoznavale njegove pogreške.
- ZAŠTO JE TO VAŽNO
Ključni problem nije u tome da će AI „postati previše pametan“, već da ćemo mi postati previše spremni prepustiti mu razmišljanje. Onog trenutka kada dopustimo sustavu da misli umjesto nas, kvaliteta naših odluka vezana je uz njegovu kvalitetu – raste kada je dobar, naglo pada kada griješi.
Kratkoročni pobjednici su pružatelji AI alata i organizacije koje žele smanjiti troškove. Ako zaposlenici tretiraju chatbot kao nepogrešivog kolegu, manje će trošiti vrijeme na provjeru i konzultacije s drugim ljudima. Dio posla koji su nekada radili iskusni stručnjaci prelazi na „AI‑potpomognute“ procese, često bez stvarne kontrole.
Gubitnici smo mi kao društvo: pacijenti, klijenti, birači, studenti. U laboratorijskim uvjetima radilo se o bezopasnim zagonetkama, ali je već tu predaja bila masovna. U stvarnosti se LLM‑ovi već koriste u zdravstvu, pravu, obrazovanju, bankarstvu. Ako ljudi u tim sektorima nehotice gase vlastiti „unutarnji alarm“ čim vide samouvjeren odgovor, posljedice mogu biti i skupe i opasne.
Studija razotkriva i koliko dizajn proizvoda utječe na našu psihologiju. Sustavi koji daju brze, glatke i sigurne odgovore s minimalnim trenjem automatski spuštaju naš prag sumnje. To nije „glupost korisnika“, već poznata pristranost prema automatizaciji: skloni smo previše vjerovati alatima koji obično rade i zvuče uvjerljivo.
Vanjski uvjeti dodatno pojačavaju efekt. Kada su bili prisutni poticaji i instant povratna informacija, sudionici su češće provjeravali odgovore AI‑ja. Pod vremenskim pritiskom dominirao je suprotan impuls: prihvati i nastavi. To prilično vjerno opisuje i realnost mnogih hrvatskih i regionalnih ureda – od call centara do državne uprave.
- ŠIRA SLIKA
Ovi rezultati uklapaju se u veći trend: prijelaz s UI kao alata na UI kao "sukreatora". Dugo smo prakticirali ograničeno kognitivno rasterećenje – navigacija umjesto karte, kalkulator umjesto papira – ali smo i dalje okvirno znali što radimo. Veliki jezični modeli idu korak dalje: nude gotove argumente, strukture, odluke.
Povijest nas podsjeća na opasnosti. Piloti koji previše vjeruju autopilotu. Vozači koji slijepo prate GPS i završe na makadamu ili u slijepoj ulici. Financijski modeli koji savršeno rade – dok ne dođe crni labud. Sada isti obrazac prijeti u svakoj domeni koja se oslanja na tekst i znanje.
Ono što LLM‑ove čini posebnom prijetnjom jest širina primjene. Jedan te isti chatbot će samouvjereno govoriti o programiranju, poreznim propisima, psihologiji rada i strategiji marketinga. Korisnik nema jasan signal kada je model „izvan svoje lige“ – ton i stil su uvijek isti.
Na tržištu to pogoduje platformama optimiziranima za udobnost, a ne za istinu. Pretraživač ili uredski paket koji korisniku isporuči jednu gotovu, lijepo sročenu rečenicu često će pobijediti rješenja koja traže dodatni klik za provjeru izvora ili prikazuju više opcija. U kratkom roku pobjeđuje najmanje kognitivno opterećenje.
Studija također sugerira novu vrst digitalne nejednakosti. Osobe s višom fluidnom inteligencijom bolje su odolijevale pogrešnim savjetima AI‑ja. To znači da će oni s manje razvijenim analitičkim vještinama – često i s manje obrazovnih i ekonomskih resursa – češće nekritički prihvaćati pogrešne odgovore. U državama s izraženim razlikama u kvaliteti školstva, uključujući dijelove jugoistočne Europe, to je posebno zabrinjavajuće.
- EUROPSKI I REGIONALNI KONTEKST
Za Hrvatsku i EU ovo nije samo tehnološko, nego i regulatorno i kulturno pitanje. EU Akt o umjetnoj inteligenciji naglašava "učinkovit ljudski nadzor" i traži da visokorizični sustavi budu dizajnirani tako da korisnici razumiju njihove granice. Rezultati s Pensilvanije tjeraju na razmišljanje koliko je taj ideal ostvariv u praksi.
Dosad se europski okvir bavio prvenstveno zaštitom podataka (GDPR), sadržajem (DSA) i tržišnom moći (DMA). Sada se otvara novo polje: kognitivna ovisnost o alatima koji su uglavnom razvijeni izvan Europe. Ako građani i institucije u Zagrebu, Ljubljani ili Beogradu nauče da je „ono što kaže chatbot“ standard istine, sve pravne odredbe o ljudskom nadzoru ostat će mrtvo slovo na papiru.
Istovremeno, postoji prilika za lokalne i regionalne tvrtke. Hrvatski igrači poput Infobipa ili Rimca već pokazuju da je moguće iz malog tržišta graditi globalnu tehnologiju. Novi val startupa mogao bi se pozicionirati upravo na polju "sigurne" i transparentne UI: alati koji jasno pokazuju izvore, ističu nesigurnost i potiču korisnika na provjeru.
Za obrazovni sustav u Hrvatskoj i susjednim zemljama to znači da AI pismenost mora uključivati i trening otpora. Učenici i studenti ne smiju UI vidjeti samo kao skraćeni put do eseja, nego i kao nešto čemu se ponekad svjesno treba usprotiviti.
- POGLED NAPRIJED
U iduće tri do pet godina vjerojatno nećemo govoriti "idem na ChatGPT", nego ćemo se s AI susretati posvuda: u Wordu, Exceltu, ERP‑u, e‑Dnevniku, sustavima za e‑Građane, internim portalima tvrtki. Svaka takva integracija olakšava da se bez razmišljanja prihvati prvi ponuđeni odgovor.
Vidim tri ključna pitanja za našu regiju.
Prvo, dizajn i nabava. Hoće li državne institucije i velike kompanije prilikom uvođenja AI‑rješenja tražiti funkcije koje potiču provjeru – prikaz izvora, alternativne odgovore, upozorenja kod osjetljivih tema – ili će prioritet biti samo povoljan ugovor i brza implementacija?
Drugo, regulacija i nadzor. EU Akt o umjetnoj inteligenciji postavit će okvir, ali će nacionalna tijela morati odraditi „prljavi posao“ tumačenja i provedbe. U Hrvatskoj će to značiti koordinaciju resora (digitalizacija, pravosuđe, zdravstvo, obrazovanje), HAKOM‑a, AZOP‑a i drugih. Pitanje je: hoće li nadzor pratiti stvarnu upotrebu AI‑ja ili će ostati na razini strategija i priopćenja?
Treće, organizacijska kultura. Svaka ozbiljna organizacija u regiji trebala bi već sada pisati politike: gdje je AI podržan, gdje je obvezna dvostruka ljudska provjera, a gdje je zabranjen. Jednako važno, trebala bi mjeriti ne samo uštede, nego i kako AI utječe na broj pogrešnih odluka, reklamacija, žalbi.
Ako ova pitanja ignoriramo, riskiramo da kvaliteta odlučivanja u društvu postane zavisna varijabla pogrešaka nekoliko komercijalnih modela, čiji razvoj ne kontroliramo.
- ZAKLJUČAK
Najbliži realni rizik umjetne inteligencije nije pobuna robota, već tiha predaja ljudi. Studija s University of Pennsylvania, o kojoj piše Ars Technica, pokazuje koliko brzo smo spremni prepustiti vlastitu prosudbu alatima koji zvuče uvjerljivo, i kada objektivno često griješe.
Pitanje za svakog čitatelja je jednostavno: želite li da vaše odluke za pet godina više odražavaju ograničenja chatbota koji ste koristili nego vaše vlastito znanje i iskustvo? Ako je odgovor ne, vrijeme je da u svakodnevni rad ugradite novu vještinu: namjerno, uporno, ponekad neugodno ljudsko propitivanje.



