1. Naslov i uvod
Sve više Amerikanaca koristi alate umjetne inteligencije za školu, posao, pisanje i analizu podataka – ali većina otvoreno kaže da tim alatima ne vjeruje. To nije samo zanimljiva statistika, nego ozbiljno upozorenje za cijeli sektor. Nova anketa sveučilišta Quinnipiac, o kojoj piše TechCrunch, pokazuje rastuću uporabu i padajuće povjerenje. U ovom tekstu analiziramo što taj paradoks zapravo znači, zašto je važan i za Europu i za Hrvatsku te zašto će u sljedećoj fazi utrke u AI‑ju presudnu ulogu imati upravo povjerenje, a ne samo snaga modela.
2. Vijest ukratko
Kako prenosi TechCrunch, sveučilište Quinnipiac anketiralo je gotovo 1.400 Amerikanaca o stavovima prema umjetnoj inteligenciji. Slika je jasna: korištenje raste, povjerenje ne.
Glavni rezultati:
- Samo 27 % ispitanika kaže da nikada nije koristilo AI alate, u odnosu na 33 % u travnju 2025.
- Oko polovice koristi AI za istraživanje; mnogi i za pisanje, radne zadatke i analizu podataka.
- 76 % navodi da AI‑ju vjeruje rijetko ili samo ponekad; tek 21 % vjeruje većinu vremena ili gotovo uvijek.
- Samo 6 % je »jako uzbuđeno« zbog AI‑ja, dok je 80 % jako ili donekle zabrinuto.
- 55 % smatra da će AI u njihovu svakodnevnom životu donijeti više štete nego koristi; otprilike trećina očekuje više koristi.
- 70 % vjeruje da će napredak AI‑ja smanjiti broj radnih mjesta; samo 7 % očekuje povećanje prilika, pri čemu je generacija Z najpesimističnija.
- Oko dvije trećine smatra da tvrtke nisu dovoljno transparentne u vezi s korištenjem AI‑ja, a isti postotak drži da država premalo regulira to područje.
- 65 % se protivi izgradnji AI podatkovnih centara u svojoj zajednici, ponajviše zbog potrošnje električne energije i vode.
3. Zašto je to važno
Poruka ankete je neugodno jasna: ljudi se osjećaju ovisnima o tehnologiji kojoj zapravo ne vjeruju.
AI više nije dodatni gadget, već se ugrađuje u pretraživače, uredske pakete, HR sustave, korisničku podršku i kreativne alate. Kad više od polovice ispitanih koristi AI za istraživanje, ali samo svaki peti zaista vjeruje rezultatima, nastaje nevoljka ovisnost. To je vrlo klimav temelj za tehnologiju koja želi postati jednako osnovna kao preglednik ili pametni telefon.
Tko kratkoročno profitira? Veliki tehnološki igrači, koji mogu nametnuti AI kao zadanu opciju u svojim proizvodima, i poduzeća koja računaju na brze dobitke u produktivnosti – često bez ozbiljnog dijaloga sa zaposlenima.
No jaz između uporabe i povjerenja nosi rizike:
- Ako korisnici doživljavaju AI kao nepouzdanu, sve provjeravaju dvaput i poništavaju očekivane uštede.
- Ako se AI percipira kao prijetnja, izbjegavat će se upravo tamo gdje može najviše pomoći (dostupnost sadržaja, prevoditelj, programerski alati, javne usluge).
- Ako se strah od gubitka posla veže direktno uz AI, rasprava prelazi iz tehničke u čisto političku s mogućim grubim zabranama.
Gubitnici su startupi koji se natječu samo veličinom modela, bez ulaganja u objašnjivost, sledljivost i stroge provjere. Gube i regulatori koji su vjerovali da će lagani, dobrovoljni okviri biti dovoljni.
Najveća opasnost ipak je za društvenu legitimnost AI‑ja. Tehnologija koju ljudi doživljavaju kao neizbježnu, ali nepouzdanu, prije ili kasnije izaziva oštre političke reakcije – više nalik nuklearnoj energiji nego klasičnoj informatici.
4. Šira slika
Ova anketa dolazi nakon godina naslova o halucinacijama modela, pristranostima, sporovima oko autorskih prava, podatkovnim centrima koji gutaju struju i vodu te velikim valovima otkaza u tehnološkim tvrtkama. Narativ »AI uzima poslove i resurse, a rezultati su sumnjivi« postao je opće mjesto.
Slične obrasce vidjeli smo i ranije:
- Kod društvenih mreža, masovna uporaba išla je ruku pod ruku s nepovjerenjem u privatnost i kvalitetu informacija.
- Kod kripta, početni zanos završio je kolapsom povjerenja nakon niza prijevara i slomljenih projekata.
Razlika je u tome što AI vrlo brzo postaje infrastruktura. Kod weba smo sigurnost ojačali HTTPS‑om; neželjenu poštu smo suzbili filtrima i standardima. Kod AI‑ja taj »sloj povjerenja« još je nedovoljno razvijen.
Veliki igrači obećavaju pouzdanije generacije modela, s dohvaćanjem vanjskih podataka, pozivanjem alata i jačim zaštitnim mjerama. No prosječni korisnik ne vidi arhitekturu – vidi pogrešne odgovore, čudne greške i sve nesigurnije tržište rada.
Otpor prema podatkovnim centrima u anketi još je jedan signal. Fizički trag AI‑ja – struja, voda, zauzet prostor – sve više oblikuje javno mišljenje, slično kao u europskim raspravama o centrima podataka u Irskoj, Nizozemskoj ili Španjolskoj.
Zaključak: tehnički napredak nadmašuje društveno prihvaćanje. Ako se ta rupa u povjerenju ne smanji, tempo uvođenja AI‑ja odredit će politički i lokalni otpor, a ne mogućnosti tehnologije.
5. Europski i regionalni kontekst
Iako je anketa američka, pouke su vrlo relevantne za EU i zemlje poput Hrvatske.
Europljani su tradicionalno oprezniji prema tehnologijama temeljenim na podacima i skloniji su snažnoj regulaciji. Dosadašnja istraživanja u EU o stavovima prema AI‑ju već su pokazivala kombinaciju interesa i zabrinutosti te jasan zahtjev za transparentnošću i kontrolom.
Američki rezultati zapravo potvrđuju polazište europskih propisa – od GDPR‑a do Akta o digitalnim uslugama (DSA), Akta o digitalnim tržištima (DMA) i novog Akta o umjetnoj inteligenciji. Poruka Bruxellesa je da pouzdanost i odgovornost mogu biti konkurentska prednost, a ne samo trošak.
Za hrvatske tvrtke i startupe, od Zagreba do Splita i Osijeka, to znači i šansu i izazov. Rješenja koja nude jasnu sledljivost podataka, minimalno prikupljanje, mogućnost lokalnog ili barem EU‑hostinga i solidne revizijske tragove, mogu sve više isticati upravo taj »europski« pristup kao vrijednost.
Ali postoji i rizik: ako EU i regija Zapadnog Balkana ostanu samo u defenzivi, većinu ključnih AI sustava i dalje ćemo uvoziti iz SAD‑a ili Kine, a domaća rješenja ostat će u nišama. Za Hrvatsku, kao malu i otvorenu ekonomiju, ključno je pametno koristiti europske fondove, umrežiti se s regionalnim centrima (npr. Ljubljana, Beč, Budimpešta) i graditi vlastite proizvode koji su po dizajnu usklađeni s regulativom.
6. Pogled unaprijed
U idućih nekoliko godina glavna borba neće biti tko ima »najpametniji« model, nego tko može izgraditi provjerljivo povjerenje.
Na što obratiti pozornost:
- Metrike povjerenja: neovisne evaluacije, standardizirani pokazatelji pouzdanosti i sektorski testovi (zdravstvo, financije, javna uprava).
- Vidljiva transparentnost: sučelja koja prikazuju izvore, razinu sigurnosti odgovora i nude objašnjenja zašto je AI generirala baš taj rezultat.
- Hibridni procesi čovjek–AI: umjesto ad‑hoc chatbotova svugdje, strukturirani procesi u kojima AI asistira, a čovjek donosi ključne odluke.
- Regulativni zaokret: u SAD‑u vjerojatno kroz zakone na razini saveznih država, u EU kroz praktičnu primjenu Akta o umjetnoj inteligenciji i njegovu vezu s GDPR‑om, DSA‑om i DMA‑om.
Ako se obrazac »korištenje bez povjerenja« nastavi, izgledna su dva negativna scenarija:
- Regulatorni šokovi nakon pojedinačnih incidenata, s brzopoteznim zabranama određenih primjena.
- Sjena‑AI u organizacijama, gdje zaposlenici kriomice koriste vanjske alate bez nadzora, što nosi sigurnosne i pravne rizike.
S druge strane, prilika je značajna. Tvrtke koje mogu uvjerljivo pokazati manje halucinacija, jasne izvore, niži okolišni otisak i kvalitetne revizijske tragove, moći će se jasno diferencirati. Za europske i nacionalne regulatore, podrška neovisnim ispitnim laboratorijima i otvorenim benchmarkima mogla bi biti gotovo jednako važna kao financiranje samog AI istraživanja.
7. Zaključak
Anketa sveučilišta Quinnipiac, o kojoj piše TechCrunch, hvata AI u prijelomnom trenutku: tehnologija postaje sveprisutna prije nego što je postala vjerodostojna. Taj jaz se neće zatvoriti samo većim modelima ili boljim PR‑om. Sljedeća faza utrke u umjetnoj inteligenciji bit će utrka u pouzdanosti. Za hrvatske korisnike, tvrtke i kreatore politika ključno je pitanje: što bi se konkretno moralo promijeniti da biste doista vjerovali AI‑ju koji već danas tiho ulazi u vaše alate i usluge?



