1. Naslov in uvod
Američani vse pogosteje uporabljajo orodja umetne inteligence – za šolske naloge, poročila v službi, raziskovanje in analizo podatkov – hkrati pa večina pravi, da tem sistemom ne zaupa. Ta napetost ni le zanimivost, ampak opozorilo za celoten sektor. Nova anketa univerze Quinnipiac, o kateri poroča TechCrunch, kaže naraščajočo uporabo in padajoče zaupanje. V nadaljevanju analiziramo, kaj ta protislovje v resnici pomeni, zakaj presega meje ZDA, kako bo oblikovalo regulativo in poslovne modele ter zakaj postaja »infrastruktura zaupanja« enako pomembna kot velikost modelov.
2. Novica na kratko
TechCrunch povzema novo anketo univerze Quinnipiac, v kateri je sodelovalo skoraj 1.400 Američanov. Uporaba orodij z umetno inteligenco se povečuje, zaupanje v rezultate pa upada.
Ključne ugotovitve:
- Delež tistih, ki pravijo, da še nikoli niso uporabljali AI‑orodij, je padel na 27 % (s 33 % aprila 2025).
- Okoli polovica jih AI uporablja za raziskovanje, mnogi tudi za pisanje, službene naloge in analizo podatkov.
- 76 % jih navaja, da AI zaupajo redko ali le občasno; le 21 % zaupa večino časa ali skoraj vedno.
- Zgolj 6 % je zaradi AI »zelo navdušenih«, medtem ko je 80 % zelo ali nekoliko zaskrbljenih.
- 55 % meni, da bo AI v njihovem vsakdanu prinesla več škode kot koristi; približno tretjina pričakuje nasprotno.
- 70 % verjame, da bo napredek v AI zmanjšal število delovnih mest; le 7 % pričakuje rast zaposlitvenih priložnosti, še posebej pesimistična je generacija Z.
- Približno dve tretjini anketirancev meni, da podjetja niso dovolj pregledna glede uporabe AI, enak delež pa ocenjuje, da vlada premalo regulira to področje.
- 65 % nasprotuje gradnji AI podatkovnih centrov v njihovi skupnosti, predvsem zaradi porabe elektrike in vode.
3. Zakaj je to pomembno
Osrednje sporočilo ankete je neprizanesljivo: ljudje imajo občutek, da so potisnjeni v tehnologijo, v katero v resnici ne verjamejo.
AI ni več dodatni »gadget«, ampak se vgrajuje v iskalnike, pisarniške pakete, HR‑sisteme, podporo uporabnikom in ustvarjalna orodja. Če več kot polovica vprašanih uporablja AI za raziskovanje, hkrati pa le vsak peti resnično zaupa njenim rezultatom, dobimo vzorec neprijetne odvisnosti. To je zelo šibka podlaga za tehnologijo, ki želi postati tako vseprisotna kot brskalnik ali pametni telefon.
Kdo ima korist? Kratkoročno predvsem veliki tehnološki igralci: AI lahko integrirajo kot privzeto možnost v svoje storitve in monetizirajo uporabo ne glede na dvome uporabnikov. Podjetja dobijo hitre produktivnostne prihranke, še posebej tam, kjer zaposleni nimajo veliko vpliva na izbor orodij.
Toda napačno nastavljeno zaupanje je nevarno. Če uporabniki verjamejo, da je AI nezanesljiva, bodo:
- vsebino sistematično preverjali in s tem izničili pričakovane prihranke,
- AI izločali iz bolj občutljivih primerov uporabe, kjer bi lahko res pomagala (npr. dostopnost, prevajanje, programiranje),
- umetni inteligenci pripisovali krivdo za širšo ekonomsko tesnobo – od odpuščanj do negotovosti – ne glede na dejanski vpliv.
Izgubljajo startupi, ki stavijo zgolj na »močnejše modele« brez vlaganja v razložljivost, sledljivost virov in resne evalvacije. Izgubljajo tudi regulatorji, ki so upali, da bo nežen, »okvirni« pristop dovolj za pomiritev javnosti.
Največji poraženec pa je družbena legitimnost same AI. Ko je tehnologija hkrati dojeta kot neizogibna in nezanesljiva, politika praviloma reagira z ostrimi omejitvami namesto z niansiranim upravljanjem. To je bolj logika jedrske energije kot pametnih telefonov.
4. Širša slika
Anketa ne nastaja v praznem prostoru. Prihaja po letih naslovnic o halucinacijah modelov, sporih glede avtorskih pravic, pristranskih izpisih, energetsko požrešnih podatkovnih centrih in valovih odpuščanj v tehnoloških podjetjih. Narativ »AI nam jemlje delo in elektriko, hkrati pa se moti pri osnovnih dejstvih« je postal del mainstreama.
Podoben vzorec poznamo iz prejšnjih tehnoloških valov:
- Družbena omrežja: množična raba ob globokem nezaupanju v zasebnost in kakovost informacij.
- Kripto: eksplozija eksperimentiranja, ki ji je sledil kolaps zaupanja po konkretnih škodah in prevarah.
Umetna inteligenca je v enem pogledu drugačna: zelo hitro postaja infrastruktura, ne le nišni trg. Pri brskalnikih smo nevarnost naslovili s protokolom HTTPS, pri e‑pošti s filtri in standardi proti spamu. Pri AI je ekvivalentni »sloj zaupanja« še v povojih.
Industrija sicer obljublja, da bodo naslednje generacije modelov bistveno zanesljivejše – z boljšo povezavo na podatkovne baze, orodji, varnostnimi plastmi. A povprečen uporabnik tega ne vidi. On vidi napačne odgovore, čudne halucinacije in izgubljana delovna mesta.
Odpor proti podatkovnim centrom v anketi je prav tako zgovoren. Fizični odtis AI – poraba elektrike, vode, prostora – začne oblikovati javno mnenje vsaj tako močno kot abstraktne razprave o varnosti. To lepo zrcali evropske debate v državah, kjer so podatkovni centri v konfliktu z energetsko tranzicijo ali pomanjkanjem vode.
Smer je jasna: napredek zmogljivosti prehiteva napredek legitimnosti. Če se razkorak zaupanja ne zmanjša, bodo politični in družbeni pritiski vse bolj določali tempo uvajanja AI.
5. Evropski in slovenski vidik
Čeprav je anketa osredotočena na ZDA, so vprašanja, ki jih odpira, ključna za Evropo in Slovenijo.
Evropejci so tradicionalno bolj previdni do podatkovno intenzivnih tehnologij in bolj naklonjeni strogi regulaciji. Pretekle raziskave Eurobarometra o AI so že pokazale kombinacijo zanimanja in zaskrbljenosti ter močne zahteve po nadzoru in transparentnosti.
Ameriški rezultati potrjujejo osnovno logiko evropskega regulativnega pristopa – od GDPR do Akta o digitalnih storitvah (DSA), Akta o digitalnih trgih (DMA) in novega Akta o umetni inteligenci. Bruselj stavi na to, da bosta zanesljivost in odgovornost dolgoročno prednost, ne le strošek.
Za slovenska podjetja – od večjih igralcev do ljubljanskih startupov – to pomeni priložnost in pritisk hkrati. Orodja, ki ponujajo sledljivost virov, minimizacijo podatkov, možnost lokalne ali vsaj EU‑lokacije podatkov in jasne revizijske sledi, lahko svojo »evropskost« vse bolj tržijo tudi globalno.
Hkrati pa obstaja nevarnost, da bo Evropa, če bo vztrajala zgolj pri obrambni drži, večino ključnih AI‑sistemov še naprej uvažala iz ZDA in Kitajske. Takrat regulacija postane ščit pred posledicami, ne pa platforma za lastne rešitve. Za Slovenijo, z majhnim trgom, je zato ključna povezanost z regionalnimi centri (Dunaj, München, Milano) in pametna uporaba evropskih sredstev za razvoj zaupanja vrednih AI‑storitev.
6. Pogled naprej
V naslednjih nekaj letih bo glavno bojišče verjetno zaupanje, ne goli IQ modelov.
Pričakovati gre:
- Merjenje zaupanja: neodvisne evalvacije, standardizirane metrike zanesljivosti ter sektorsko specifični testi (zdravstvo, finance, javna uprava).
- Vidno transparentnost: vmesnike, ki privzeto prikazujejo vire, stopnjo gotovosti in omogočajo vpogled v to, »zakaj je model nekaj izpisal«.
- Hibridne procese: kombinacijo AI in človeškega nadzora pri pomembnih odločitvah, namesto stihijskega uvajanja klepetalnikov povsod.
- Zaostrovanje regulacije: v ZDA bolj na ravni zveznih držav, v EU pa z dejansko implementacijo Akta o umetni inteligenci.
Če se vzorec »uporaba brez zaupanja« nadaljuje, sta realni dve tveganji:
- Regulativni nihaj – hiter prehod od sproščenega eksperimentiranja k pretirano ostrim prepovedim po nekaj odmevnih incidentih.
- Senca AI‑uporabe – zaposleni bodo orodja uporabljali na skrivaj, brez nadzora in varnostnih mehanizmov, ker jim uradni kanali ne zaupajo ali jih preveč omejujejo.
Po drugi strani pa je priložnost ogromna. Podjetja, ki bodo pokazala manj halucinacij, jasne vire, nižji okoljski odtis in preverljive revizijske sledi, bodo lahko zaračunavala premijo. Za regulatorje bo podpora neodvisnim evalvacijskim laboratorijem in odprtim primerjalnim testom morda enako pomembna kot financiranje samih raziskav AI.
7. Sklep
Anketa univerze Quinnipiac, o kateri poroča TechCrunch, ujame prelomni trenutek: AI postaja neizogibna, še preden je postala zaupanja vredna. Tega razkoraka ne bodo odpravili le večji modeli ali boljši marketing. Naslednja faza tekme v umetni inteligenci ne bo le tekmovanje v pameti, ampak tekmovanje v verodostojnosti. Ključno vprašanje tudi za slovenske uporabnike in razvijalce je preprosto: kaj bi se moralo spremeniti, da bi AI dejansko zaupali?



