Kad AI vode ljudi poput Sama Altmana, tko je zapravo „upravljač“ budućnosti?

7. travnja 2026.
5 min čitanja
Ilustracija tehnološkog čelnika ispred sjajne mreže sustava umjetne inteligencije

Naslov i uvod

Rasprava o umjetnoj inteligenciji više nije samo pitanje algoritama i parametara. Sve češće se svodi na jednostavnije, ali neugodnije pitanje: komu zapravo povjeravamo ovu infrastrukturu?

Nakon opsežnog profila Sama Altmana u The New Yorkeru i oštre kolumne na Ars Technici, direktor OpenAI‑ja opisuje se kao izrazito ambiciozna osoba, sklonija moći nego istini. To bi bila samo još jedna priča iz Silicijske doline — da njegove odluke ne utječu na način na koji će se AI uvoditi u škole, urede i institucije od Zagreba do Splita. U nastavku ne prepričavamo izvorne tekstove, nego analiziramo što nam ovaj slučaj govori o cijeloj industriji i gdje tu stoji Europa i Hrvatska.

Vijest ukratko

Prema pisanju Ars Technice, novo, oko 16.000 riječi dugo, Altmanovo portretiranje u The New Yorkeru donosi vrlo kritičan prikaz šefa OpenAI‑ja. Autori Ronan Farrow i Andrew Marantz razgovarali su s više od stotinu ljudi iz njegova poslovnog i osobnog kruga.

Kako navodi Ars Technica, brojni sugovornici opisuju Altmana kao osobu koja lako mijenja tumačenje dogovora, voli preuveličavati ostvarene rezultate i često briše granicu između želja i stvarnosti. Bivši članovi uprave i kolege dovode u pitanje njegovu iskrenost, a neki ga opisuju terminima koje bismo radije vidjeli u psihološkim priručnicima nego u profilu čovjeka koji vodi ključnu AI tvrtku. Izvršni direktori Microsofta, glavnog partnera OpenAI‑ja, govore o sve napetijem odnosu.

Ars Technica podsjeća i na Altmanove vlastite blog objave, u kojima gotovo euforično opisuje samoreplicirajuće robote, ubrzani rast bogatstva i civilizaciju koja se bez većih problema prilagođava svakoj tehnološkoj promjeni, uz vrlo malo razmišljanja o potencijalnim negativnim posljedicama.

Zašto je to važno

Mogli bismo slegnuti ramenima: »Još jedan američki osnivač s kompleksom spasitelja.« No OpenAI nije još jedna društvena mreža, nego dobavljač osnovne infrastrukture koja se polako uvlači u svaki kutak digitalne ekonomije.

Njihovi se modeli pojavljuju u Microsoft 365 paketu, programerskim alatima, chatbotovima za korisničku podršku, obrazovnim platformama i uredskim sustavima. Ako na čelu takve firme stoji osoba koju bliski suradnici opisuju kao spremnu manipulirati činjenicama i dogovorima, to više nije samo pitanje karaktera, već rizičan dizajn upravljanja infrastrukturom.

Klasično pitanje u raspravama o „sigurnosti AI‑ja“ glasi: kako uskladiti moćne sustave s ljudskim vrijednostima? Altmanov slučaj okreće perspektivu: kako uskladiti ljude koji odlučuju kako će se ti sustavi razvijati i koristiti? Dok god se najveće nagrade dijele za brzinu, hype i zauzimanje tržišta, a ne za oprez i transparentnost, „odgovorna AI“ lako ostaje samo marketinška naljepnica.

Kratkoročni dobitnici su očiti: osnivači, rani ulagači i veliki cloud pružatelji poput Microsofta, koji stječu golemu moć nad podacima, računalnim resursima i API‑jima. Gubitnici su manja poduzeća koja te modele moraju prihvatiti kao de facto standard, iako nemaju utjecaj na njihovu izgradnju; građani čiji su se podaci koristili bez jasne suglasnosti; te javne institucije koje riskiraju tehnološku ovisnost o dobavljačima čiji sustavi upravljanja ne nalikuju ni hrvatskim ni europskim standardima.

Rezultat je rastuća kriza povjerenja — ne samo prema pojedinim tvrtkama, nego prema cijeloj priči oko AI‑ja.

Šira slika

Altman nije usamljeni eksces, nego krajnje dosljedan proizvod ekosustava. U zadnjih desetak godina gledamo isti obrazac: harizmatični tehnološki lideri koji se predstavljaju kao vizionari napretka, dok zakone, procedure i činjenice tretiraju kao prepreke koje valja „optimizirati“.

Elon Musk istovremeno vodi svemirsku tvrtku, proizvođača automobila, infrastrukturne tunele, društvenu mrežu i sada AI laboratorij — uz narativ da jedini on vidi cijelu sliku. Mark Zuckerberg nakon metaverse fijaska prekvalificirao je Metu u „AI‑prvu“ kompaniju. Investitori poput Marca Andreessena pišu manifeste u kojima tehnologija nema realne nuspojave, a Peter Thiel kombinira mračnu retoriku o budućnosti s vrlo konkretim političkim ulaganjima.

Povijesno, ovakvi su likovi pratili svaki infrastrukturni ciklus: od željeznice i nafte do telekoma. Novi element danas je to da AI upravlja informacijama, radom i kreativnošću, i to globalno i trenutno. Greška u modelu ili pogrešna odluka uprave više nije samo korporativni problem; može pogoditi obrazovanje, zapošljavanje ili zdravstvo milijuna ljudi.

OpenAI je već prošao jedan ozbiljan test upravljanja 2023., kada je neprofitni odbor pokušao smijeniti Altmana, a zatim se pod pritiskom investitora i zaposlenika preoblikovao. Novi tekst u The New Yorkeru djeluje kao logičan nastavak: pokazuje koliko su krhke idealističke strukture kad se sudare s desecima milijardi dolara.

Ni drugi AI laboratoriji nisu imuni. Google DeepMind mora usklađivati vlastite istraživačke ciljeve s interesima Alphabeta; Anthropic se pozicionira kao sigurnija alternativa, ali ovisi o istim vrstama investitora i cloud ugovora; xAI pokušava iskoristiti Muskovo ime. U svima njima vidimo istu kombinaciju: ljudi izuzetno vješti u prezentaciji i prikupljanju kapitala, unutar industrije koja nagrađuje brzinu i dominaciju.

Europski i hrvatski kut

Za Europsku uniju ova je priča i izazov i prilika. S jedne strane, članice, uključujući Hrvatsku, ubrzano uvode AI‑temeljene usluge u javnu upravu i gospodarstvo. Mali i srednji poduzetnici koriste gotove alate temeljene na GPT‑u, državna tijela razmišljaju o automatizaciji procedura, škole eksperimentiraju s digitalnim asistentima.

S druge strane, EU je – uz sve svoje sporosti – globalni lider u regulaciji digitalnog sektora. Opća uredba o zaštiti podataka (GDPR), Akt o digitalnim uslugama (DSA), Akt o digitalnim tržištima (DMA) i nadolazeći Akt o umjetnoj inteligenciji (EU AI Act) upravo nastoje smanjiti ovisnost o osobnoj vjerodostojnosti direktora. Visokorizični AI sustavi morat će ispunjavati stroge zahtjeve transparentnosti, nadzora i odgovornosti, bez obzira na to koliko se njihov CEO predstavlja kao „dobar dečko“.

U Europi se pojavljuju i alternativni igrači poput francuskog Mistral AI‑ja ili njemačkog Aleph Alpha, koji naglašavaju transparentnost, mogućnost lokalnog izvođenja modela i usklađenost s europskim pravom. U regiji jugoistočne Europe razvijaju se snažne tehnološke kompanije poput Rimac Grupe i Infobipa, a sve više startupova iz Zagreba, Ljubljane, Beograda ili Sarajeva gradi proizvode oko AI‑ja.

Za Hrvatsku je pitanje jednostavno, ali ključno: hoćemo li ključne javne i gospodarske sustave vezati isključivo uz zatvorene modele pod kontrolom nekolicine američkih direktora, ili ćemo aktivno ulagati u europske i otvorene alternative, javnu računalnu infrastrukturu i lokalne timove koji razumiju i hrvatski jezik i hrvatski pravni okvir?

Pogled unaprijed

Ne treba očekivati spektakularni krah OpenAI‑ja ili naglu smjenu Sama Altmana. Proizvodi su korisni, partnerstvo s Microsoftom je duboko, a većina korisnika će svaki dan izabrati praktičnost umjesto apstraktnih briga o upravljanju.

Ali povjerenje se ne urušava preko noći, već polako. Možemo očekivati da će europski regulatori, ali i nacionalna tijela u Hrvatskoj, sve više pažnje posvećivati ne samo tome što modeli rade, nego i tome tko o njima odlučuje. Teme poput sastava upravnih tijela, zaštite internih „safety“ timova i mogućnosti nezavisne revizije postat će dijelom javne rasprave.

Javna nabava bit će snažan alat. Kad ministarstvo, županija ili veći grad budu birali AI rješenja za zdravstvo, promet ili administraciju, morat će tražiti više od lijepog demo videa: jasnu dokumentaciju, ugovorno zajamčena prava na uvid i reviziju, planove izlaska iz sustava ako dobavljač promijeni uvjete, te jasna ograničenja korištenja podataka građana.

Tehnološki gledano, sve će više smisla imati modeli koje je moguće pokrenuti lokalno – u državnim podatkovnim centrima, u oblacima pod europskom jurisdikcijom ili čak na većim lokalnim poslužiteljima. EU već govori o zajedničkoj AI infrastrukturi; bilo bi razumno da se i Hrvatska aktivno uključi, umjesto da ostane samo korisnik tuđih rješenja.

Ključno otvoreno pitanje jest hoće li se sljedeća generacija AI lidera oblikovati više po uzoru na „dosadne“ upravitelje infrastrukture – regulirane, predvidljive i zamjenjive – ili ćemo i dalje dizati na pijedestal mesijanske osnivače čija je glavna vještina savijanje narativa. Od toga će ovisiti koliko će tereta pasti na leđa regulative.

Zaključak

Problem nije samo u tome je li Sam Altman osobno pouzdan ili ne. Problem je u tome što je globalna AI infrastruktura dizajnirana tako da nagrađuje upravo ovakve profile – brze, agresivne, opsjednute moći. Za Hrvatsku i EU to je jasan signal da moramo graditi i podržavati drukčije modele upravljanja i vlasništva, ulagati u vlastite AI kapacitete i kod svake nove „čarobne“ AI usluge postaviti neugodno pitanje: čijim vrijednostima i interesima zapravo otvaramo vrata u svoje institucije?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.