Kad je Sam Altman upitan, upitna je i cijela priča o „sigurnoj“ umjetnoj inteligenciji

7. travnja 2026.
5 min čitanja
Sam Altman govori na pozornici ispred logotipa OpenAI

Kad je Sam Altman upitan, upitna je i cijela priča o „sigurnoj“ umjetnoj inteligenciji

OpenAI želi crtati politiku za „dobu inteligencije“, dok se istovremeno lom i povjerenja događa upravo oko njegova direktora Sama Altmana. To nije samo još jedan skandal iz Silicijske doline, nego simptom dubljeg problema: cijela priča o odgovornoj umjetnoj inteligenciji oslanja se na lik i djelo nekoliko osnivača umjesto na čvrste institucije. U ovom tekstu analiziramo što su otkrili Ars Technica i The New Yorker, zašto je tajming OpenAI‑jevih novih prijedloga toliko znakovit i što sve to znači za Europu, ali i za tehnološku scenu u Hrvatskoj i regiji.

Što se zapravo dogodilo

Prema pisanju Ars Technice, OpenAI je objavio opsežan dokument s prijedlozima kako bi vlade trebale upravljati prijelazom prema mogućoj „superinteligenciji“. U njemu predlažu poticanje četverodnevnog radnog tjedna, osnivanje javnog fonda koji bi građane izravno uključio u dobit od AI‑a, uvođenje svojevrsnog poreza na automatizirani rad te strogi nadzor samo nad nekolicinom najmoćnijih modela. Dokument je predstavljen kao vizija pravednog i demokratskog AI‑budućnosti.

Istog dana, The New Yorker je objavio veliku istraživačku priču o Altmanovom načinu vođenja, temeljenu na više od stotinu razgovora i internim bilješkama. Kako prenosi Ars Technica, bivši ključni ljudi iz OpenAI‑ja opisuju obrazac manipulacija i selektivnog govorenja istine, zbog čega su izgubili povjerenje da Altman može odgovorno upravljati razvojem iznimno moćnih sustava. Altman većinu navoda osporava ili umanjuje, no sama činjenica da se takvi prigovori javno iznose pokazuje koliko je povjerenje napuklo.

Zašto je to važno

OpenAI godinama gradi narativ da je „odgovorni“ laboratorij: svjestan rizika, ali dovoljno hrabar da gura granice naprijed. Zauzvrat traži od vlada i javnosti da mu vjeruju i dopuste brzi razvoj, uz relativno blage okvire. Sada, međutim, dobivamo sliku u kojoj ljudi iznutra sumnjaju da se prvi čovjek tvrtke drži istih standarda iskrenosti i odgovornosti koje od drugih traži.

To nije samo reputacijski problem za Altmana. To je udar na temeljni „kontrakt“ kojim je AI industrija do sada kupovala vrijeme: dopustite nam da jurimo naprijed, jer mi smo ti razumni, oprezni igrači. Ako taj ugovor počiva na jednoj osobi, a ta osoba postane simbol nepouzdanosti, cijela konstrukcija se trese.

Kratkoročno, od ove situacije mogu profitirati konkurenti koji se manje oslanjaju na kult ličnosti – od laboratorija poput Anthropica do open‑source zajednica. Njihova poruka je jednostavna: ovakva tehnologija ne smije ovisiti o tome koliko vjerujete jednom CEO‑u.

S gubitničke strane su kompanije koje su svoj utjecaj gradile upravo na percepciji da su svojevrsna „javna služba“, iako su privatne i vođene profitom. U tom svjetlu, novi OpenAI‑jev prijedlog da se najstrože kontrole primjenjuju samo na „vrh piramide“ – dakle na nekolicinu najvećih laboratorija – zvuči manje kao briga za sigurnost, a više kao pokušaj da se formalizira klub nedodirljivih.

Šira slika

Ovo nije prvi put da se upravljanje u OpenAI‑ju nađe pod povećalom. Krajem 2023. neprofitni odbor, zamišljen kao čuvar misije „u korist čovječanstva“, iznenada je smijenio Altmana. Detalji nikad nisu do kraja razjašnjeni, no govorilo se o problemima povjerenja i transparentnosti. U svega nekoliko dana, pritisak investitora i zaposlenika vratio ga je u fotelju, a sastav odbora radikalno je promijenjen. Pouka: kad se sudare misija i kapital, kapital obično pobijedi.

Ranije su iz tvrtke otišli i ključni istraživači koji su pokrenuli Anthropica s naglaskom na sigurnost i unutarnje kočnice. Elon Musk se od OpenAI‑ja distancirao još ranije i od tada javno kritizira Altmanovo vodstvo. Razlozi se razlikuju, ali uzorak je isti: duboko neslaganje oko toga tko u konačnici drži ruku na volanu.

U širem kontekstu, to je nastavak dugo poznate priče iz Silicijske doline: tehnološke tvrtke koje postaju de facto infrastruktura društva, a upravljaju se kao produžetak volje jednog osnivača. Kod društvenih mreža, takav pristup već je imao ozbiljne posljedice po demokraciju i mentalno zdravlje. Kod generativne umjetne inteligencije u igri su još i tržište rada, obrazovanje, sigurnost i informacijski suverenitet. Oslanjati se na karakter jedne osobe u takvom kontekstu je recept za krizu.

Istovremeno, drugi igrači pokušavaju graditi drukčije modele. Google i DeepMind uklapaju AI u tradicionalnije korporativne strukture; Meta dijelom otvara svoje modele kako bi raspodijelila odgovornost i privukla developere. OpenAI je odabrao put ekstremno brzog rasta, visoke centralizacije odluka i naknadnog dodavanja etičkih odbora i principa. Aktualna rasprava o Altmanu pokazuje da taj pristup dolazi do svojih granica.

Europski i regionalni kut gledanja

Iz perspektive EU‑a, priča o Altmanu više izgleda kao potvrda nego kao iznenađenje. Bruxelles već godinama ne vjeruje u „samonadzor“ velikih tehnoloških tvrtki – zato i postoje GDPR, Digital Services Act i dogovoreni AI Act. Ideja je jasna: rizici se moraju adresirati kroz zakon, a ne povjerenjem u „dobre“ CEO‑ove.

Za hrvatske korisnike i tvrtke, ključne su tri implikacije:

  1. Povjerenje u dobavljača je poslovni rizik. Ako gradite interne alate, chatbotove ili javne usluge na OpenAI‑ju, morate računati da reputacijski i regulatorni problemi dobavljača mogu postati i vaši.
  2. Regulatorni okvir se zaoštrava. Kako AI Act bude prelazio iz političkog dogovora u praksu, ovakve priče će gurati EU prema strožoj primjeni, više nadzora i manje prostora za „povlaštene“ igrače.
  3. Otvara se prostor za alternativu. Od otvorenih modela na europskim cloudovima (npr. u suradnji s domaćim data centrima) do rješenja koja razvijaju start‑upovi iz Zagreba, Ljubljane ili Beograda – svaki signal da se velikim američkim igračima manje vjeruje povećava apetit za lokalnim rješenjima.

Kultura zaštite privatnosti, snažan oslonac na EU pravo i sve veća osjetljivost javnosti na pitanje dezinformacija znače da će javne institucije i veće kompanije u Hrvatskoj morati pažljivije birati partnere za AI projekte. Samo „on je vizionar“ više nije dovoljan argument.

Što slijedi

Daljnji razvoj situacije ovisit će o tri skupine: regulatorima, investitorima i samim stručnjacima za umjetnu inteligenciju.

Regulatori, osobito u SAD‑u i EU‑u, sad imaju dodatni argument za uvođenje obvezujućih pravila za tzv. frontier labs: obavezno prijavljivanje incidenata, minimalne standarde testiranja sigurnosti, neovisne audite i veću transparentnost lobiranja. U europskom kontekstu, slučaj OpenAI‑ja će gotovo sigurno utjecati na to kako će se AI Act provoditi u praksi – od definicije „visokorizičnih“ sustava do zahtjeva za dokumentaciju.

Za OpenAI je ovo ozbiljan test unutarnjeg upravljanja. Nakon krize 2023. obećali su jače nadzorne mehanizme. Ako se pokaže da su oni više fasada nego stvarna kočnica, ulagači bi mogli tražiti klasičnije korporativne strukture – s jačim neovisnim članovima odbora i jasnijim linijama odgovornosti.

Šira industrija – uključujući tvrtke u Hrvatskoj i regiji – ima priliku sada podići ljestvicu. To znači: definirati interne politike za razvoj i primjenu AI‑a, uključiti pravnike, etičare i sigurnosne stručnjake od početka, te ozbiljno shvatiti europske regulative. Oni koji to naprave, imat će uvjerljiv odgovor kad klijenti ili građani pitaju: „Zašto bismo vam vjerovali?“

Zaključak

Ključno pitanje nije samo možemo li vjerovati Samu Altmanu, nego zašto uopće gradimo sustav u kojem jedna osoba mora biti objekt tolikog povjerenja. Sukob između blistavih obećanja OpenAI‑jevog političkog manifesta i dubokih sumnji ljudi iznutra trebao bi biti alarm za regulatore, poduzetnike i javni sektor – i u Hrvatskoj i u ostatku Europe. Ako umjetna inteligencija postaje infrastruktura društva, pravila se moraju pisati za institucije i procese, a ne za heroje iz Silicijske doline.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.