Musk protiv OpenAI: kada se priča o „sigurnoj AI“ pretvori u poslovno oružje

1. svibnja 2026.
5 min čitanja
Elon Musk ulazi u zgradu saveznog suda u SAD-u tijekom suđenja protiv OpenAI-ja

Naslov i uvod

Sukob Elona Muska i OpenAI-ja lako je otpisati kao još jedan obračun tehnoloških milijardera. Ali u sudnici u Oaklandu zapravo gledamo test povjerenja u cijelu ideju „sigurne umjetne inteligencije za čovječanstvo“. Što ostane od velikih riječi kad ih sudac, porota i odvjetnici raščlane rečenicu po rečenicu?

Nakon tri dana svjedočenja Musk je ostavio dojam čovjeka s ozbiljnim problemom vjerodostojnosti. A bez tog moralnog kredibiliteta njegova priča o „ukradenoj dobrotvornoj organizaciji“ teško stoji. U nastavku sažimam ključne činjenice, objašnjavam zašto bi ovo trebalo zanimati i europske – pa tako i hrvatske – čitatelje, te što bi moglo uslijediti.


Vijest ukratko

Prema pisanju Ars Technice, Elon Musk je tri dana svjedočio kao prvi svjedok u vlastitoj tužbi protiv OpenAI-ja, Sama Altmana i drugih. Tužbom nastoji zaustaviti planiranu inicijalnu javnu ponudu (IPO) krajem 2026. i prisiliti OpenAI da se vrati strogo neprofitnom modelu.

Tijekom unakrsnog ispitivanja odvjetnik OpenAI-ja William Savitt – koji je ranije radio i na Muskovo ime u drugim sporovima – više ga je puta suočio s e-mailovima, internim dokumentima, iskazima s ranijih saslušanja i objavama na X-u. Kako navodi Ars Technica, ti su dokazi u nizu točaka potkopali Muskove tvrdnje. Izdvajaju najmanje sedam većih „posrtaja“: prisilna priznanja koja su išla protiv strategije njegove obrane, proturječnosti u ključnim detaljima, gubitak živaca nakon što je tvrdio da nikad ne viče, te neugodna pitanja o sigurnosnom zapisu njegova novog poduzeća xAI i o političkim vezama s Donaldom Trumpom.

Sutkinja Yvonne Gonzalez Rogers nekoliko ga je puta upozorila zbog sarkastičnih i neodgovarajućih odgovora, ali je ipak dopustila da se ispituju njegovi motivi i potencijalni sukobi interesa. Suđenje se nastavlja još nekoliko tjedana; porota daje savjetodavno mišljenje, no odluka će na kraju biti u rukama sutkinje.


Zašto je to važno

Formalno, predmet spora je relativno uzak: je li OpenAI prekršio osnivačke dogovore i dobrotvornu misiju do te mjere da sud ima pravo mijenjati njegovu strukturu i blokirati IPO? No Muskovo svjedočenje otvorilo je mnogo šire pitanje: koliko uopće možemo vjerovati tehnološkim liderima kada govore o „sigurnosti“ i „dobrobiti čovječanstva“, a istovremeno vode žestoku tržišnu bitku?

Musk se prikazuje kao dobročinitelj kojeg su „nasamarili“ – donirao je desetke milijuna dolara za neprofitnu organizaciju, a zauzvrat je, tvrdi, dobio korporaciju koja juri prema valuaciji od stotina milijardi kako bi obogatila Altmana i investitore. Taj narativ ima smisla samo ako se Muska doživljava kao osobu s visokom razinom integriteta.

No izvještaji Ars Technice, The New York Timesa, The Vergea, The Washington Posta i drugih ukazuju na suprotan dojam: svjedoka koji se zapliće u vlastite izjave, potiskuje vlastitu ulogu u guranju profitnog kraka OpenAI-ja, umanjuje ambicije Tesle prema općoj umjetnoj inteligenciji, a istodobno pokreće xAI kao klasičnu profitnu kompaniju. Na to se nadovezuju i nespretne izjave o sigurnosnim „karticama“ koje objavljuje xAI, kao i uvrede upućene sigurnosnom timu OpenAI-ja dok je još bio uključen u rad organizacije.

Sve to troši njegov moralni kapital. Kratkoročno tome najviše koristi OpenAI-ju i Altmanu: što se suđenje više pretvara u referendum o Muskova karakteru, to je manja vjerojatnost da će sud drastično intervenirati u strukturu OpenAI-ja. No poruka cijeloj industriji je jasna: ako gradite brend na parolama o „AI za čovječanstvo“, morate računati da će sud jednom vrlo hladno prebrojati vaše postupke.


Šira slika: upravljanje najmoćnijom AI pod reflektorima

Ovo suđenje dolazi nakon što je OpenAI već prošao kroz jednu veliku krizu upravljanja. Krajem 2023. upravni odbor je smijenio Sama Altmana, navodno zbog problema s transparentnošću i komunikacijom oko razvoja naprednih modela. Nakon otvorene pobune zaposlenika i snažnog pritiska Microsofta, Altman se vratio za nekoliko dana. Taj dramatični zaokret pokazao je koliko su krhke strukture koje pokušavaju pomiriti „misiju za čovječanstvo“ s ogromnim komercijalnim interesima.

Muskova tužba je drugi krak iste priče. Jedan od ključnih donatora i rano vrlo utjecajan suigrač sada pokušava sudski osporiti transformaciju OpenAI-ja u hibridnu, djelomično profitnu organizaciju – i pritom sebe predstaviti kao jedinu pravu savjest projekta. Problem je što više ne dolazi „izvana“: on danas vodi xAI, izravnog konkurenta u istoj utrci za moćne modele i klijente u oblaku.

Slučaj tako ogoljuje da trenutno nemamo savršeno rješenje za upravljanje takvim laboratorijima:

  • Klasične big-tech firme (Microsoft, Google, Meta) guraju AI kao dio šireg ekosustava i odgovaraju prvenstveno dioničarima.
  • Hibridni modeli poput OpenAI-ja pokušavaju balansirati neprofitni ogrtač i realnost tržišta.
  • Novi igrači (npr. Anthropic) eksperimentiraju s zakladama i „public benefit“ strukturama, ali još nisu prošli test velikih javnih izlaza i ozbiljnih internih sukoba.

U odsutnosti čvrstog javnog regulatornog okvira – pogotovo u SAD-u – sporovi oko toga što je „sigurno“ ili „odgovorno“ sve se češće rješavaju u sudnicama i medijima, a manje kroz demokratski donesene zakone.


Europski i regionalni kut: što to znači za Hrvatsku i regiju

Za EU, a time i za Hrvatsku, ovaj slučaj funkcionira kao potvrda ispravnosti izabranog smjera. Bruxelles je s GDPR-om, Digital Services Actom, Digital Markets Actom i sada Aktom o umjetnoj inteligenciji (EU AI Act) vrlo jasno poručio: upravljanje digitalnim rizicima ne može se prepustiti dobroj volji američkih tehnoloških divova.

Spektakl u Oaklandu – s raspravama o Muskovoj naravi, političkim vezama i sukobima interesa – bit će u europskim institucijama shvaćen kao još jedan dokaz da nam trebaju tvrda pravila, a ne obećanja s pozornica konferencija. AI Act uvodi obveze procjene rizika, transparentnosti i ljudskog nadzora za sustave visokog rizika i velike modele; upravo za aktere poput OpenAI-ja ili budućih konkurenata poput xAI-ja.

Za hrvatske tvrtke i javni sektor, koji sve češće eksperimentiraju s generativnom AI (od chatbotova u bankama do pilot-projekata u javnoj upravi), poruka je jednostavna:

  • Oslanjate se na infrastrukturu čija se unutarnja upravljačka pravila trenutno rješavaju u američkim sudnicama.
  • Dugoročna stabilnost i usklađenost s europskim propisima nisu zajamčene, ako se sve svodi na spor između pojedinih osnivača.

S druge strane, otvara se prostor za europske i regionalne alternative – bilo kroz suradnju s EU pružateljima (npr. francuski Mistral, njemački Aleph Alpha), bilo kroz domaće projekte koji bi mogli nastati u zagrebačkom, ljubljanskom ili beogradskom startup ekosustavu, uz podršku fondova EU-a.


Pogled unaprijed

Što slijedi? Vjerojatno ne scenarij u kojem sud „razbija“ današnji OpenAI i vraća ga na čistu neprofitnu verziju iz 2015. Američki sudovi nerado duboko interveniraju u korporativnu strukturu, osim kad postoji vrlo jasan dokaz prijevare ili flagrantnog kršenja ugovora. Za sada nema naznaka da Musk ima takav adut.

No i bez spektakularne presude postupak može imati dugotrajan učinak. Već sada se kroz sudsku dokumentaciju probijaju interni mailovi i rasprave o odnosu sigurnosti i komercijalizacije, kao i o ulozi Microsofta. To su materijali koje će europski i britanski regulatori proučavati dok budu razrađivali provedbena pravila AI Acta i sličnih propisa.

Za Muska osobno, rizik je da iz ovog postupka izađe s bitno oslabljenom reputacijom glavnog svjetskog „zviždača“ na temu egzistencijalnih rizika AI-ja. Ako se pokaže da xAI ima ozbiljnih propusta u sigurnosnim procedurama – a već postoje tužbe vezane uz problematičan sadržaj koji generira njegov chatbot Grok – bit će mu puno teže uvjeravati europske lidere da ga trebaju slušati kao moralni autoritet.

Vrijedi pratiti tri stvari u sljedećih godinu do godinu i pol:

  1. Obrazloženje presude – hoće li sutkinja naznačiti šire obveze projekata koji se predstavljaju kao dobrotvorni?
  2. Kako će OpenAI strukturirati IPO i upravljanje – hoće li uvesti dodatne neovisne nadzorne mehanizme za sigurnost i etiku?
  3. Reakciju EU-a i nacionalnih regulatora – hoće li slučaj poslužiti kao argument za stroži nadzor velikih modela i za poticanje domaćih rješenja?

Zaključak

Suđenje Musk protiv OpenAI-ja nije samo priča o tome je li netko „ukrao dobrotvornu organizaciju“, nego test koliko još vjerujemo tehnološkim osnivačima kad pričaju o „sigurnoj AI“ i „dobrobiti čovječanstva“, dok istovremeno love tržišni udio i investicije. Muskovo neuvjerljivo svjedočenje oslabilo je njegov moralni položaj i nenamjerno ojačalo europski refleks da se ključna pravila moraju zapisati u zakon, a ne prepustiti karakteru pojedinaca.

Za Hrvatsku i širu regiju ključno je pitanje: želimo li da pravila igre za umjetnu inteligenciju koja će ulaziti u naše škole, bolnice i javnu upravu diktiraju parlamenti i EU regulativa – ili sudske bitke nekoliko najmoćnijih ljudi u tehnološkoj industriji?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.