Kad tvit postane dokaz: Musk, OpenAI i prava bitka za upravljanje umjetnom inteligencijom

1. svibnja 2026.
5 min čitanja
Sudnica s Elonom Muskom na klupi za svjedoke i projekcijom njegovih tvitova o umjetnoj inteligenciji u pozadini

1. Naslov i uvod

Elon Musk ovih dana u kalifornijskoj sudnici ne vodi samo privatni rat sa Samom Altmanom. Na klupi za svjedoke našao se čitav model upravljanja AI laboratorijima koji se predstavljaju kao „za čovječanstvo“, a posluju kao startupi rizičnog kapitala. Kada vam vlastiti tvit postane najjači argument suprotne strane, to više nije PR gaf, nego test vjerodostojnosti.

Ova parnica je važna i za hrvatske i regionalne aktere: pokazuje koliko su krhke strukture u kojima se miješaju donacije, ograničeni profit, big tech partneri i ambicije oko umjetne opće inteligencije (AGI). Pitanje nije samo tko je „ukrao“ koju zakladu, nego tko će dugoročno upravljati najmoćnijim AI sustavima.

2. Vijest ukratko

Kako izvještava TechCrunch, Elon Musk je ovaj tjedan svjedočio pred saveznim sudom u Kaliforniji u sklopu svoje tužbe protiv OpenAI‑ja i njegove uprave, uključujući Sama Altmana. Musk tvrdi da je podupirao neprofitnu organizaciju koja je trebala razvijati umjetnu inteligenciju za dobrobit čovječanstva, a da se projekt postupno pretvorio u strukturu u kojoj dominira profitna tvrtka i strateški investitor Microsoft.

Tijekom unakrsnog ispitivanja, odvjetnik OpenAI‑ja pokušao je pokazati da je Musk sam godinama sudjelovao u raspravama o osnivanju profitnih struktura oko OpenAI‑ja, pa i varijante u kojima bi on imao većinski udio i kontrolu. Spominjani su i pokušaji Tesle i Neuralinka da regrutiraju zaposlenike OpenAI‑ja.

Najzvučniji trenutak bio je kada je Musk priznao da Tesla trenutačno ne razvija umjetnu opću inteligenciju (AGI), iako je nedavno na X‑u napisao da će Tesla biti među tvrtkama koje će doći do AGI‑ja. Također je morao pojasniti da njegova često spominjana donacija od 100 milijuna dolara znatno nadmašuje oko 38 milijuna koji su, prema TechCrunchu, stvarno uplaćeni OpenAI‑ju.

3. Zašto je to važno

Iako izgleda kao još jedan sukob velikih ega, slučaj otvara puno ozbiljnije pitanje: kako pravno i institucionalno obuzdati organizacije koje razvijaju tehnologiju potencijalno globalnog utjecaja?

Musk nastoji uvjeriti porotu da je OpenAI doživio „promjenu identiteta“ – od dobrotvorne misije do stroja za profit u savezu s Microsoftom. OpenAI odgovara da bez takvog financiranja, uključujući i komercijalne proizvode poput ChatGPT‑a, ne bi bilo moguće platiti skupe treninge modela i nositi se s Googleom i ostalima.

Srž problema nije specifična za OpenAI: napredni AI modeli postali su toliko skupi da ih klasične zaklade teško mogu financirati. No čim uđu veliki novci, misija i javni interes lako se nađu u sjeni očekivanog povrata. Pravna rasprava o tome je li razlika između „ograničenog“ i neograničenog profita investitora zaista presudna zapravo je rasprava o tome može li se tržišna logika dovoljno ukrotiti oko tehnologije koja može promijeniti tržište rada, sigurnost i demokratske procese.

Muskova vjerodostojnost dodatno je na udaru. Ako pod prisegom kaže da Tesla ne radi na AGI‑ju, iako je nedavno javno tvrdio suprotno, te ako se pokaže da su njegove izjave o iznosu donacija znatno napuhane, teško se može pozicionirati kao moralni autoritet za AI sigurnost. To je važno i za dioničare Tesle u Europi i Hrvatskoj koji su kupovali priču o „AI kompaniji maskiranoj u proizvođača automobila“.

Za ostatak AI industrije poruka je jasna: hibridne strukture u kojima se neprofitne misije kombiniraju s profitnim entitetima pod budnim okom jednog partnera postaju sve rizičnije s pravnog i reputacijskog stajališta.

4. Šira slika

Muskova povijest s regulatorima i sudovima već je bogata – od poznate izjave o „osiguranom financiranju“ za povlačenje Tesle s burze nadalje. No prvi put se u fokusu nalazi upravljanje laboratorijem koji razvija temeljne AI modele koje koristi praktično cijeli svijet.

Silicijska dolina posljednjih godina intenzivno eksperimentira s pravnim konstrukcijama koje bi pomirile idealizam i kontrolu: zaklade s „zlatnom dionicom“, dvostruke strukture vlasništva, ograničeni povrat za investitore. OpenAI je najpoznatiji primjer, ali slične ideje vidimo i kod Anthropica i u načinu na koji je DeepMind smješten unutar Alphabeta.

Sada gledamo kako se jedan takav eksperiment rastavlja do najsitnijih detalja. Tko je predlagao koje limite profita, tko je tražio većinski udio, tko je prestao uplaćivati donacije kada nije dobio kontrolu – sve to izlazi u javnost. To je jasan signal i američkim i europskim osnivačima da njihovi „kreativni“ modeli upravljanja mogu završiti pod reflektorima suda.

Posebno je zanimljiva tema sigurnosti. Musk tvrdi da komercijalizacija OpenAI‑ja slabi fokus na sigurnost. No pod ispitivanjem priznaje da svi AI igrači imaju isti problem: pritisak da izbacuju sve moćnije modele što brže. Time ruši i vlastitu tezu da su Tesla ili xAI nekakve moralne iznimke.

Ukupno gledano, slučaj pokazuje da se rasprava o etici i rizicima AI‑ja seli iz akademskih papira u vrlo konkretne mehanizme odgovornosti: ugovore, statute, nadzor odbora i – kada sve drugo zakaže – sudske procese.

5. Europski i regionalni kut

Za EU, ali i za Hrvatsku kao članicu, ovaj slučaj dolazi u trenutku kada se usvaja Uredba o umjetnoj inteligenciji (AI Act). Bruxelles traži jasne odgovornosti, dokumentiranje rizika i mogućnost nadzora nad visokorizičnim AI sustavima. Otvorena pitanja oko OpenAI‑jeve strukture savršen su argument zašto europski zakonodavci ne vjeruju samo obećanjima industrije.

Struktura u kojoj američka zaklada kontrolira profitnu tvrtku, snažno povezanu s jednim „gatekeeperom“ prema Aktu o digitalnim tržištima (DMA) – Microsoftom – tipičan je primjer onoga što europski regulatori žele držati pod povećalom. Ishod ovog slučaja sigurno će se pažljivo pratiti u Bruxellesu, ali i u nacionalnim tijelima, poput hrvatske AZOP‑a kad je riječ o podacima i budućeg tijela za nadzor AI Acta.

Za hrvatske i regionalne startupe, od zagrebačkih AI tvrtki do timova u Ljubljani, Beogradu ili Sarajevu, to je prilika da se pozicioniraju kao transparentnije i lokalno usklađene alternative. Istodobno je upozorenje da vlastite „hibridne“ modele – primjerice udruge plus d.o.o. – treba dizajnirati tako da donatori i korisnici točno znaju što financiraju i kakva je sudbina eventualne komercijalizacije.

Za tvrtke u Hrvatskoj koje već koriste OpenAI‑jeve API‑je preko Azurea ili drugih kanala, ključna je pouka o ovisnosti. Ako se ključne odluke o strukturi, sigurnosti i prioritetima donose u SAD‑u, a potencijalno pod utjecajem sudskih procesa, povećava se potreba za diverzifikacijom: lokalni ili europski modeli, otvoreni modeli koje možete hostati sami, klaudovi pod EU jurisdikcijom.

6. Pogled unaprijed

Što slijedi? Realni su različiti scenariji. Parnica se može završiti nagodbom prije nego što previše internih dokumenata i prepiski ispliva u javnost. Može doći do presude koja će, čak i ako je pravno uska, poslati snažnu poruku o ograničenjima hibridnih neprofitno‑profitnih struktura. A može se dogoditi i da se slučaj pravno „uguši“, ali ostavi dubok reputacijski trag.

Za OpenAI i Microsoft najveća je opasnost proces otkrivanja dokaza: svako novo ročište nosi rizik da će interne rasprave o kompromisima između sigurnosti i komercijalnih ciljeva završiti u javnom prostoru – i na radnom stolu europskih regulatora. Za Muska, najveća je opasnost kumulativni gubitak povjerenja: svaki put kad ga vlastiti tvit demantira pod prisegom, njegova uloga „glasnog savjest“ u AI debati slabi.

Što bi čitatelji trebali pratiti? Prvo, hoće li sud prihvatiti Muskovo tumačenje da je OpenAI zapravo napustio svoju neprofitnu misiju. Drugo, koliku će težinu sutkinja dati razlici između ograničenog i neograničenog profita investitora. Treće, hoće li prakse sigurnosti kod xAI‑ja, Tesle i OpenAI‑ja biti dovoljno raskrinkane da vidimo postoje li dvostruki standardi.

Bez obzira na konačni ishod, trend je jasan: upravljanje AI‑jem izlazi iz domene „povjerenja u genijalnog osnivača“ i ulazi u domenu pravno provjerljivih obveza.

7. Zaključak

Dan Elona Muska na sudu pokazuje da budućnost umjetne inteligencije neće određivati samo inženjerski genij, nego i kvaliteta statuta, ugovora i nadzora. Kada vaše objave na X‑u postanu dokaz, pretjerivanje i hype više nisu bezazleni – mogu izgledati kao zavaravanje javnosti i investitora. Za Hrvatsku i regiju poruka je jasna: ako prihvaćamo AI „za čovječanstvo“, moramo isto toliko pažnje posvetiti tome tko ga kontrolira i pod kojim pravilima, koliko samoj tehnologiji.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.