Musk protiv Kalifornije: zašto poraz xAI-a oko podataka za treniranje mijenja igru za AI

6. ožujka 2026.
5 min čitanja
Sudačko kladivo ispred stiliziranog prikaza podataka i umjetne inteligencije

1. Naslov i uvod

Kalifornija je Elonu Musku upravo pokazala koliko se promijenila ravnoteža snaga između tehnoloških giganata i države. Njegov xAI nije uspio privremeno zaustaviti zakon koji od razvojnih timova umjetne inteligencije traži da otkriju osnovne informacije o podacima na kojima treniraju svoje modele. Sudac nije prihvatio ni priču o „uništenju poslovnih tajni“ ni tvrdnju da javnost za to nema interesa.

Ovo je više od još jedne Muskove sudske epizode. To je rani test: koliko transparentnosti ćemo kao društvo tražiti od AI sustava koji ulaze u zdravstvo, financije, obrazovanje – i što to znači za europske i hrvatske aktere?


2. Vijest ukratko

Kako piše Ars Technica, savezni sudac u Kaliforniji odbio je zahtjev tvrtke xAI za privremenom mjerom protiv državnog zakona Assembly Bill 2013 (AB 2013), koji je na snazi od siječnja 2026.

Zakon obvezuje razvojne timove čiji su modeli dostupni u Kaliforniji da javno objave određene informacije o podacima za treniranje: vrste korištenih izvora, vremensko razdoblje prikupljanja, podatak prikuplja li se još uvijek, uključuju li skupovi za treniranje autorski zaštićene sadržaje ili osobne podatke te jesu li podaci kupljeni, licencirani ili prikupljeni scrapingom. Traže se i informacije o udjelu sintetičkih podataka.

xAI je tvrdio da se time otkrivaju ključne poslovne tajne i da korisnici takve informacije realno ne koriste. Sudac Jesus Bernal ocijenio je da tvrtka nije pokazala koje bi konkretne tajne neizbježno morale biti otkrivene te da javnost ima legitiman interes znati na čemu se modeli temelje. Postupak se nastavlja, ali xAI u međuvremenu mora poštovati zakon.


3. Zašto je to važno

Ova odluka udara u srž argumenta koji većina velikih AI kompanija koristi: da su skupovi podataka toliko osjetljivi i poslovno ključni da ih se praktički ništa ne smije otkriti. Sud sada kaže – ukratko – da se pozivanje na poslovnu tajnu mora potkrijepiti konkretnim činjenicama, a ne općenitim tvrdnjama da su „podaci nova nafta“.

Tko dobiva?
Prije svega korisnici, istraživači, novinari i regulatori. Čak i relativno grube informacije o tome na kakvim se izvorima model trenirao pomažu procijeniti rizike: hoće li model sistematski diskriminirati određene skupine, kolika je vjerojatnost kršenja autorskih prava, kakva je kvaliteta znanja za medicinske ili financijske savjete. Ako bolnica u Zagrebu ili osiguravatelj u Ljubljani uspoređuju modele, moći će pitati: imate li uopće relevantne medicinske podatke u treningu ili se oslanjate na generički web‑crawl?

Za male i srednje AI timove to može biti prilika. Danas velika imena – OpenAI, Google, xAI – djelomično žive od dojma da im je pristup „posebnim“ skupovima podataka nedostižan konkurenciji. Ako propisi prisile sve igrače da pokažu bar konture svojih podataka, možda se pokaže da razlika nije toliko dramatična, te da kvaliteta domenskog znanja, europski podatkovni prostori ili pažljivo kurirani skupovi mogu ravnopravno konkurirati.

Gubitnik je model posla koji se oslanja na potpunu netransparentnost. Musk se bori jer je xAI izgradio priču oko snažnog, tajnog „data enginea“ za svoj chatbot Grok. No ako kalifornijski zakon opstane, šalje poruku da se dio tog „enginea“ može otkriti bez kolapsa industrije – i da će se slični zahtjevi pojaviti i drugdje.


4. Šira slika

AB 2013 uklapa se u širi globalni trend: nakon godina načelnih etičkih smjernica, zakonodavci prelaze na vrlo konkretne obveze dokumentacije, nadzora i sljedivosti podataka.

U Europskoj uniji, Akt o umjetnoj inteligenciji (EU AI Act) – politički usuglašen 2023. – uvodi zahtjeve za detaljnom tehničkom dokumentacijom, uključujući opis korištenih skupova podataka, njihove izvore i kontrole kvalitete. Za visokorizične sustave (kreditno bodovanje, zapošljavanje, ključne javne usluge) ta će dokumentacija i testiranja biti još stroža. Iako EU trenutačno ne traži javno objavljivanje svega, filozofija je slična: „ne možeš uvoditi kritičnu AI bez jasnog traga podataka“.

Istovremeno, niz tužbi zbog autorskih prava protiv OpenAI‑ja, Mete, Stability AI‑ja i drugih pokazuje koliko je neprozirnost trening podataka problematična. Autori i izdavači tvrde da ne mogu niti provjeriti jesu li njihova djela korištena za treniranje. Propisi poput AB 2013 mijenjaju kontekst: kada se jednom uspostavi obveza publikacije izvora, bit će osjetno teže sakriti se iza formulacija „poštujemo sve zakone“ bez konkretnih podataka.

Pitanje je i sigurnosti. Političari vole govoriti o hipotetskim „egzistencijalnim rizicima“, ali građane danas pogađaju konkretnije posljedice: pristrani modeli, halucinacije koje izgledaju uvjerljivo, dezinformacije, deepfake pornografija, pa i generiranje dječje seksualne zloupotrebe. Grok je već bio pod istragama zbog antisemitističkih ispada i generiranja nedopuštenog sadržaja. Teško je uvjerljivo tvrditi da su to „nesretne slučajnosti“, a da pritom regulatorima ne želite reći što je točno bilo u podacima za treniranje.

Povijesno gledano, isti obrazac smo vidjeli kod društvenih mreža: Facebook, Twitter i drugi godinama su tvrdili da ne mogu otvoriti algoritme preporuka ili politike moderiranja jer bi to „uništilo iskustvo“ i otkrilo poslovne tajne. No pod pritiskom europskog Digital Services Acta, nacionalnih regulatora i javnosti, dio te neprozirnosti je nestao – i industrija se nije srušila. Sada isti film gledamo u verziji AI.


5. Europski i regionalni kut

Za Europsku uniju, a time i za Hrvatsku, kalifornijski slučaj ima nekoliko jasnih implikacija.

Prvo, potvrđuje da se i u SAD‑u – kolijevci Big Tech‑a – pomiče granica prihvatljive tajnovitosti. Globalni pružatelji usluga rijetko grade potpuno odvojene režime usklađenosti za različite regije; često im je jeftinije jednu matricu transparentnosti primijeniti svuda. Ako AB 2013 preživi sudske izazove, lako je zamislivo da će „kalifornijski izvještaj o podacima“ postati de facto standard i na europskom tržištu.

Drugo, EU već ima pravni okvir koji ovu logiku podržava. GDPR postavlja pitanje zakonitosti obrade osobnih podataka u treniranju modela i prava pojedinaca da dobiju uvid ili zatraže brisanje. AI Act dodaje sloj dokumentacijskih i nadzornih obveza, a Digital Services Act već sada od velikih platformi traži veći uvid u algoritme i rizike. Presuda u Kaliforniji može poslužiti Bruxellesu i nacionalnim regulatorima (uključujući hrvatskog AZOP‑a i buduća nadzorna tijela za AI) kao argument da dodatna transparentnost nije „europski hir“, nego globalni trend.

Treće, regionalni startup ekosustavi – od Zagreba i Ljubljane do Beograda i Sarajeva – mogu ovaj trenutak iskoristiti. Tvrtke koje grade modele na jasno licenciranim, lokalnim ili domenskim podacima, mogu to pretvoriti u vidljivu konkurentsku prednost. U isto vrijeme, morat će biti spremne i na dodatnu administraciju: ako ciljaju globalno tržište, usklađivat će se i s europskim pravilima i s kalifornijskim standardima.

Za hrvatske korisnike – od banaka i telekoma do javne uprave – poruka je prilično konkretna: kod nabave AI rješenja postavite pitanje izvora podataka isto toliko glasno kao i pitanje cijene. Ako Kalifornija to traži od svojih dobavljača, zašto ne biste i vi?


6. Što slijedi

U kratkom roku, pravna bitka se nastavlja. xAI će vjerojatno pokušati preciznije opisati koje skupove podataka ili metode čišćenja smatra doista jedinstvenima i zašto bi njihovo opisivanje na razini koju traži zakon bilo pogubno. To nije trivijalno – sudac je već dao do znanja da apstraktna upozorenja nisu dovoljna.

Industrija u cjelini će se vjerojatno kretati u tri smjera:

  • veći igrači će „dobrovoljno“ objavljivati više informacija o podacima kako bi pokazali da su odgovorni,
  • pojavit će se pokušaji standardizacije obrazaca za objavu (format, razina detalja, terminologija),
  • ugovori između pružatelja AI usluga i velikih klijenata (država, banaka, telekoma) počet će uključivati klauzule o tome što se smije ili mora otkriti regulatorima i javnosti.

Otvorena su, međutim, važna pitanja. Gdje je granica između korisne transparentnosti i stvarnog odavanja know‑howa konkurenciji? Hoće li grube kategorije podataka biti dovoljne ili će se tražiti neovisne revizije? Kako uskladiti zaštitu poslovne tajne s legitimnim interesom društva da nadzire sustave koji sve više odlučuju o našim kreditima, radnim mjestima ili zdravstvenim tretmanima?

Za Hrvatsku i regiju dodatno je važno hoće li i kako domaći zakonodavci operacionalizirati europski AI Act. Hoćemo li se zadovoljiti minimalnim zahtjevima prema Bruxellesu ili ćemo – potaknuti primjerima poput Kalifornije – tražiti i javne registre modela s osnovnim podacima o treniranju, posebno kad je riječ o sustavima koje koristi država?


7. Zaključak

Poraz xAI‑a u prvoj rundi protiv kalifornijskog zakona je više od lošeg dana za Elona Muska. To je signal da se era u kojoj su podaci za treniranje bili nedodirljiva crna kutija bliži kraju. Sud je jasno poručio da sama riječ „poslovna tajna“ nije čarobna formula kojom se može izbjeći nadzor nad tehnologijom koja duboko ulazi u društvo.

Ako AB 2013 opstane, pritisak za slične mjere rasta će i u drugim jurisdikcijama – uključujući Europsku uniju. Pitanje za svakog od nas je jednostavno: kada biramo kojem AI sustavu vjerovati, hoćemo li nagraditi one koji otvoreno govore na čemu su učili – ili ćemo i dalje prihvaćati crne kutije dok god su dovoljno zgodne i brze?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.