Naslov in uvod
Sojenje Elona Muska proti OpenAI ni le še ena epizoda v seriji »vojna milijarderjev«. V kalifornijski sodni dvorani se v živo preverja, koliko sploh še smemo verjeti tehnološkim ustanoviteljem, ko poslovne interese zavijajo v jezik »dobrodelnosti« in »varne umetne inteligence za človeštvo«.
Muskove tri dni dolge izjave so močno načele njegovo podobo užaljenega skrbnika prvotnega poslanstva OpenAI. Hkrati pa napovedujejo, kako kaotično bo upravljanje najzmogljivejših sistemov umetne inteligence, ko v igro stopijo resni denar, borza in politika. V nadaljevanju razčlenjujem, kaj se je dejansko zgodilo, zakaj ta proces presega osebni spor ter kaj pomeni za regulatorje in vlagatelje – tudi v Sloveniji.
Kaj se je zgodilo (na kratko)
Kot poroča Ars Technica, je Elon Musk tri dni pričal kot prvi priča v svoji tožbi proti OpenAI, Samu Altmanu in drugim. Z njo želi preprečiti načrtovano javno kotacijo OpenAI ter podjetje prisiliti nazaj k »čistemu« neprofitnemu modelu.
Med navzkrižnim zaslišanjem je glavni odvetnik OpenAI William Savitt – ki je v preteklosti za Muska že delal – Musku neprestano soočal elektronsko pošto, interne dokumente, izseke iz zaslišanja in objave na X, ki so spodkopavale njegovo zgodbo. Ars Technica izpostavlja vsaj sedem večjih spodrsljajev: Musk je pod pritiskom priznal več dejstev, ki jih je njegova obramba želela izključiti, na več točkah je izpadel nekonsistenten ali izmikajoč, potem ko je trdil, da nikoli ne kriči, pa je v sodni dvorani dvignil glas.
Sodišče je dovolilo tudi vprašanja o varnostnem zapisu njegovega novega podjetja xAI ter o njegovih povezavah z Donaldom Trumpom in vplivu na Belo hišo. Sodnica Yvonne Gonzalez Rogers je Muska večkrat opozorila, naj preneha s sarkazmom in neodgovarjanjem. Sojenje se bo nadaljevalo še več tednov, mnenje porote pa bo zgolj posvetovalno – končno odločitev bo sprejela sodnica.
Zakaj je to pomembno
Formalno gre za vprašanje, ali je OpenAI izdal svoje ustanovno poslanstvo in dogovore ter ali ima sodišče sploh pravico poseči v njegovo lastniško in upravljavsko strukturo. V praksi pa se proces spreminja v preizkus, ali lahko še verjamemo tehnološkim »mesijam«, ko govorijo o varnosti umetne inteligence in dobrobiti človeštva.
Musk se predstavlja kot donator, ki je financiral neprofitno organizacijo, da bi človeštvo zaščitil pred nevarno umetno inteligenco, nato pa naj bi mu jo Altman in Microsoft »ukradla« in spremenila v stroj za ustvarjanje stotin milijard dolarjev. Ta narativ popolnoma sloni na njegovi osebni verodostojnosti.
Opis dogajanja, ki ga ponuja Ars Technica – ob podpori poročanja The New York Timesa, The Verge, The Washington Posta in drugih – pa kaže poroti prej konfliktno in protislovno pričo kot pa etičnega varuha. Lastna elektronska pošta in objave mu nasprotujejo, ko poskuša zanikati vlogo dobička pri Tesli in xAI, minimizira svoje ambicije glede splošne umetne inteligence ali pojasnjuje, zakaj je iz OpenAI odšel šele po tem, ko mu ostali ustanovitelji niso želeli prepustiti nadzora nad profitnim delom.
Vsaka takšna razpoka spodjeda Muskov moralni višek. Kratkoročno to koristi Altmanu in OpenAI: če se sojenje spremeni v glasovanje o tem, ali porota verjame Musku, in ne v razlago pogodbenih klavzul, je pot do javne kotacije manj tvegana. Med poraženci nista le Musk in xAI, ampak tudi vsak prihodnji ustanovitelj, ki bi rad z velikimi besedami o »dobrem za človeštvo« legitimiziral lastne poslovne poteze.
Širši kontekst: upravljanje umetne inteligence pod reflektorji
To ni prva javna kriza upravljanja pri OpenAI. Leta 2023 je upravni odbor na kratko odstavil Sama Altmana zaradi zadržkov glede transparentnosti in varnosti, nato pa ga je po uporniškem odzivu zaposlenih in pritiski Microsofta hitro vrnil. Že takrat je bilo jasno, da je kombinacija »poslanstva za človeštvo« in večdesetmilijardnega strateškega partnerstva izjemno nestabilna.
Muskova tožba prinaša drugo sporočilo: ustanovitelji lahko jezik »dobrodelnosti«, »neprofitnosti« in »varnosti« zelo prilagodljivo interpretirajo. Ko jim ustreza, zagovarjajo neprofitni model, ko ne, zagovarjajo profitni del kot nujno sredstvo za dosego istega cilja – nato pa skušajo to zgodbo uveljaviti še na sodišču.
Soočamo se z dvema modeloma:
- Ustanovitelj kot skrbnik – Musk se vidi kot nekakšen »varuški« umetne inteligence, ki mora imeti pravico veta nad ključnimi odločitvami, dokler sistem ne »odraste«.
- Investicijsko usklajen pospešek – sedanji OpenAI, kapitalsko prepleten z Microsoftom, ki brez zadržkov stavi na rast in delež na trgu.
Konkurent Anthropic, ki so ga ustanovili nekdanji raziskovalci OpenAI, je poskusil s hibridnim modelom javno-koristne družbe, ki jo nadzoruje skrbniški sklad. Na papirju je to bolj robustno, vendar še ni prestalo preizkusa prve velike javne kotacije ali resnega spora med ustanovitelji in vlagatelji.
Sojenje tako ni le spor o tem, kaj je bilo zapisano v e‑pošti leta 2015, temveč bitka za to, katera upravljavska matrica bo oblikovala obdobje »frontier AI«. Še nekaj razkriva: v ZDA ni trdnega zakonskega okvira za najzmogljivejše sisteme umetne inteligence, zato se razprave o »varnosti« selijo v zasebne spore med milijarderji in njihovimi pravnimi ekipami.
Evropski pogled in slovenski kontekst
Za EU je dogajanje v Oaklandu precejšnja potrditev izbrane poti. Akt o umetni inteligenci (EU AI Act) izhaja iz predpostavke, da zaupanje v samoregulacijo ameriških tehnoloških velikanov ne zadošča. Namesto da bi verjeli obljubam o »neprofitnem poslanstvu« in »varnosti na prvem mestu«, zakon uvaja zavezujoče zahteve glede upravljanja tveganj, transparentnosti in nadzora.
Evropski regulatorji dobro vedo, da so isti akterji, ki zdaj govorijo o etiki umetne inteligence, še pred nekaj leti GDPR videli kot oviro, ne kot nujen okvir. Muskova predstava na zatožni klopi – z izbruhi jeze, protislovji in jasno vlogo konkurenta OpenAI – bo v Bruslju in nacionalnih prestolnicah le okrepila prepričanje, da morajo pravila pisati zakonodajalci, ne karizmatični direktorji.
Za slovenske uporabnike in podjetja je pomemben še drug vidik: odvisnost od ameriških modelov. Številna domača podjetja eksperimentirajo z OpenAI, Google in drugimi rešitvami v oblaku. Če se izkaže, da je upravljanje enega ključnih ponudnikov v praksi odvisno od razpleta osebnega spora med Muskom, Altmanom in Microsoftom, bo pritisk za evropske alternative (npr. francoski Mistral ali nemški Aleph Alpha) in za lokalne rešitve še zrasel.
Slovenija kot majhen trg sicer ne bo krojila pravil igre, lahko pa s pametno javno nabavo in razpisnimi pogoji prispeva k temu, da se v praksi uporabljajo modeli, ki spoštujejo EU AI Act, GDPR in načela zanesljive umetne inteligence.
Pogled naprej
Pravno gledano je Muskov položaj šibak. Ameriška sodišča le redko posegajo v notranjo organizacijo podjetij, razen kadar obstaja zelo jasna pogodba ali dokazljive prevarantske prakse. Za zdaj ni videti, da bi Musk predstavil dokument, ki bi nedvoumno prepovedoval prehod OpenAI na sedanje »omejeno profitno« hibridno strukturo.
Bolj ko se sojenje osredotoča na njegovo verodostojnost – spreminjanje izjav o donacijah, odnos do varnostnih ekip, politično lobiranje v korist xAI – manj verjetno je, da bo sodnica storila radikalen korak in blokirala javno kotacijo ali zahtevala vrnitev k čisti neprofitni strukturi.
A tudi v primeru Muskovega poraza bo proces odmeven. Razkritja internih e‑pošt OpenAI o ravnotežju med varnostjo, komercializacijo in vplivom Microsofta bodo zanimala tako regulatorje kot vlagatelje. Če bo sodišče dovolilo poglobljen vpogled v varnostne prakse xAI, lahko Musk iz procesa izstopi z manj moralnega kapitala za prihodnje razprave o eksistenčnih tveganjih umetne inteligence.
V naslednjih 12–18 mesecih velja spremljati:
- Obrazložitev sodbe – bo sodišče nakazalo, kakšne dolžnosti imajo »kvazi‑dobrodelni« tehnološki projekti do svojih ustanovnih obljub?
- Strukturo kotacije OpenAI – bo podjetje v odgovor na dogajanje okrepilo neodvisen nadzor nad varnostjo in etiko?
- Odziv EU in Združenega kraljestva – bosta regulatorja to vzela kot dokaz, da potrebujemo še strožja pravila za temeljne modele in visoko tvegane sisteme.
Najslabši možni izid ni Muskova zmaga, temveč scenarij, v katerem vsi akterji iz procesa odidejo cinični in še bolj pripravljeni varnost umetne inteligence uporabljati kot retorično orožje v poslovnih bitkah.
Zaključek
Sojenje Muska proti OpenAI ni pravljica o »ukradeni dobrodelni organizaciji«, temveč referendum o tem, ali bomo še naprej naivno sprejemali velike besede tehnoloških ustanoviteljev o varni umetni inteligenci in dobrobiti človeštva. Muskova neprepričljiva izpoved je oslabila njegov moralni položaj in hkrati utrdila evropsko intuicijo, da morajo pravila za umetno inteligenco pisati zakoni, ne osebnostni kulti. Ključno vprašanje za evropske bralce je, komu bodo raje zaupali pri določanju meja umetne inteligence: svojemu parlamentu ali najglasnejšemu milijarderju na X?



