Ko pade zaupanje v Sama Altmana, pade tudi model upravljanja umetne inteligence

7. april 2026
5 min branja
Sam Altman govori na odru pred logotipom OpenAI

Ko pade zaupanje v Sama Altmana, pade tudi model upravljanja umetne inteligence

OpenAI želi pisati industrijsko politiko za »dobo inteligence«, medtem ko se lastno vodstvo sooča s krizo verodostojnosti. To je bistvo zadnjih razkritij o direktorju Samu Altmanu: ne le, ali je en vodja preveč neiskren, temveč ali je celoten sektor zgradil zgodbo o varni umetni inteligenci na kultu osebnosti namesto na trdnih institucijah. V nadaljevanju analiziramo, kaj sta razkrila Ars Technica in The New Yorker, zakaj je časovno sovpadanje z novim političnim dokumentom OpenAI tako pomenljivo in kaj to pomeni za regulatorje, tekmece in evropske odločevalce – vključno s Slovenijo.

Novica na kratko

Kot povzema Ars Technica, je OpenAI objavil obsežen nabor političnih predlogov za upravljanje prehoda v čas morebitne »superinteligence«. Dokument predlaga krajši delovni teden, javni premoženjski sklad za delitev dobičkov iz umetne inteligence, davek na avtomatizirano delo ter strožji nadzor le nad najbolj zmogljivimi modeli. Vse skupaj je predstavljeno kot delavcem prijazen in demokraciji naklonjen načrt.

Na isti dan je The New Yorker objavil dolgo preiskavo o vedenju Sama Altmana, ki temelji na več kot sto intervjujih in internih dokumentih. Po povzemu Ars Technice več nekdanjih vodilnih pri OpenAI opisuje vzorec manipulacij in selektivnega podajanja resnice, zaradi česar dvomijo, da je Altman prava oseba za varno vodenje razvoja napredne umetne inteligence. Altman večino očitkov zanika ali relativizira, a razkritja utrjujejo občutek, da med podobo »odgovornega vizionarja« in realnim upravljanjem obstaja resen razkorak.

Zakaj je to pomembno

OpenAI od vlad in družbe pričakuje, da bodo dovolile hiter razvoj izjemno zmogljivih sistemov, češ da lahko nekaj največjih laboratorijev ob blagih pravilih to izpelje »varno«. Hkrati pa ljudje iz najožjega kroga vodstva namigujejo, da prav v situacijah, kjer je značaj vodje ključen, Altmanu ne zaupajo.

To ni le težava ugleda, temveč udarec v samo jedro sedanjega pristopa k regulaciji umetne inteligence. Leta smo poslušali, da je OpenAI odgovorna protiutež skrajnim scenarijem in manj previdnim tekmecem. Ta narativ je podjetju odprl vrata vladam, vojski in velikim korporacijam. Če pa ključnega govorca vedno več akterjev dojema kot nekoga, ki pove tisto, kar je v danem trenutku koristno, postane celotna zgodba o »posebej varnem laboratoriju« vprašljiva.

Kdo ima od tega korist? Kratkoročno lahko nekaj političnega kapitala pridobijo drugi igralci – od laboratorijev, kot je Anthropic, do odprtokodnih pobud. Njihov argument je preprost: o usodi tehnologije, ki bo vplivala na milijarde ljudi, ne sme odločati zaupanje v enega direktorja.

Na drugi strani izgubljajo podjetja, ki so svoj položaj gradila prav na osebnem ugledu vodij in na statusu kvazi-javnih institucij brez prave zunanje kontrole. V tem kontekstu najnovejši predlog OpenAI, da bi stroge revizije veljale le za najbolj napredne modele, deluje manj kot izraz skromnosti in bolj kot poskus določiti pravila igre sebi v prid.

Širši kontekst

To ni prvič, da so se dvomi o upravljanju pri OpenAI prelili v javnost. Leta 2023 je nadzorni odbor – formalno neprofitni varuh »poslanstva v dobro človeštva« – Altmana za kratek čas odstavil. Razlogi niso bili nikoli do konca pojasnjeni, a namigi so šli v smer pomanjkljive iskrenosti in notranjih napetosti. V nekaj dneh so pritisk investitorjev in upor zaposlenih Altmana vrnili na čelo, odbor pa je bil preoblikovan. Sporočilo je bilo jasno: kapital in karizmatični ustanovitelji imajo še vedno prednost pred previdnostno arhitekturo.

Podobno je nastal Anthropic, ki so ga ustanovili nekdanji raziskovalci OpenAI s poudarkom na strožjih varnostnih pristopih. Tudi odhod Elona Muska in kasnejše kritike Altmanovega vodenja sodijo v isti vzorec: nesoglasje ne le o hitrosti razvoja, temveč o tem, koliko moči je skoncentrirane v eni osebi.

Če to ozadje povežemo z novo preiskavo, dobimo konsistentno sliko: sodobna umetna inteligenca je prevzela širši vzorec Silicijeve doline, kjer osebni ugled ustanovitelja nadomešča institucije, ki bi jih v drugih tveganih panogah – od letalstva do farmacije – imeli za samoumevne.

Tudi konkurenca se prilagaja. Google AI in DeepMind delujeta znotraj velike, regulirane korporacije z bolj tradicionalnimi strukturami nadzora. Meta pospešeno odpira modele, da razprši odgovornost in si pridobi simpatije razvijalcev. OpenAI pa je šel po poti: hitro rast, koncentracija odločanja, nato dodajanje etičnih svetov in načel. Razprava o Altmanu kaže, da je ta model blizu meja vzdržnosti.

Evropski in slovenski vidik

Iz evropske perspektive je trenutna drama prej potrditev kot presenečenje. Bruselj, Berlin in druge prestolnice so že dolgo skeptični do prostovoljnih zavez velikih tehnoloških podjetij. Zato je EU sprejela GDPR, Digital Services Act in AI Act: ne zato, ker bi zaupala manj, ampak ker želi odvisnost od osebnosti zamenjati s predvidljivimi pravili.

Evropski regulatorji bodo v razkritjih videli utrditev treh prepričanj:

  1. Sistemsko tveganje ni vezano na posameznika. Obveznosti morajo izhajati iz zmogljivosti in uporabe modelov, ne iz osebnega ugleda direktorja.
  2. Treba se je upreti ujetju regulatorja. Predlog, da bi stroge revizije veljale le za peščico vodilnih laboratorijev, ustvarja zaprti klub igralcev, ki bi lahko narekovali tempo celotni panogi.
  3. Transparentnost ni stvar dobre volje. Kjer dvomimo v iskrenost vodstva, so neodvisne revizije, dokumentacija in dostop do podatkov nujni.

Za slovenska podjetja in javne institucije, ki uporabljajo ali razmišljajo o uporabi OpenAI API‑jev, to ni abstraktna dilema. Ponudnik, ki se sooča s krizo zaupanja, predstavlja tudi poslovno in politično tveganje. Težje bo upravičiti globoko vpetost v aplikacije, ki vplivajo na izobraževanje, zdravstvo, pravosodje ali socialne storitve.

Hkrati se odpirajo priložnosti za evropske in regionalne alternative – od odprtokodnih modelov do rešitev, ki nastajajo v evropskih oblačnih okoljih. Če se bo globalna razprava premaknila od »zaupajmo Altmanu« k »zaupajmo institucijam«, bo evropski pristop nenadoma videti manj tog in bolj vizionarski.

Pogled naprej

Naslednji koraki bodo odvisni od treh skupin akterjev: regulatorjev, investitorjev in samih raziskovalcev.

Regulatorji v ZDA in EU imajo zdaj dodatno politično kritje za zahteve po strožjem nadzoru nad t. i. »frontier« laboratoriji: obvezno poročanje o incidentih, neodvisne varnostne revizije, jasnejšo ločitev med neprofitnim poslanstvom in profitno družbo ter transparentnost lobiranja. Pričakujemo lahko zaslišanja, na katerih ne bo več dovolj govoriti o potencialnih koristih modelov, temveč bo v ospredju vprašanje: kdo je dejansko odgovoren in po kakšnih pravilih.

Znotraj OpenAI se bo ponovno odprla tema korporativnega upravljanja. Po krizi leta 2023 je podjetje obljubljalo močnejše nadzorne mehanizme. Nova razkritja logično vodijo do vprašanja, ali ti mehanizmi dejansko delujejo ali so bili predvsem politična kulisa. Če ključni raziskovalci menijo, da lahko direktor omejitve kasneje preprosto odpravi, bodo težje ostali ali prišli najbolj iskani kadri.

Za širši ekosistem – tudi slovenski – je pomembno, da to obdobje izkoristi za profesionalizacijo upravljanja umetne inteligence. To pomeni: jasne notranje postopke, etične odbore z realnimi pooblastili, transparentnost podatkov in modelov tam, kjer je to mogoče, ter aktivno sodelovanje z regulatorji. Alternativa je čakanje na prvi resen incident, po katerem bodo pravila pisana v naglici in pod pritiskom.

Ključna poanta

Težava ni le, ali lahko osebno zaupamo Samu Altmanu; težava je, da se je preveč upravljanja umetne inteligence naslonilo na idejo, da sploh moramo zaupati posamezniku. Nasprotje med bleščečim političnim manifestom OpenAI in dvomi njegovih najbližjih sodelavcev bi moralo biti alarm za regulatorje, podjetja in javni sektor – tudi v Sloveniji. Če verjamemo, da bodo ti sistemi vplivali na demokracijo, trg dela in osnovne pravice, potem morajo biti pravila pisana za institucije, ne za junake Silicijeve doline.

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.