Ko je na čelu umetne inteligence: sam Altman ali naš občutek za zdravo pamet?

7. april 2026
5 min branja
Ilustracija poslovneža, ki stoji nad svetlečo mrežo sistemov umetne inteligence

Naslov in uvod

Razprava o umetni inteligenci se je tiho premaknila iz vprašanja »kaj zmorejo modeli« v vprašanje »kdo je na njihovi strani krmilnika«. Po izčrpnem profilu Sama Altmana v reviji The New Yorker in ostri kolumni na Ars Technici se OpenAI‑jev direktor ne kaže več le kot ambiciozni vizionar, ampak kot človek, ki mu številni sogovorniki preprosto ne zaupajo.

Zakaj bi to moralo zanimati tudi bralce v Sloveniji? Ker se od orodij, ki jih razvijajo ljudje, kot je Altman, vse bolj odvisni javna uprava, šolstvo, mediji in podjetja – od Ljubljane do Lendave. V nadaljevanju ne bomo ponavljali vsebine članka, temveč bomo pogledali, kaj nam ta zgodba pove o strukturi celotne industrije in kakšno vlogo lahko (in mora) odigrati Evropa.

Novica na kratko

Kot povzema Ars Technica, novi, približno 16.000 besed dolg profil Sama Altmana v The New Yorkerju predstavlja zaskrbljujočo sliko direktorja OpenAI in kulture, ki poganja trenutni razcvet umetne inteligence. Avtorja Ronan Farrow in Andrew Marantz sta se pogovarjala z več kot sto ljudmi iz Altmanovega kroga.

Po poročanju Ars Technice številni sogovorniki opisujejo Altmana kot človeka, ki je pripravljen prilagajati resnico, znova odpirati že dogovorjene pogoje in megliti mejo med tem, kar bi rad dosegel, in tem, kar je dejansko dosegel. Nekdanji sodelavci in člani upravnih odborov naj bi dvomili o njegovi iskrenosti in osnovni zanesljivosti, pri čemer ga nekateri primerjajo z drugimi znanimi primeri iz Silicijeve doline, kjer je marketing prehitel realnost.

Ars Technica izpostavi tudi Altmanove lastne tehnoutopične zapise o samopomnožujočih se robotih in skoraj brezproblemnem prehodu v svet, preplavljen z umetno inteligenco, pri čemer se le bežno dotakne družbenih in političnih tveganj.

Zakaj je to pomembno

Najlažji odziv je ciničen: »Spet eden tipičnih ustanoviteljev iz Silicijeve doline.« A tokrat ne govorimo o še eni aplikaciji za slike, ampak o podjetju, katerega tehnologija se vgrajuje v pisarniške pakete, državno upravo, medijske hiše in izobraževalna orodja.

Ko ima direktor takšnega podjetja sloves človeka, ki po pričevanjih bližnjih sodelavcev brez zadrege preoblikuje resničnost v svojo korist, ne gre več za osebnostni problem, ampak za tveganje v upravljanju kritične infrastrukture.

Temeljno vprašanje »varnosti umetne inteligence« je bilo vedno, kako zmogljive sisteme uskladiti s človeškimi vrednotami. Altmanova zgodba nam obrne perspektivo: kako uskladiti ljudi, ki o razvoju in uvajanju teh sistemov odločajo? Če so vodstva nagrajena za to, da drvijo naprej, minimalizirajo negativne učinke in očarajo ali ustrahujejo regulatorje, potem se »poravnava z vrednotami« prelevi v marketinško frazo.

Kdo pri takšnem modelu zmaguje in kdo izgublja? Kratkoročno vsekakor ustanovitelji in vlagatelji, ki prek centraliziranega nadzora nad modeli, podatki in računsko infrastrukturo dobijo izjemen vpliv. Velike oblačne platforme, predvsem Microsoft v primeru OpenAI, si s tem utrjujejo neprebojni jarek pred konkurenco.

Na drugi strani so podjetja, ki so prisiljena te modele obravnavati kot nevtralno infrastrukturo, čeprav niso; državljani, katerih podatki so bili zajeti brez njihove vednosti; in javne ustanove, ki se lahko znajdejo življenjsko odvisne od dobaviteljev, katerih vodstev ne poznajo in jim v resnici ne morejo – ali ne bi smeli – zaupati.

Posledica je vse globlja kriza zaupanja v industrijo kot celoto, ne le v enega človeka ali eno podjetje.

Širša slika

Altman ni izjema, temveč simptom. V zadnjem desetletju se ponavlja isti vzorec: karizmatični tehnološki voditelji, ki se vidijo kot vodilni misleci napredka, hkrati pa pravo, družbene norme in včasih tudi gole dejstva razumejo kot nekaj, kar se jim prilagaja.

Elon Musk, ki hkrati gradi rakete, spodkopava javni prevoz in iz nekdanje platforme Twitter dela politično zvočnico, medtem ko lansira še svojo različico »varne AI«. Mark Zuckerberg, ki je pokopal milijarde v metaverzum, nato pa čez noč razglasil, da je Meta »AI‑prva« družba. Dogovorimo se še za manifest Marca Andreessena, ki tehnološki napredek razglaša praktično za brezpogojno dobro, in mešanico apokaliptične retorike ter realpolitike Petra Thiela.

Zgodovinsko gledano to ni novo: v 19. stoletju železniški baroni, v 20. naftni in telekomunikacijski velikani. Vedno ista kombinacija obljube napredka in brezkompromisnega kopičenja moči. Razlika je v tem, da se tokrat ne gre le za energijo in logistiko, temveč za znanje, komunikacijo in koordinacijo družbe – in da se vse dogaja z nekaj kliki na globalni ravni.

OpenAI‑jeva lastna drama leta 2023, ko je neprofitni upravni odbor za kratek čas odstavil Altmana, nato pa se je pod pritiskom vlagateljev in zaposlenih preoblikoval, je bila že jasen alarm. Novi profil v The New Yorkerju je nadaljevanje iste zgodbe: ko so na mizi desetine milijard, »poslanstvo« hitro postane drugotno.

Tudi ostali laboratoriji niso bistveno drugačni. Anthropic, Google DeepMind, xAI in množica manjših razvijalcev delujejo v istem polju spodbud: čim hitrejše uvajanje, tekmovanje v lestvicah zmogljivosti, gradnja ekosistemov okoli lastnih API‑jev. Nekateri so previdnejši, drugi manj, toda osnovna logika je ista. Ko se ta logika združi z osebnostmi, izurjenimi v zbiranju kapitala in nadzorovanju narativa, dobimo natančno takšen tip vodenja, kot ga zdaj vidimo pod drobnogledom.

Evropski in slovenski kot

Za Evropo je to hkrati opozorilo in priložnost. Po eni strani evropska podjetja, univerze in države hitro sprejemajo storitve, ki temeljijo na ameriških (in kmalu tudi kitajskih) modelih – od pisarniške programske opreme do storitev v oblaku. Ko slovensko ministrstvo ali podjetje priključi svoj delovni tok na API ameriškega ponudnika, posredno sprejema tudi njegove vrednote in način upravljanja.

Po drugi strani EU gradi verjetno najcelovitejši regulativni okvir za AI na svetu. Uredba o umetni inteligenci (EU AI Act), skupaj z GDPR, aktom o digitalnih storitvah (DSA) in aktom o digitalnih trgih (DMA), skuša ravno zmanjšati odvisnost od osebne karizme direktorjev. Sistemi z visokim tveganjem bodo morali imeti jasne mehanizme nadzora, razkritja in odgovornosti – ne glede na to, kako prepričljiv je njihov izvršni direktor.

V Evropi raste tudi nekaj alternativ. Francoski Mistral AI in nemški Aleph Alpha želita biti bolj transparentna in skladna z evropskimi vrednotami, čeprav imata bistveno manj sredstev kot ameriški velikani. V Sloveniji imamo močno raziskovalno bazo na Institutu Jožef Stefan in Univerzi v Ljubljani ter podjetja, kot so recimo Outift7, Infinum ali vrsta manjših AI start‑upov, ki že danes uporabljajo ali razvijajo modele.

Za slovenski javni sektor in gospodarstvo je ključna dilema, ali bomo kritične funkcije – od sodstva do zdravstva – vezali na črne skrinjice pod nadzorom peščice ameriških izvršnih direktorjev ali pa bomo investirali tudi v lokalne in evropske zmogljivosti: odprte modele, skupno infrastrukturo in strožje, a jasne standarde.

Pogled naprej

Verjetno ne bomo priča spektakularnemu zlomu OpenAI ali osebnemu padcu Sama Altmana. Modeli bodo napredovali, Microsoft jih bo še naprej vgrajeval v svoje storitve in večini uporabnikov bo udobje »čarobnega« servisa pretehtalo nad abstraktnimi pomisleki.

Toda legitimnost se ne ruši naenkrat, ampak po malem. Pričakujemo lahko, da bodo evropski regulatorji — od Evropske komisije do informacijskih pooblaščencev — vse več pozornosti namenili ne le temu, kaj modeli počnejo, temveč tudi temu, kdo jih nadzoruje in kako.

Javni naročniki bodo morali postati veliko bolj zahtevni: od dobaviteljev bodo morali zahtevati revizijske sledi, transparentne tehnične opise, trdna jamstva glede varstva podatkov in jasne mehanizme za izstop. V Sloveniji se bo to pokazalo pri digitalizaciji zdravstva, e‑upravnih storitvah in uvajanju AI v šolstvo.

Tehnično lahko pričakujemo tudi večjo težo odprtih in lokalno izvedljivih modelov. Če, kot je zapisal avtor na Ars Technici, mnogi uporabniki raje vidijo sisteme pod nadzorom nevladnih ali javnih institucij z etično pridobljenimi podatki, potem obstaja trg za manj centralizirano in bolj demokratično zasnovano AI. Slovenija bi se tu lahko priključila evropskim pobudam za skupno računsko infrastrukturo in referenčne modele.

Ključno odprto vprašanje pa je kulturno: bomo naslednjo generacijo voditeljev AI‑podjetij oblikovali bolj po vzoru »upravljavcev infrastrukture« kot pa polbogov Silicijeve doline? Če ne, bo morala regulativa opraviti delo, ki ga notranja etika očitno ne zmore.

Bistvo

Težava ni le v tem, ali je Sam Altman osebno vreden zaupanja, temveč v tem, da se svetovna infrastrukura umetne inteligence nevarno naslanja na ljudi, katerih ključne veščine so hype, hitrost in kopičenje moči. Evropski — in slovenski — odgovor ne more ostati pri tvitih ogorčenja. Potrebujemo zavestno odločitev za drugačne modele upravljanja, za lastne zmogljivosti in za to, da si ob vsakem novem AI‑orodju zastavimo vprašanje: čigave interese v resnici vgrajujemo v svoje institucije?

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.

Ko je na čelu umetne inteligence: sam Altman ali naš občutek za zdravo pamet? | Digitalni Portal | Digitalni Portal