Naslov in uvod
V zadnjih mesecih so številni razvijalci tudi v Sloveniji na svoje računalnike namestili OpenClaw – viralno „agentno“ orodje z umetno inteligenco, ki lahko klika, tipka, bere datoteke in upravlja aplikacije namesto vas. Aktualna varnostna razkritja zdaj kažejo, kako nevaren je bil ta tehnološki eksperiment. Kadar nečemu daste skoraj skrbniški dostop do datotečnega sistema, delovnih klepetov, oblakov in gesel, mora biti varnostni model bližje internetnemu bančništvu kot pa vikend hobi projektu. Pri OpenClaw temu preprosto ni bilo tako. V nadaljevanju analiziramo, kaj je šlo narobe, zakaj je pristop problematičen in kaj to pomeni za slovenska podjetja in uporabnike.
Novica na kratko
Kot poroča Ars Technica, je izjemno priljubljeno odprtokodno orodje OpenClaw – agentni AI, izdan novembra in z več sto tisoč zvezdicami na GitHubu – vsebovalo več kritičnih ranljivosti. Najnevarnejša, označena kot CVE‑2026‑33579, je omogočala, da je vsakdo z najnižjo smiselno ravnijo dovoljenj (»pairing«) tiho pridobil popolne skrbniške pravice nad instanco OpenClaw.
Raziskovalci iz podjetja Blink so pokazali, da logika odobravanja seznanjanja novih naprav sploh ni preverjala, ali ima odobritelj pristojnost za podelitev skrbniške ravni. Številne internetno izpostavljene namestitve so tekle brez kakršnekoli avtentikacije, kar je pomenilo, da je lahko vsak obiskovalec omrežja zahteval seznanitev in nato pravice povišal do popolnega nadzora.
Popravki so bili objavljeni v nedeljo, uradni zapis CVE pa šele dva dni pozneje, kar je potencialnim napadalcem dalo prednost, še preden je večina uporabnikov razumela resnost težave. Varnostni strokovnjaki zdaj uporabnikom svetujejo, naj domnevajo kompromitacijo, pregledajo dnevnike seznanjanja in resno premislijo o nadaljnji uporabi takšnih agentov.
Zakaj je to pomembno
Dogodek z OpenClaw ni zgolj „še en bug“. Je simptom trka trenutnega navdušenja nad AI z osnovnimi načeli varnega razvoja.
Poslovni model OpenClaw je preprost: „Dovolite modelu, da upravlja vaš računalnik kot napreden uporabnik.“ To pomeni dostop do datotek, gesel, pogovorov v Slacku ali Teamsih, oblačnih shramb, poslovnih orodij, celo do plačilnih podatkov in VPN‑jev. Če ima takšno orodje arhitekturno napako, ki naključnemu obiskovalcu interneta omogoči, da postane skrbnik instance, ne ogrozi le ene aplikacije – dobi oddaljenega superuporabnika za celotno digitalno življenje uporabnika ali podjetja.
Kratkoročno v tej zgodbi zmagujejo napadalci in – paradoksalno – ponudniki varnostnih rešitev, ki lahko zdaj OpenClaw kažejo kot učbeniški primer, zakaj je previdnost pri AI nujna. Izgubljajo pa ekipe, ki so OpenClaw resno vključile v razvojne ali poslovne procese: zagonska podjetja, ki so agentu dala dostop do produkcijskih repozitorijev, večja podjetja, ki so ga testirala na službenih prenosnikih, ter posamezniki, ki so ga povezali z osebnimi e‑poštnimi in finančnimi računi.
Dogodek škodi tudi širši odprtokodni AI‑skupnosti. Javna percepcija hitro postane: „Tem odprtokodnim agentom ni mogoče zaupati, nevarni so po zasnovi.“ To je krivično do številnih kakovostnih projektov, vendar incidenti, kot je ta, drastično otežijo sprejem kateregakoli agenta skozi interno presojo tveganj v podjetjih.
Največji problem pa je miselnost. Preveč orodij je zasnovanih z vprašanjem „Kaj vse bi lahko naredili, če bi imeli ves dostop?“ namesto „Kakšen je absolutni minimum dostopa, ki ga res potrebujemo?“. Dokler se to ne obrne, bodo agentni AI‑sistemi ostajali idealno orodje za napadalce.
Širši kontekst
OpenClaw je del širšega premika od klepetalnih botov, ki predlagajo dejanja, k agentom, ki jih izvajajo. OpenAI, Google, številni startupi v Berlinu, Londonu in tudi regionalno v Ljubljani in Zagrebu, tekmujejo pri gradnji asistentov, ki znajo samostojno brskati, kupovati, pošiljati e‑pošto, spreminjati konfiguracije strežnikov in urejati kodo.
Zgodovina nas uči, da kadar koli programski opremi podelimo širok in trdovraten dostop – denimo orodjem za oddaljen dostop, upravljavcem gesel v brskalniku ali administrativnim vmesnikom v oblaku – postanejo glavna tarča napadalcev. Odgovor industrije je bil vedno enak: večstopenjska avtentikacija, natančno upravljanje vlog, časovno omejena dovoljenja, strojni varnostni ključi, podrobni dnevniki.
Velik del današnjih AI‑agentov te lekcije ignorira. Delujejo kot „super razširitev brskalnika v načinu bog“, brez standardiziranih soglasnih zaslonov, brez jasnih obsegov dostopa in brez enostavne možnosti preklica. Model se obnaša, kot da je uporabnik sam.
Model seznanjanja v OpenClaw je posebej zastarel. Namesto utrjenega in preglednega toka v slogu OAuth, kjer so obsegi pravic eksplicitni in preklicljivi, je stavil na enkratno zaupanje z zelo šibko preverbo avtentikacije. V kombinaciji z dejstvom, da je bil velik delež instanc, izpostavljenih na internetu, brez prijave, dobimo učbeniški primer „zasnovano za udobje, uporabljeno v sovražnem okolju“.
Podobno smo videli pri zgodnjih IoT‑napravah, ko so spletne kamere in DVR‑ji prihajali z privzetimi gesli in brez resnega posodabljanja, kar je omogočilo botnete, kot je bil Mirai. OpenClaw je na nek način IoT kamera obdobja agentnega AI – toda tokrat v okolju, kjer imajo agenti neposreden dostop do poslovnih in osebnih podatkov.
Evropski in slovenski vidik
Za evropske in slovenske uporabnike je OpenClaw skoraj učbeničen primer, kako se ne uporablja AI v kontekstu GDPR in prihajajočega Akta o umetni inteligenci.
GDPR zahteva minimizacijo podatkov in omejen namen: obdelujejo se le podatki, ki so nujni za določen cilj. Filosofija OpenClaw pa uporabnike spodbuja, naj agentu predajo čim več virov – od Telegrama do skupnih map – da bo „lahko pomagal z vsem“. Ko je tak agent kompromitiran, kršitev ni omejena na eno SaaS‑orodje, temveč pogosto zajame več sistemov, tudi osebne podatke tretjih oseb. To v primeru inšpekcij Informacijskega pooblaščenca hitro postane resen problem.
AI‑agent, ki avtonomno deluje v poslovnem okolju, bo po vsej verjetnosti spadal med rešitve z višjim tveganjem po Aktu o umetni inteligenci. Podjetja bodo morala dokazovati ustrezne tehnične in organizacijske ukrepe, redne ocene tveganj in sledljivost odločitev. To je praktično nemogoče, če osnovni odprtokodni projekt ni zasnovan z varnostjo in skladnostjo v mislih.
Za slovenska podjetja, ki šele uvajajo AI – od industrije 4.0 v Savinjski dolini do fintech startupov v Ljubljani – bo ta incident verjetno okrepil previdnost. Vodstva IT bodo pogosteje iskala evropska ali lokalna orodja z jasnimi garancijami glede hrambe podatkov v EU, preglednih revizijskih sledi in integracij z obstoječimi varnostnimi politikami.
Za slovenske razvijalce pa je sporočilo jasno: če vaš izdelek avtomatizira dejanja v imenu uporabnika, ste de facto ponudnik upravljanja identitet in dostopov – in temu primerno morate graditi arhitekturo.
Pogled naprej
Kaj sledi viziji agentnega AI po fiasku z OpenClaw?
Kratkoročno bo sledil val prepovedi v podjetjih: „Brez OpenClaw in podobnih agentov na službenih napravah.“ Varnostne ekipe bodo ob vsaki novi AI‑rešitvi, ki želi dostopati do kode, internih wiki‑jev ali komunikacijskih kanalov, zahtevale podroben arhitekturni pregled in oceno tveganj. Incidentni načrti bodo morali predvideti scenarij „kompromitiran AI‑agent“.
Razvijalci agentnih orodij bodo morali sprejeti pristope, ki so v kibernetski varnosti že standard:
- Najmanjši potrebni dostop – agent dobi ozek, časovno omejen obseg pravic, ne pa univerzalnega ključa za vse.
- Močna identiteta agenta – vsakega agenta je treba obravnavati kot samostojen servisni račun z jasno določenimi vlogami.
- Peskovniki – izvajanje v izoliranem okolju, iz katerega agent ne more nekontrolirano dostopati do OS ali omrežja.
- Sledljivost – natančni, nespremenljivi dnevniki, kaj je agent kdaj storil in na podlagi česa.
Velik igralci bodo verjetno ponudili lastne ogrodja. Microsoft in Apple imata močan interes, da v Windows in macOS vgradita varne API‑je za agente, z jasno politiko in nadzorom, namesto da naključni odprtokodni projekti skriptirajo celoten namizni sistem. Brskalniki bodo delali podobno za spletne agente.
Vprašanje je, ali se bodo današnja viralna orodja lahko dovolj hitro razvila. Projekti, rojeni v kulturi „move fast and break things“, redko čez noč postanejo kritična infrastruktura. Nekateri se bodo profesionalizirali in zares utrdili varnost, mnogi pa bodo preprosto izginili, ko postane tveganje preveliko.
Za vas kot uporabnika je varna domneva za naslednjih 12–24 mesecev preprosta: vsakega AI‑agenta, ki lahko klika, tipka in bere po vašem digitalnem življenju, obravnavajte kot potencialno notranjo grožnjo.
Spodnja črta
Ranljivost v OpenClaw ni osamljen spodrsljaj, temveč logična posledica tega, da nezanesljivemu modelu podelimo skoraj skrbniške pravice brez ustreznega varnostnega okvirja. Dokler agentna AI‑orodja ne bodo dosledno spoštovala načela najmanjšega dostopa, močne avtentikacije in upravljanja identitet, nimajo mesta na računalnikih z občutljivimi osebnimi ali poslovnimi podatki. Preden naslednjič namestite „viralnega“ AI‑agenta, se vprašajte: bi bil enako sproščen, če bi enak dostop dobil študent na praksi brez nadzora? Če ne, zakaj bi ga podelili LLM‑ju?



