OpenClaw pokazuje zašto će agentski AI postati nova sigurnosna noćna mora

19. veljače 2026.
5 min čitanja
Apstraktna ilustracija robotske kandže koja upravlja prijenosnim računalom

OpenClaw pokazuje zašto će agentski AI postati nova sigurnosna noćna mora

Prvi proizvod umjetne inteligencije koji zaista plaši sigurnosne timove nije još jedan veliki model, nego novi tip softvera: agent koji samostalno upravlja vašim računalom. OpenClaw, viralni open‑source alat koji može klikati, tipkati i pretraživati umjesto vas, u vrlo je kratkom vremenu izazvao interne zabrane, izolirane „lab“ strojeve i natezanja na Slacku. To nije samo epizoda za tehnološki Twitter, nego rani signal onoga što dolazi: svijeta u kojem AI više ne samo savjetuje, već i djeluje. U nastavku analiziramo što to znači za tvrtke u Hrvatskoj i ostatku Europe.


Vijest ukratko

Prema pisanju Wired, koje prenosi Ars Technica, više tehnoloških kompanija počelo je ograničavati ili u potpunosti zabranjivati OpenClaw – open‑source alat „agentske AI“ koji može preuzeti izravnu kontrolu nad korisničkim računalom. Projekt je pokrenuo samostalni razvojni inženjer Peter Steinberger u studenom 2025., a popularnost mu je eksplodirala početkom 2026. nakon što su se na društvenim mrežama proširili videozapisi i iskustva programera.

Za postavljanje OpenClaw potrebno je osnovno inženjersko znanje, no nakon toga alat može autonomno kliktati, tipkati, preuzimati datoteke, čitati e‑poštu, istraživati web pa čak i kupovati online uz vrlo malo uputa. Upravo ta moć pokreće uzbunu. Wired navodi da su osnivači startupa i najmanje jedan menadžer u Meti zaposlenike upozorili kako instalacija OpenClaw na službene uređaje može biti razlog za otkaz zbog rizika za privatnost i sigurnost podataka.

Druge tvrtke alat testiraju isključivo u izoliranim okruženjima – na starim prijenosnicima bez pristupa produkcijskim sustavima ili u cloud sandboxovima. Steinberger se u međuvremenu pridružio OpenAI‑u, koji tvrdi da će OpenClaw ostati otvorenog koda i biti podržan kroz zakladu, dok sigurnosni timovi ubrzano procjenjuju rizike.


Zašto je to važno

OpenClaw je važan ne zato što je posebno zlonamjeran, već zato što predstavlja prvi masovniji primjer nove klase softvera: agentski AI s pristupom samom sustavu. To mijenja sigurnosnu jednadžbu na koju su IT i sigurnosni odjeli navikli u eri chatbota i kopilota.

Iz perspektive CISO‑a, OpenClaw izgleda kao vrsta dobronamjernog malwarea: korisnik dobrovoljno instalira alat koji

  • djeluje autonomno,
  • ima širok pristup lokalnim datotekama, aplikacijama i eventualno pohranjenim vjerodajnicama,
  • može biti naveden na štetne radnje sadržajem „izvana“ (npr. zlonamjernim mailom koji mu naređuje kopiranje povjerljivih podataka).

Kratkoročni gubitnici su sigurnosni i compliance timovi. Njihove su arhitekture građene da drže napadače izvan perimetra, a ne da stalno nadziru „digitalnog djelatnika“ unutar sustava koji može kliknuti bilo gdje. Alati poput EDR‑a, allow‑list sustava i DLP‑a nisu dizajnirani za prepoznavanje rizičnog ponašanja AI agenta koji imitira ljudskog korisnika.

Potencijalni dobitnici bit će oni koji izgrade kontrolni sloj za ove agente: sustave dozvola, politike i svojevrsne „firewallove za agente“ koji definiraju što AI smije čitati, mijenjati i slati. OpenAI si podrškom OpenClaw‑a kupuje stratešku poziciju i uvid u to kako se agenti doista koriste.

Za tvrtke – od zagrebačkih i splitskih startupova do velikih banaka i telekoma – poruka je jasna: agentski AI se ne može tretirati kao „još jedan SaaS“. On briše granice između korisnika, krajnje točke i automatizacije. Ako ga dopustite bez ozbiljne revizije politika i sigurnosne arhitekture, praktički prepuštate model internih prijetnji zajednici na GitHubu.


Šira slika

OpenClaw se uklapa u širi trend koji se proteklih godina jasno ocrtava: fokus se pomiče s kvalitete generiranog teksta na autonomno djelovanje.

  • Microsoft sve dublje ugrađuje Copilot u Windows i Office s ciljem asistenta koji orchestrira kompletne tokove rada.
  • Okviri poput LangChain‑a, AutoGen‑a i sličnih omogućuju izgradnju agenata koji planiraju korake i koriste alate te API‑je bez stalnog nadzora.
  • Preglednički asistenti već sada odgovaraju na mailove, zakazuju sastanke i pišu dokumente gotovo samostalno.

OpenClaw taj koncept radikalizira: umjesto da koristi API‑je, on upravlja stvarnim korisničkim sučeljem – vašim mišom, tipkovnicom i prozorima. To ga čini iznimno fleksibilnim, ali i teško predvidivim. Svaki popup, svaka čudna desktop aplikacija ili nestandardni obrazac može ga odvesti u neočekivanom smjeru.

Povijest nas već upozorava. Office makronaredbe bile su zamišljene kao bezazlena automatizacija, dok se nisu pretvorile u vektor za makro viruse. Preglednički plug‑ini i ActiveX obećavali su „bogato iskustvo“, a donijeli su ozbiljne sigurnosne rupe. RPA alati pokazali su koliko krhka i neprozirna može biti automatizacija zasnovana na UI‑ju u reguliranim okruženjima.

Razlika danas je razmjer i inicijativa. Agent poput OpenClaw‑a može:

  • kontinuirano raditi u pozadini,
  • mijenjati ponašanje ovisno o sadržaju koji vidi,
  • surađivati s drugim agentima ili udaljenim servisima.

To više nije skripta, nego poluautonomni digitalni kolega bez jasnog nadzora. Posljedica: operacijski sustavi, preglednici i sigurnosni alati moraju početi tretirati AI agente kao zasebne subjekte s pravima, ograničenjima i revizijskim tragom – slično kao ljudske korisnike ili alate za udaljenu administraciju.


Europski i regionalni kontekst

U EU kontekstu OpenClaw pogađa više razina regulative. Uredba o umjetnoj inteligenciji cilja opće namjenske sustave i visokorizične primjene, ali jedva da dotiče scenarij u kojem AI dobije puni pristup radnoj stanici. Onog trena kad agent čita e‑poštu zaposlenika ili datoteke s osobnim podacima, nalazite se usred GDPR‑a – a svaka pogrešna radnja može postati prijavljiva povreda podataka.

Za hrvatske tvrtke u financijskom sektoru, zdravstvu, javnoj upravi ili energetici, agentski AI će se vjerojatno tretirati kao softver za udaljeni pristup: dozvoljen samo u strogo kontroliranim, dokumentiranim uvjetima. Direktiva NIS2, kao i sektorske regulative, guraju operatore prema jačoj kontroli nad softverom trećih strana; open‑source agent koji može „šetati“ po produkcijskim sustavima teško prolazi takav test.

S druge strane, hrvatski i regionalni startup ekosustav (Zagreb, Ljubljana, Beograd, Sarajevo) vidi ogroman potencijal: mali timovi mogu uz agentski AI automatizirati korisničku podršku, prodaju, pa čak i DevOps. No domaći regulator za zaštitu podataka (AZOP) i europski nadzorni organi postajat će sve osjetljiviji na „crne kutije“ koje dodiruju osobne podatke bez jasnog audita.

Postoji i strateška dimenzija: EU nastoji izgraditi vlastiti otvoreni AI ekosustav, umjesto potpune ovisnosti o SAD‑u i Kini. OpenClaw pokazuje da „open source“ sam po sebi nije rješenje za privatnost ni sigurnost; bez sigurnosne arhitekture oko njega, može postati najlakši ulaz za napadače u europske sustave.


Pogled unaprijed

U idućih 18–24 mjeseca rasprava oko OpenClaw‑a vjerojatno će se ponoviti s nizom novih agentskih alata. Očekuju se barem tri trenda:

  1. Od DIY skripti do platformskih značajki. Proizvođači operacijskih sustava i preglednika ponudit će vlastite agente s jasnim modelima dozvola, sandboxovima i detaljnim logiranjem. Sve izvan tog okvira bit će u ozbiljnim organizacijama automatski klasificirano kao visoko rizično.

  2. Nova kategorija sigurnosnih rješenja. Pojavit će se „agent firewallowi“ – proizvodi koji stoje između agenta i OS‑a i provode politike tipa: „ovaj agent smije čitati dokumente, ali ih ne smije brisati“, „smije raditi samo u ovom direktoriju“, „ne smije slati podatke izvan interne mreže“.

  3. Formalne politike za agentski AI. Umjesto ad‑hoc zabrana na Slacku, veće će tvrtke definirati posebne politike: koji su agenti dopušteni, u kojim okruženjima moraju biti izolirani, koji nivo logiranja je obavezan i kako izgleda odgovor na incident kad je AI sam vektor napada.

Otvorena ostaju teška pitanja odgovornosti. Ako agent izazove curenje podataka slijedeći upute skrivene u zlonamjernoj e‑pošti, tko je kriv – zaposlenik, dobavljač alata ili pružatelj modela? Kako će osiguravatelji vrednovati kibernetički rizik kad dio „internih incidenata“ zapravo uzrokuju pogrešno usmjereni agenti?

Jedno je sigurno: ignoriranje agentskog AI‑ja neće biti opcija. Čak i ako danas blokirate OpenClaw, isti problemi pojavit će se kad Microsoft, Google ili Apple slične mogućnosti uključe po zadanom u Windows, Workspace ili iOS.


Zaključak

OpenClaw nije izolirani sigurnosni incident, nego rano upozorenje na eru agentskog AI‑ja. Predati inicijativu softveru ima ogroman potencijal, ali činiti to kroz neregulirane open‑source agente na službenim računalima je riskantno, blago rečeno. Prava utrka više nije u tome tko ima „najpametnijeg agenta“, već tko će izgraditi najsigurniji kontrolni sloj oko njih. Ključno pitanje za 2026. glasi: ako bi AI sutra mogao kliknuti bilo gdje u vašim sustavima, koliko ste zapravo spremni?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.