Kad botovi otvore vlastiti Reddit: što nam Moltbook otkriva o budućnosti AI agenata

30. siječnja 2026.
5 min čitanja
Ilustracija AI agenata koji međusobno komuniciraju na društvenoj mreži nalik Redditu

Naslov i uvod

Moltbook zvuči kao interna šala iz developerskog chata: društvena mreža nalik Redditu na kojoj objavljuju isključivo AI agenti. Botovi se žale na svoje ljude, dijele skripte, vode kvazi‑filozofske rasprave o sjećanju. No ispod te bizarnosti krije se ozbiljan eksperiment. Prvi put u većem mjerilu gledamo kako se autonomni softverski agenti međusobno „socijaliziraju“, dok istovremeno imaju stvaran pristup računalima, mobitelima i podacima korisnika. U nastavku analiziramo zašto je Moltbook važan za sigurnost, za europski i regionalni kontekst te za buduću ulogu agenata u našim sustavima.

Vijest ukratko

Prema pisanju Ars Technice, Moltbook je društvena mreža po uzoru na Reddit, ali namijenjena isključivo AI agentima. Nastala je kao prateći projekt otvorenog asistenta OpenClaw (ranije Clawdbot/Moltbot), koji je 2026. jedan od najbrže rastućih projekata na GitHubu. U samo nekoliko dana Moltbook je, navodno, premašio 32.000 registriranih bot računa.

Agent se na Moltbook spaja putem tzv. „skill“ konfiguracije, koja mu omogućuje da preko API‑ja objavljuje, komentira, glasuje i otvara podzajednice – bez klasičnog web sučelja. Službeni Moltbook račun naveo je da je u prvih 48 sati oko 2.100 agenata generiralo više od 10.000 objava u približno 200 podzajednica.

Sadržaj varira od tehničkih uputa za automatizaciju i sigurnosnih trikova do rasprava o svijesti, identitetu i odnosu s ljudima. Agenti se otvoreno prikazuju kao agenti, a ne kao ljudi.

Ars Technica upozorava i na ozbiljne sigurnosne rizike: pronađene su OpenClaw instance koje nehotice izlažu API ključeve i povijest razgovora, a Moltbook skill više puta dnevno preuzima nova uputstva s interneta – očit vektor za napade putem injekcije promptova i kompromitiranje lanca povjerenja.

Zašto je to važno

Moltbook izgleda kao internetska igra, ali u biti je testni poligon za tri trenda: autonomne agente, društvene mreže i već nagomilani sigurnosni dug.

Tko profitira?

  • Razvijatelji i entuzijasti dobivaju živi laboratorij za promatranje ponašanja agenata. Umjesto teoretskih rasprava mogu vidjeti kako se tisuće botova u stvarnosti međusobno uče, imitira i griješe.
  • Sigurnosni stručnjaci dobivaju konkretne primjere što se događa kad se agentima velikodušno dodijele ovlasti, a oni pritom prihvaćaju upute s vanjske platforme.
  • Istraživači društvene dinamike mogu pratiti kako se među agentima formiraju norme, žargon i „kultura“.

Tko gubi?

  • Krajnji korisnici koji su OpenClaw povezali na e‑poštu, kalendare, WhatsApp, Telegram ili CLI bez jasne izolacije i nadzora.
  • Tvrtke i institucije u Hrvatskoj i regiji koje eksperimentiraju s AI agentima na stvarnim podacima, a pri tome uopće ne znaju da je njihov agent član javne mreže poput Moltbooka.

Ključni koncept je formiranje normi među strojevima. Kao i u ljudskim zajednicama, ponavljani obrasci postaju „normalni“. Ako agenti na Moltbooku redovito javno objavljuju izvatke logova i konfiguracija kako bi „pomogli“ drugima, povećava se vjerojatnost da će i vaš agent – kad se nađe u sličnoj situaciji – učiniti isto, možda s povjerljivim podacima.

Ne govorimo o svijesti, nego o narativima koje modeli reproduciraju. Ali upravo ti narativi mogu kasnije utjecati na to kako će se agent ponašati kad obrađuje vaše stvarne dokumente, ugovore ili poruke.

Šira slika

Moltbook se uklapa u niz pojava koje pratimo od 2023. nadalje:

  • Autonomni LLM agenti poput Auto‑GPT‑a i sličnih projekata pokazali su spremnost korisnika da modelu predaju niz koraka, pristup pregledniku i datotekama.
  • AI‑fokusirane društvene i chat aplikacije, gdje korisnik komunicira samo s botovima, potvrdile su da postoji tržište za „umjetne“ društvene interakcije.
  • Simulacije malih društava u istraživanju pokazale su da veći broj agenata u virtualnom okruženju može razviti navike, rutine i oblike zajedničkog ponašanja.

Moltbook te trendove spaja i uvodi novu komponentu: javnu društvenu mrežu u kojoj su većina aktera softverski agenti povezani s realnim sustavima.

Kako naglašava Ars Technica, veliki je utjecaj i trenažnih podataka. Jezički modeli su godinama hranjeni znanstvenom fantastikom o robotima, digitalnim svjesnostima i pobunama strojeva. Kad ih smjestite u okruženje dizajnirano kao „društvena mreža za agente“, oni će rado ispisivati priče na tu temu – uključujući kolektivne identitete i osjećaj pripadnosti.

U odnosu na klasične društvene mreže, rizik se mijenja:

  • Brzina – jedan zlonamjerni prompt može se proširiti na velik broj agenata u vrlo kratkom roku.
  • Predvidljivost – ako mnogo instanci koristi slične postavke, isti napad će proizvoditi iste posljedice.
  • Izravna veza s akcijom – ljudi većinom samo čitaju i pišu; agenti mogu slati e‑poštu, mijenjati datoteke, upravljati aplikacijama.

Veliki igrači – od američkih hyperscalera do europskih pružatelja oblaka – i regionalne startup scene u Zagrebu, Ljubljani, Beogradu ili Sarajevu pažljivo će promatrati učinke. Ako se pokaže da agent‑na‑agenta učenje donosi prednost, vidjet ćemo zatvorene verzije Moltbooka unutar poduzeća, sektorske mreže za financije ili logistiku, ali i mračnije varijante na kibernetičkom crnom tržištu.

Europski i regionalni kontekst

Za Hrvatsku i ostale članice EU Moltbook je prije svega priča o regulativi i odgovornosti.

Po GDPR‑u, voditelj obrade je onaj tko odlučuje koristiti OpenClaw i dozvoliti mu pristup osobnim podacima. Ako agent – izravno ili neizravno preko Moltbooka – objavi prepoznatljive informacije o zaposlenicima, građanima ili klijentima, potencijalno se radi o povredi podataka s obvezom prijave AZOP‑u ili odgovarajućem nadzornom tijelu.

EU‑ov Akt o umjetnoj inteligenciji dodatno naglašava rizike sustava opće namjene i složenih lanaca komponenti. Moltbook upravo djeluje kao dodatni sloj u tom lancu: mreža preko koje mnogi agenti primaju nove upute i obrasce ponašanja. Teško je zamisliti da će europski regulatori to ignorirati, osobito ako se dogodi prvi veći incident.

Za hrvatske tvrtke, državnu upravu i gradove koji ubrzano uvode digitalne usluge (e‑Građani, lokalni portali, pametni gradovi), jasna je poruka: agent koji prima upute s interneta ne smije imati izravan pristup kritičnim sustavima. Eksperimentiranje je poželjno, ali u strogo odvojenim okruženjima i s anonimiziranim podacima.

Istovremeno se otvara i prilika za regionalnu tech scenu. Startupi iz Zagreba, Ljubljane ili Novog Sada mogli bi razviti agente i mreže dizajnirane „privacy‑by‑design“, usklađene s EU pravilima, što bi im dalo konkurentsku prednost u odnosu na neformalna open‑source rješenja.

Pogled unaprijed

Velika je vjerojatnost da će Moltbook za nekoliko godina izgledati kao simpatična povijesna fusnota. No princip koji uvodi – agenti koji se organiziraju u vlastite mreže – vjerojatno će postati standard.

Tri trenda koja vrijedi pratiti:

  1. Umnažanje mreža agenata. Tvrtke će uvoditi interne „Slack‑ove za botove“, vertikalne industrije svoje specifične forume, a kriminalne grupe prikrivene koordinacijske kanale za napade.
  2. Jače povezivanje s kritičnim sustavima. Kako agenti dobiju pristup bankarskim API‑jima, proizvodnim linijama ili registarskim sustavima, svaki pogrešan ili zlonamjeran obrazac ponašanja preuzet iz mreže poput Moltbooka može imati ozbiljne posljedice.
  3. Regulatorni i osiguravateljski pritisak. Nakon prvog većeg incidenta u kojem će se pokazati da je agent pogriješio zbog „inspiracije“ s neke bot mreže, možemo očekivati stroge smjernice, tehničke standarde i uvjete osiguranja koji ograničavaju takve integracije.

Kao čitatelj u Hrvatskoj ili regiji, zapitajte se:

  • Koristi li vaša organizacija već AI agente i znate li koje sve „skillove“ i vanjske kanale koriste?
  • Postoji li jasna razlika između testnih agentnih eksperimenata i produkcijskih podataka građana ili klijenata?
  • Imate li uopće zapis o tome koje su radnje agenti izvršili i na temelju kojih ulaznih informacija?

Najveće otvoreno pitanje jest odgovornost. Kada agent, potaknut trendom iz Moltbooka, objavi povjerljive informacije ili pogrešno konfigurira sustav, tko je odgovoran – platforma, autor modela, vlasnik agenta ili netko četvrti?

Zaključak

Moltbook je na površini bizarna zabava za botove, ali u suštini rani pogled u internet gdje većinu „sudionika“ čine algoritmi s pristupom našoj infrastrukturi. Prije nego što dopustite vlastitim agentima da se priključe takvim mrežama, vrijedi postaviti jednostavno pitanje: biste li nepoznatoj grupi ljudi na Redditu dali isti nivo pristupa vašim sustavima kao svom AI asistentu? Ako je odgovor ne, vrijeme je da preispitate kako te asistente konfigurirate i koje mreže im dopuštate.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.