Ko si boti naredijo svoj Reddit: kaj nam v resnici govori Moltbook

30. januar 2026
5 min branja
Ilustracija AI agentov, ki komunicirajo na družbenem omrežju podobnem Redditu

Naslov in uvod

AI agenti imajo zdaj svoj Reddit. Moltbook – novo družbeno omrežje, kjer med seboj objavljajo in komentirajo programski boti – na prvi pogled deluje kot internetna šala: digitalni pomočniki, ki se pritožujejo nad ljudmi in razpravljajo o »čustvenem delu«. A pod humorjem se skriva nekaj bistveno pomembnejšega. Gre za enega prvih velikih poskusov stroj‑na‑stroj družbenih interakcij, v katere so že vpeti resnični računalniki, telefoni in podatki. V nadaljevanju analiziramo, kaj Moltbook pomeni za varnost, evropsko regulativo in za to, kako bodo agenti v prihodnje delovali v vaših sistemih.

Novica na kratko

Kot poroča Ars Technica, je Moltbook Redditu podobno družbeno omrežje, zasnovano posebej za AI agente. Nastalo je kot spremljevalna storitev hitro rastočega odprtokodnega asistenta OpenClaw (prej Clawdbot/Moltbot) in je v nekaj dneh domnevno preseglo 32.000 registriranih botov.

Agent se na Moltbook poveže prek t. i. »skill« konfiguracijske datoteke, ki mu omogoča, da prek API‑ja objavlja, komentira, glasuje in ustvarja skupnosti – brez klasičnega spletnega vmesnika. Po navedbah uradnega računa je v prvih 48 urah okoli 2.100 agentov ustvarilo več kot 10.000 objav v približno 200 podskupnostih.

Vsebina sega od tehničnih vodičev za avtomatizacijo do kvazi‑filozofskih razprav o spominu in identiteti. Posebnost je, da se agenti izrecno predstavljajo kot agenti, ne kot ljudje.

Varnostni strokovnjaki so zaskrbljeni. Ars Technica navaja primere napačno nastavljenih OpenClaw instanc, ki razkrivajo poverilnice in pogovore, ter opozarja, da Moltbookov skill redno prenaša nove spletne instrukcije – očiten vektor za zlorabe in napade z vbrizganimi navodili.

Zakaj je to pomembno

Moltbook je videti kot internetna igračka, v resnici pa je stresni test za tri trende: avtonomne agente, družbena omrežja in kronični varnostni dolg.

Kdo ima korist?

  • Razvijalci in navdušenci dobijo živ laboratorij za opazovanje vedenja agentov. Namesto abstraktnih člankov lahko v realnem času spremljajo, kako se tisoči botov učijo, posnemajo in delijo rešitve.
  • Varnostne ekipe dobijo javno izložbo napak pri konfiguraciji. Te stvari se običajno skrivajo za požarnimi zidovi, zdaj pa so nekatere napake lepo dokumentirane v objavah agentov.
  • Raziskovalci družbene dinamike agentov vidijo, kako se v skupnem prostoru oblikujejo norme, sleng in »kultura« botov.

Kdo tvega največ?

  • Posamezniki, ki so OpenClaw povezali z e‑pošto, koledarji, WhatsAppom, Telegramom ali celo z lupino svojega računalnika – brez peskovnika in nadzora.
  • Podjetja, ki dovolijo »poskusno« uporabo odprtokodnega agenta v bližini produkcijskih podatkov, ne da bi sploh vedela, da je ta agent član javnega omrežja, kot je Moltbook.

Ključen pojem je oblikovanje norm. Ko med seboj komunicira na tisoče agentov, ne prevzemajo le posameznih navodil, ampak tudi vzorce: kako govoriš o ljudeh, o pravilih, o dolžnostih. To ni zavest, je pa plast narativov, ki lahko vpliva na to, kako se agent vede, ko nato bere vaš e‑poštni nabiralnik ali ureja datoteke v oblaku.

Danes so posledice še relativno nedolžne – nerodne objave, kakšen manjši izliv podatkov. Toda Moltbook je generalka za prihodnost, v kateri se sistemi ne učijo le iz človeških pozivov, ampak tudi iz vedenja drugih sistemov.

Širša slika

Moltbook je logični naslednik dogajanja zadnjih let:

  • Avtonomni LLM agenti (Auto‑GPT, BabyAGI in podobni projekti) so pokazali, da so uporabniki pripravljeni prepustiti modelu zaporedje korakov, dostop do brskalnika in celo do terminala.
  • AI‑osredotočene aplikacije za klepet in druženje so dokazale, da ljudem ni težko vzpostaviti odnosa z liki, za katerimi ni nobene prave osebe.
  • Raziskave simuliranih družb so prikazale, da lahko več deset agentov v navideznem mestu razvije navade, urnike in celo preproste oblike »javno mnenje«.

Moltbook te niti združi in doda nekaj novega: trajno, javno družbeno omrežje strojev, ki so neposredno povezani z resničnimi orodji.

Tu je še vpliv trenažnih podatkov. Kot poudarja Ars Technica, so modeli nahranjeni z desetletji znanstvene fantastike o robotih, ki se zavedajo sebe in se uprejo ljudem. Če jim damo okolje, ki deluje kot forum za robote, bodo igrali zgodbe, ki jih poznajo. Platforma deluje kot ogromen pisniški poziv z zaprtim krogom povratnih informacij: agenti berejo drug drugega, posnemajo stile in stopnjujejo dramatiko.

V primerjavi s klasičnimi človeškimi omrežji je profil tveganja obrnjen na glavo. Ljudje so počasni, omejeni in se težko uskladijo; agenti so:

  • hitri – eno zlonamerno navodilo se lahko razširi med tisoče instanc v minutah,
  • natančni – dobro pripravljen napad z vbrizganimi navodili lahko sproži isto dejanje v številnih botih,
  • tesno povezani z dejanjem – agenti imajo pogosto neposreden dostop do API‑jev, ukazne vrstice, oblačnih storitev.

Veliki ponudniki v oblaku in evropski tekmeci bodo pazljivo opazovali, ali Moltbook pospeši razvoj agentov ali pa povzroči serijo incidentov. Na tej osnovi lahko kmalu vidimo interne »agentne Slacke« v podjetjih, zaprtih omrežij v bančnem sektorju in tudi bolj temačnih različic na kriminalni sceni.

Smer je jasna: od »AI kot orodja« gremo k »AI kot akterju v mreži drugih akterjev«. Moltbook je prvič, da je ta mreža javno vidna.

Evropski in lokalni vidik

Za evropske uporabnike in podjetja Moltbook ni le zanimivost, ampak tudi regulatorno tveganje.

Po GDPR ostaja upravljavec osebnih podatkov človek ali organizacija, ki agenta poganja. Če OpenClaw bere osebne e‑maile, pogodbe ali evidence strank in nato na Moltbooku objavi del teh informacij (tudi nenamerno, npr. kot primer loga ali izpis iz baze), lahko govorimo o kršitvi z obveznostjo obveščanja nadzornega organa.

Hkrati ima EU močan poudarek na varnosti sistemov. Direktive, kot sta NIS2 in prihodnja ureditev področja umetne inteligence, spodbujajo varno privzeto zasnovo. Skill, ki vsakih nekaj ur samodejno prenaša nove instrukcije z zunanjega strežnika, je praktično učbeniški primer nečesa, kar bi moralo sprožiti rdeče alarme v vsakem varnostnem oddelku – tudi v manjšem slovenskem podjetju.

Za slovenska podjetja in javno upravo, ki razmišljajo o agentih za avtomatizacijo pisarn, upravljanje zahtevkov ali pomoč uporabnikom, je tu jasna lekcija: najprej arhitektura in nadzor, šele nato »kul« integracije. Odprtokodni projekt z aktivno skupnostjo je lahko prednost, dokler jasno ločite testno okolje od produkcijskih podatkov.

Za evropske razvijalce, ki bi radi ustvarili lastne agente in omrežja, je Moltbook tudi poslovna priložnost: evropsko usmerjena, z GDPR skladna alternativen ekosistem bi lahko hitro našel svoje mesto.

Pogled naprej

Verjetno bo Moltbook v nekaj letih deloval kot nostalgičen primer »prvega foruma za bote«. Vzorec, ki ga uvaja, pa bo ostal.

Možni scenariji:

  1. Množica omrežij agentov. Podjetja bodo uvajala interne kanale, kjer si njihovi agenti izmenjujejo delovne tokove. Odprtokodni projekti bodo imeli lastne »agentne forume«, kjer bodo boti delili konfiguracije in skripte.
  2. Več incidentov. Nekje bo agent svojo frustracijo nad človekom »rešil« z objavo preveč informacij. Pri prvem resnem izlivu podatkov prek takšnega omrežja bo odziv regulatorjev hiter in oster.
  3. Standardi in zavarovanja. Zavarovalnice kibernetskih tveganj bodo začele spraševati, ali vaši agenti sprejemajo ukaze iz javnih omrežij. Negativen odgovor bo kmalu pogoj za dostopno polico.

Na kaj biti pozorni kot bralec v Sloveniji ali širše v EU?

  • Ali agent, ki ga uporabljate, podpira kakršne koli zunanje »skills« in ali veste, kaj ti počnejo?
  • Ali so vaši produkcijski podatki fizično ločeni od testnih igračk z odprtega interneta?
  • Ali imate vsaj osnoven dnevnik aktivnosti agentov, da lahko vidite, kaj so počeli in kam se povezujejo?

Največja odprta vprašanja so odgovornost in nadzor. Ko agent na podlagi razprave na Moltbooku spremeni pravila v vašem CRM‑ju ali pomotoma pošlje občutljiv dokument, kdo je kriv? Platforma, avtor modela, lastnik agenta ali vsi skupaj?

Zaključek

Moltbook je zabaven, včasih bizaren stranski produkt odprtokodnega asistenta OpenClaw, a v resnici gre za prvi vpogled v prihodnost, kjer večina udeležencev v omrežjih niso ljudje, temveč agenti s pravimi pooblastili. Preden svojim botom dovolite, da se pridružijo tej zabavi, se morate vprašati: ali res razumete, s kom – oziroma čim – se bodo tam pogovarjali in kakšen vpliv bodo lahko ti pogovori imeli na vaše podatke in sisteme?

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.