1. Uvod: ko otroška igrača postane vdor v zasebnost
Staršem se že nekaj let prodaja ideja, da so AI igrače »varnejša« alternativa odprtemu spletu: skrbno moderirane, prilagojene otrokom, brez nevarnih vsebin. Primer Bondu pa pokaže, kako prazna je ta obljuba, če je kibernetska varnost obravnavana kot podrobnost. Plišasti dinozaver, ki posluša otroške skrivnosti, je bil podprt z administrativno konzolo, v katero je lahko skoraj vsak vstopil samo z Gmail računom.
To ni le zdrs enega ameriškega startupa, temveč opozorilo tudi za evropske in slovenske razvijalce, ki razmišljajo o AI igračah. V nadaljevanju analiziramo, kaj se je zgodilo, zakaj »AI varnost« brez varovanja podatkov ne pomeni nič, in kako bodo na to gledali evropski regulatorji.
2. Novica na kratko
Kot poroča Wired (prek Ars Technice), sta varnostna raziskovalca Joseph Thacker in Joel Margolis preverila Bondu, plišasto dinozavrsko igračo z vgrajenim AI klepetom. V začetku januarja 2026 sta odkrila, da je bil Bondujev spletni portal, namenjen staršem in zaposlenim za spremljanje uporabe, dostopen skoraj vsakomur, ki se je prijavil z naključnim Google računom.
V konzoli sta našla zelo občutljive podatke: imena in rojstne datume otrok, podatke o družinskih članih, cilje, ki so jih vnesli starši, ter povzetke in prepise pogovorov med otroki in njihovimi igračami. Podjetje je kasneje potrdilo, da je bilo izpostavljenih več kot 50.000 prepisov pogovorov.
Po obvestilu raziskovalcev je Bondu portal v nekaj minutah ugasnil in ga naslednji dan ponovno vzpostavil z ustreznim preverjanjem identitete. Direktor je sporočil, da so popravke izvedli v nekaj urah, da niso našli dokazov o drugih zlorabah in da so najeli zunanjo varnostno podjetje. Bondu za odgovore uporablja zunanje AI storitve (Google Gemini in OpenAI GPT‑5).
3. Zakaj je to pomembno: varnost vsebin brez varnosti sistema je iluzija
Bondujev spodrsljaj ni le hrošč, temveč šolski primer napačnega razumevanja tveganj v industriji AI igrač.
Podjetje je očitno vlagalo v vsebinsko varnost. Na spletni strani poudarja, da ponuja nagrado za vsak primer neprimernega odgovora igrače – in da se to do zdaj še ni zgodilo. Z vidika filtriranja vsebin je to pohvalno, a skoraj brez pomena, če lahko nepooblaščeni uporabnik bere celotno zgodovino sijajno »varnih« pogovorov nekega otroka.
Kdo ima korist od take zasnove? Kratkoročno hitri startupi: lahko hitro lansirajo produkt, zberejo impresivne količine podatkov o vedenju uporabnikov in navdušijo vlagatelje. Tudi veliki ponudniki oblačnih AI storitev profitirajo, saj skozi njihove sisteme tečejo ogromne količine pogovorov.
Izgubljajo pa otroci in starši. Prepisi teh pogovorov razkrivajo navade, strahove, želje – idealno izhodišče za izsiljevanje, spletno zlorabo ali manipulacijo. Ni treba razmišljati o elitnih hekerjih; dovolj je en slabo zaščiten interno uporabljen račun, pa je celotna baza na široko odprta.
Bistvo problema je, da so AI igrače po zasnovi nadzorni aparati. Neprekinjeno zbiranje podatkov je predstavljeno kot nujno za personalizacijo in varnostne filtre, nato pa se vse skupaj hrani v centralnih sistemih z nejasnimi pravili dostopa. Bondu je pokazal, kako tanko je to varovalo, kadar kultura v podjetju temelji na načelu »najprej izdaj, potem utrjuj«.
4. Širša slika: zgodovina se ponavlja, le modeli so večji
To ni prva afera s »pametnimi« igračami. Pred leti so bile izpostavljene CloudPets, plišaste živali, katerih glasovni posnetki otrok so bili dostopni na nezaščitenih strežnikih. Lutka My Friend Cayla je v Nemčiji končala kot prepovedana vohunska oprema. Ti primeri bi naj bili lekcija.
Danes pa je situacija drugačna po obsegu in globini podatkov. Starejše igrače so zajele kratke zvočne izseke. AI igrače, kot je Bondu, ustvarjajo dolgoročne psihološke profile: na desetine ali stotine pogovorov v letih, vse lepo preiskovalno besedilno zapisano. To je za napadalce precej bolj dragoceno od nekaj kratkih posnetkov.
Bondu se ujema tudi z drugo tendenco: “vibe‑kodirano” ozadje. Številni startupi uporabljajo generativne AI pomočnike za pisanje administrativnih orodij in spletnih konzol. Razvoj je hitrejši, a rezultati pogosto pomenijo generičen, varnostno površen kôd. Raziskovalca sumita, da je bila tudi Bondujeva konzola ustvarjena na ta način – kar dobro sovpada z opažanji pri varnostnih pregledih mladih AI podjetij: lep videz, a brez osnovnih mehanizmov avtorizacije.
Medtem se trg hitro polni. Veliki proizvajalci igrač raziskujejo lokalne ali hibridne AI spremljevalce. Poceni povezane igrače iz Azije preplavljajo globalne spletne tržnice. Ameriški AI startupi pa se borijo, kdo bo prvi ujel pozornost otrok in jo zaklenil v lastni ekosistem. V takšni bitki je skušnjava velika: dodajaj funkcije, ne ustavljaj se pri resnem premisleku o grožnjah.
Skupaj to pomeni, da Bondu ni »črna ovca«, ampak zgodnji simptom nove, slabo regulirane kategorije: stalno povezanih, podatkovno požrešnih spremljevalcev za otroke.
5. Evropski in slovenski vidik: GDPR proti govorečemu dinozavru
V evropskem kontekstu Bondujev primer ni le medijski škandal, temveč skoraj učbeničen primer za regulatorje.
Po GDPR so podatki o otrocih posebej zaščiteni. Hranjenje podrobnih vedenjskih profilov, povezanih z imenom in rojstnim datumom, ter njihova izpostavitev prek slabo zavarovanega portala bi za upravljavca v EU skoraj zanesljivo pomenila prijavo kršitve nadzornemu organu in najbrž visoko kazen.
Na poti je tudi Akt EU o umetni inteligenci, ki sisteme, namenjene interakciji z otroki, uvršča med visokorizične. To pomeni obvezno upravljanje tveganj, varnost, spremljanje dogodkov in jasno upravljanje podatkov še pred vstopom na trg. AI igrača, ki bi jo hoteli prodajati v EU, bo morala te zahteve izpolniti.
Za Slovenijo to ni abstraktna tema. Starši naročajo igrače prek globalnih spletnih trgovin, podatki pa pogosto pristanejo na strežnikih v ZDA ali drugje. Informacijski pooblaščenec se že zdaj zanima za pametne igrače in otroške aplikacije; primer, kot je Bondu, bo dodatno zaostril vprašanja, ki jih bodo dobivala podjetja iz ljubljanskega startup ekosistema, če bodo ciljala trg otrok.
A tu je tudi priložnost: slovenska ali regionalna podjetja, ki bodo zgodaj vgradila načelo zasebnost po zasnovi (lokalna obdelava, minimalno beleženje, stroga kontrola dostopa), se lahko razlikujejo od ameriške konkurence in lažje prestanejo evropske postopke certificiranja.
6. Pogled naprej: kaj pričakovati v naslednjih letih
Bondu bo verjetno preživel, če se ne pokažejo večje zlorabe. Spomin potrošnikov je kratek. Bolj zanimivo je, kako bo incident vplival na naslednje valove AI igrač.
1. Regulatorji. Evropski nadzorni organi za varstvo podatkov in tržni inšpektorati bodo AI igrače začeli obravnavati kot samostojno kategorijo. Možno je, da bo prvi odmevnejši primer izvajanja AI Akta prav na področju otroških izdelkov, kjer je politično tveganje zanemarjanja varnosti največje.
2. Trgovci in šole. Velike verige trgovin in izobraževalne ustanove bodo zaostrile pogoje. Če bo podjetje želelo AI igračo postaviti na polico v velikem evropskem trgovcu, se bo moralo pripraviti na podrobna vprašanja o hrambi podatkov, pogodbah s tretjimi ponudniki AI in možnosti uporabe brez oblaka.
3. Tehnični standardi. Tako kot se je IoT postopoma premaknil k minimalnim varnostnim standardom, bodo tudi AI igrače prisiljene v premik k lokalni obdelavi, šifriranju in zunanjim varnostnim pregledom. To ne bo hitro, a smer je jasna.
Za starše v Sloveniji in širši regiji pa ostane preprosto pravilo: vsaka povezana igrača je tudi zbiralnik podatkov. Pred nakupom se vprašajte: ali otrok to napravo res potrebuje priklopljeno na oblak? In ali bi vam bilo še vedno udobno, če bi bil celoten dnevnik pogovorov jutri javen?
7. Bistvo
Bondu ni le osamljen spodrsljaj, temveč simptom industrije, ki raje govori o prijaznih in »varnih« AI odgovorih kot o osnovni varnosti infrastrukture. Če bomo AI spremljevalce spuščali v otroške sobe, moramo od razvijalcev zahtevati precej več kot le dobre filtre vsebin.
Vprašanje je preprosto: ali bomo sprejeli logiko, da otroška intima pripada oblaku, ali bomo od igrač zahtevali, da delujejo za otroke, ne pa na račun njihove zasebnosti?



