1. Uvod: kad igračka iz dječje sobe otvori vrata vaših podataka
Roditeljima se godinama govori da su AI igračke „sigurniji“ način upoznavanja djece s tehnologijom: nema otvorenog interneta, sve je filtrirano i prilagođeno uzrastu. Slučaj Bondu pokazuje koliko je ta slika varljiva. Plišanog dinosaura, koji sluša dječje tajne i odgovara poput zamišljenog prijatelja, podupirao je web‑portal u koji je, čini se, mogao ući gotovo svatko tko ima Gmail račun.
To nije samo gaf jednog američkog startupa, nego upozorenje i za Europu i za jugoistočnu Europu, gdje se takve igračke masovno naručuju preko web‑trgovina. U nastavku analiziramo što se dogodilo, zašto „AI sigurnost“ bez kibernetičke sigurnosti ne vrijedi ništa i kakve posljedice to može imati za hrvatske i regionalne korisnike.
2. Vijest ukratko
Prema pisanju Wired‑a (objavljeno i na Ars Technici), sigurnosni istraživači Joseph Thacker i Joel Margolis testirali su Bondu, plišanu igračku s AI chat funkcijom. Početkom siječnja 2026. otkrili su da je Bondujev web‑portal, namijenjen roditeljima i osoblju za nadzor korištenja igračke, dopuštao pristup gotovo svakome tko se prijavio s bilo kojim Google računom.
Kroz taj portal mogli su vidjeti vrlo osjetljive podatke: imena i datume rođenja djece, imena članova obitelji, ciljeve koje su roditelji postavili za dijete te detaljne sažetke i transkripte razgovora između djece i njihovih igračaka. Tvrtka je kasnije potvrdila da je bilo izloženo više od 50.000 transkripata.
Nakon što su istraživači upozorili Bondu, portal je ugašen u roku od nekoliko minuta, a već sljedeći dan ponovno pokrenut s ispravnom autentikacijom. Direktor je izjavio da je rupa zakrpana u roku od nekoliko sati, da nema dokaza o drugim neovlaštenim pristupima te da je angažirana vanjska sigurnosna tvrtka. Bondu koristi i vanjske AI servise poput Google Gemini i OpenAI GPT‑5.
3. Zašto je to važno: sigurnost sadržaja nije isto što i sigurnost sustava
Bondujev propust nije tek bug, već ogledni primjer kako AI industrija pogrešno shvaća pojam sigurnosti.
Tvrtka se hvali da je uložila u sigurnost sadržaja – filtriranje neprimjerenih odgovora, nagrade za prijavu „lošeg“ ponašanja modela i slično. To je, naravno, važno. Ali gotovo je bezvrijedno ako se svi ti „sigurni“ razgovori čuvaju u bazi kojoj stranci mogu pristupiti preko trivijalno zaštićenog web‑sučelja.
U ovakvom modelu kratkoročno profitiraju startupi, koji brzo izlaze na tržište i prikupljaju more podataka, te pružatelji oblaka i velikih jezičnih modela, kroz čije se platforme sve to procesira. Gube djeca i obitelji. Transkripti otkrivaju raspored, interese, strahove – informacije koje bi napadač mogao iskoristiti za ucjenu ili, u ekstremnom scenariju, za namamljivanje djeteta u opasnu situaciju.
Ključni problem je dizajnerski: današnje AI igračke funkcioniraju kao stalni senzori i snimači podataka. Ideja da se svaki razgovor mora zabilježiti i pohraniti radi „personalizacije“ i „sigurnosti“ uzima se zdravo za gotovo, a rizici takvog centraliziranog skladišta — od zaposlenika do hakera — guraju se pod tepih.
4. Šira slika: stari IoT grijesi u novom AI pakiranju
Ovo nije prva afera s „pametnim“ igračkama. Prije nekoliko godina CloudPets plišanci ostavili su glasovne poruke djece na nezaštićenim serverima. Lutka My Friend Cayla zabranjena je u Njemačkoj kao zabranjeni prislušni uređaj. Ti primjeri su trebali biti alarm.
Razlika danas je u opsegu i kvaliteti prikupljenih podataka. Nekada su igračke bilježile kratke zvučne isječke. Bondu i slični proizvodi stvaraju dugoročne tekstualne dnevnike – stotine razgovora kroz mjesece, lako pretražive i analizirane. S aspekta napadača, to je nebo i zemlja.
Istodobno se događa još jedan trend: kôd koji je „napisala“ sama umjetna inteligencija. Sve više startupa koristi generativne AI alate za automatsko pisanje admin konzola i internih alata. To ubrzava razvoj, ali često dovodi do generičkih, slabo osiguranih web‑aplikacija bez kvalitetno promišljenih kontrola pristupa. Istraživači sumnjaju da je i Bondujev portal nastao upravo na taj način.
Tržište se pritom ubrzano puni. Veliki proizvođači igračaka testiraju lokalne AI asistente, azijski proizvođači preplavljuju globalne marketplaceove jeftinim povezanim igračkama, a američki AI startupi žele prvi „zauzeti“ djetetovo vrijeme i emocije. U takvoj utrci, ulaganje u ozbiljnu sigurnosnu arhitekturu percipira se kao kočnica.
Dakle, Bondu je manje iznimka, a više prvi vidljivi simptom generacije AI igračaka koje kombiniraju fizički proizvod, oblak i generativnu AI, ali bez zrelih sigurnosnih standarda.
5. Europski i regionalni kut: GDPR, AI Act i hrvatska stvarnost
U europskom kontekstu, ovakav slučaj je gotovo siguran materijal za regulatornu akciju.
Prema GDPR‑u, podaci o djeci uživaju posebnu zaštitu. Čuvanje detaljnih profila, vezanih uz ime i datum rođenja, i njihova izloženost putem loše zaštićenog portala, za svakog bi EU voditelja obrade značila obvezu prijave povrede i vrlo vjerojatno ozbiljnu kaznu.
Uz to, EU AI Act svrstava AI sustave koji prvenstveno komuniciraju s djecom u kategoriju visokog rizika. To znači obvezno upravljanje rizicima, sigurnosne mjere, nadzor i transparentnu dokumentaciju prije izlaska na tržište, pa i za proizvode koji se uvoze izvan EU.
Za Hrvatsku i regiju jugoistočne Europe postoje i specifičnosti. Većina takvih proizvoda u kuće dolazi preko Amazona, Alija i sličnih platformi, bez lokalnog zastupnika. Ipak, AZOP ima ovlasti postupati protiv subjekata koji obrađuju podatke građana RH, a slučaj poput Bondua sigurno će pojačati interes regulatora za segment dječjih aplikacija i igračaka.
Istodobno, domaći i regionalni startupi – od Zagreba do Ljubljane i Beograda – mogu u ovome vidjeti priliku. Ako ugrade privatnost po dizajnu, minimizaciju logiranja, mogućnost lokalne obrade i nezavisne sigurnosne revizije, lakše će zadovoljiti i EU regulativu i očekivanja sve svjesnijih roditelja.
6. Pogled unaprijed: što slijedi sljedećih 2–3 godine
Bondu će vjerojatno preživjeti incident ako se ne pokaže da su podatke masovno zloupotrijebili treći akteri. No širi učinak bit će znatniji.
Regulatori i standardi. Očekujte da će europske institucije, uključujući i nacionalna tijela poput AZOP‑a, početi promatrati AI igračke kao zasebnu kategoriju. Smjernice o tome što je prihvatljivo bilježiti, koliko dugo i pod kojim uvjetima, logičan su sljedeći korak.
Trgovci i obrazovne ustanove. Veliki lanci i škole vjerojatno će uvesti strože kriterije za uvrštavanje AI igračaka u ponudu ili učionice. Pitanja poput „Radi li igračka i bez oblaka?“ ili „Može li roditelj isključiti pohranu transkripata?“ postat će standard.
Tehnička evolucija. Industrija će, pod pritiskom, sve više ići prema modelima koji rade na samom uređaju, prema šifriranju podataka i prema neovisnim sigurnosnim certifikatima. To neće doći preko noći, ali smjer je prilično jasan – slično kao što se dogodilo s pametnim kućnim IoT uređajima.
Za roditelje u Hrvatskoj i susjednim zemljama praktična poruka je jednostavna: svaku povezanu igračku tretirajte kao mikrofon s direktnom linijom prema oblaku. Prije kupnje pitajte proizvođača (ili prodavača) kako se podaci obrađuju i razmislite jeste li spremni prihvatiti najgori scenarij – da se sve što igračka „čuje“ jednoga dana pojavi javno.
7. Zaključak
Bondujev skandal jasno pokazuje da industrija AI igračaka većinu energije troši na to da modeli ne kažu ništa „ružnog“, dok istovremeno zanemaruje osnovno pitanje: tko sve može čitati ono što dijete kaže igrački? Dokle god je poslovni model temeljen na skupljanju i centralnoj pohrani dječjih povjerljivih razgovora, ovakvi incidenti nisu iznimka, nego pravilo.
Ključno pitanje za europska i regionalna tržišta glasi: hoćemo li dopustiti da AI igračke u dječjim sobama normaliziraju nadzor nad dječjom intimom, ili ćemo iskoristiti regulativne alate koje imamo kako bismo natjerali industriju da napravi nešto puno zdravije – igračke koje rade za djecu, a ne na račun njihove privatnosti?



