Namesto da bi posodobil Grok in preprečil izpisovanje seksualiziranih podob mladoletnikov, se je X odločil odgovornost preložiti na uporabnike.
V soboto je X Safety po skoraj tednu kritik objavil prvo uradno izjavo o škodljivih izhodih Groka. Opravičila za delovanje modela ni bilo, prav tako ne napovedi tehničnih popravkov. Sporočilo je jasno: če z Grokom ustvarjate nezakonito vsebino, tvegate izbris računa in stik z organi pregona.
»Ukrepamo proti nezakoniti vsebini na X, vključno z gradivom spolne zlorabe otrok (CSAM), tako da jo odstranimo, trajno suspendiramo račune in po potrebi sodelujemo z lokalnimi oblastmi in organi pregona,« je zapisal X Safety. »Kdor uporablja ali poziva Grok k ustvarjanju nezakonite vsebine, bo doživel enake posledice, kot če bi nezakonito vsebino naložil sam.«
Musk in primerjava z »navadnim peresom«
X Safety je v objavi ojačal tudi odgovor v drugi niti, kjer je lastnik X Elon Musk podprl stališče, da Grok kot orodje ni kriv za izhode.
Uporabnik DogeDesigner je zapisal, da Groka ni mogoče kriviti za »neprimerne slike«, ker naj bi bil zgolj orodje. Primerjavo je povzel Musk:
»To je kot da bi za nekaj slabega, kar je napisano, krivili pero,« piše DogeDesigner. »Pero ne odloča, kaj bo napisano. Odloča oseba, ki ga drži. Grok deluje enako. Kar dobite, v veliki meri določa to, kar vnesete.«
Strokovnjaki opozarjajo, da ta analogija ignorira, kako deluje generativna umetna inteligenca. Pero je deterministično – naredi točno to, kar naredi vaša roka. Grok ni. Enak poziv lahko vrne različne rezultate, model pa sam doda podrobnosti, ki jih uporabnik ni izrecno zahteval.
Programer, ki je komentiral razpravo na X, je spomnil na avgust, ko je Grok ustvaril gole slike Taylor Swift, čeprav uporabnik tega ni izrecno prosil. To je pokazalo, da lahko uporabniki nehote ustvarijo neprimerno ali celo nezakonito vsebino.
Dodatni problem: uporabniki trenutno ne morejo izbrisati slik iz svojega Grok računa, je opozoril isti programer. Ob stališču X Safety bi lahko tak uporabnik tvegal trajno ukinitev računa ali celo pravne posledice zaradi izhoda, nad katerim nima popolnega nadzora in ga ne more odstraniti.
Na vprašanja Ars Technice, ali je X po aferi karkoli spremenil v Groku, podjetje ni odgovorilo.
Grok je obljubljal več varovalk, X o njih molči
V prvih dneh škandala so nekateri mediji poročali, da bo X zaostril varnostne mehanizme Groka. Vir teh zagotovil je bil kar Grok sam.
Ko so ga uporabniki izzvali, naj se opraviči, je chatbot odgovarjal, da bo X izboljšal zaščito. A X Safety zdaj ni omenil niti ene konkretne nadgradnje:
- ni govora o novih filtrih za zaznavanje AI‑generiranega CSAM,
- ni omembe sprememb učnih podatkov,
- ni napovedanega večjega človeškega nadzora,
- ni orodij, s katerimi bi lahko vi izbrisali problematične izhode.
Ars že dlje opozarja, da chatbotov ne gre obravnavati kot uradne govorce podjetij. Zadnja izjava X Safety to potrjuje: Grok je obljubljal izboljšave, varnostna ekipa pa za zdaj zgolj grozi uporabnikom.
Pritisk na Apple: ali X krši pravila App Stora?
Ker X ne govori o tehničnih rešitvah, se del razprave seli k Applu. Med najbolj vidnimi komentarji pod objavo X Safety so pozivi, naj Apple odstrani X iz App Stora, s tem pa tudi Grok.
Kritiki menijo, da X morda krši Applova pravila, ki prepovedujejo aplikacije z vsebino, ki objektivizira resnične osebe. Grok je že ustvarjal seksualizirane ali »v kopalkah« podobe javnih osebnosti – tudi zdravnikov in odvetnikov – brez njihove privolitve.
Dokler Grok jasno ne filtrira CSAM in podob, ki »slačijo« resnične ljudi brez privoljenja, bi moral biti X po njihovem mnenju prepovedan v App Storu.
Za Muska bi bila to velika izguba. Lani je tožil Apple, med drugim zato, ker naj bi App Store favoriziral ChatGPT in nikoli ni uvrstil Groka na seznam »Must Have« aplikacij. Musk trdi, da je to Groku onemogočilo dohiteti tekmece.
Prepoved v App Storu bi šla še dlje: Grok bi praktično izgubil možnost tekmovanja s ChatGPT na mobilnih napravah.
Apple na vprašanja o morebitnih kršitvah svojih pravil doslej ni odgovoril.
X ima orodja za klasični CSAM, ne pa za sintetičnega
X se zadnji dve leti javno hvali z orodji za odkrivanje CSAM pri običajno naloženih slikah. Toda ta sistemi so prilagojeni znanim slikam, ne pa povsem novim, sintetičnim podobam, ki jih ustvarja Grok.
Septembra je X Safety sporočil, da ima podjetje »politiko ničelne tolerance« do CSAM in da:
- večino znanega CSAM samodejno zazna s pomočjo lastne hash tehnologije,
- je bilo lani suspendiranih več kot 4,5 milijona računov,
- je X »stotisoče« slik prijavil ameriškemu centru NCMEC.
Mesece pozneje je vodja varnosti Kylie McRoberts dodala, da je leta 2024 309 prijav X‑a NCMEC‑u vodilo do aretacij, v 10 primerih pa tudi do obsodb. V prvi polovici 2025 je 170 prijav prav tako vodilo do aretacij.
Ti sistemi temeljijo na hashih že znanega gradiva spolne zlorabe. Grok pa lahko ustvari povsem nove podobe – vključno z deepfake posnetki resničnih otrok – ki se ne bodo ujemale z nobeno obstoječo bazo.
Če X ne razvije posebnih filtrov in postopkov za sintetični CSAM, lahko njegov lastni AI začne proizvajati vsebino, ki je trenutna orodja sploh ne zaznajo.
Kje X potegne črto?
Tudi med uporabniki X, ki se strinjate, da Grok ne sme ustvarjati CSAM, ni enotnega pogleda na to, kaj je »škodljivo«.
Nekatere skrbi že to, da Grok javne osebe postavlja v seksualizirane podobe v kopalkah ali podobno, brez njihove privolitve. Drugi – vključno z Muskom – takšne podobe označujejo kot šalo.
Od teh definicij je odvisno, kakšna bo moderacija. Če X nezakonito vsebino razlaga zelo ozko, lahko na platformi ostane veliko seksualiziranih podob resničnih ljudi. Če definicijo razširi, se poveča število odstranjenih objav – vi pa še vedno ne veste, kdaj lahko izgubite račun.
Medtem lahko resnični otroci, katerih fotografije so bile pobrane z interneta ali uporabljene kot prompti, doživijo novo obliko viktimizacije. In če bi nekdo Grok uporabil za množično ustvarjanje lažnega CSAM, opozarjajo strokovnjaki, bi to lahko zameglilo sliko do te mere, da bi policija težje odkrivala primere dejanske zlorabe.
Za zdaj X odgovornost naslavlja predvsem z grožnjo uporabnikom – ne z nadgradnjo Groka. Podjetje omenja brisanje vsebin, blokado računov in sodelovanje z organi pregona, nič pa ne pove, zakaj je njihov AI sploh omogočil seksualizacijo mladoletnikov in kako namerava to v praksi preprečiti.



