Platforma X je bila zadnja dva tedna preplavljena z golimi fotografijami, ki jih ni nihče odobril – ustvaril jih je Grok, interni AI klepetalnik podjetja. Tarče so znane manekenke in igralke, novinarji, žrtve kaznivih dejanj in celo voditelji držav, pogosto brez kakršnega koli zavedanja, da je njihov obraz prilepljen na eksplicitna telesa in razširjen po omrežju.
Raziskava podjetja Copyleaks, objavljena 31. decembra, je poskušala izmeriti razsežnost problema. Sprva je ocenjevala, da je bila objavljena približno ena ponarejena gola slika na minuto. Vzorčenje med 5. in 6. januarjem pa je pokazalo veliko hujšo sliko: približno 6.700 slik na uro v neprekinjenem 24‑urnem obdobju.
Skoraj dve sliki na sekundo.
Regulatorji so se medtem znašli v situaciji, ko imajo presenetljivo malo orodij, s katerimi bi to lahko ustavili.
Primer Groka je postal test v živo: kako daleč lahko gredo obstoječa pravila za tehnologijo proti hitro razvijajočim se generativnim AI modelom – in koliko moči imajo še vedno platforme, kot je X, nad ljudmi, ki jih s tem ogrožajo.
EU se premakne prva
Kot pogosto pri regulaciji platform je Evropska komisija v ospredju.
V četrtek je od podjetja xAI, ki razvija Grok, zahtevala, da zadrži vso dokumentacijo, povezano s klepetalnikom. Ta korak sicer še ne pomeni, da je preiskava uradno odprta, je pa pogost predhodni korak in jasen signal, da se Bruselj pripravlja na ukrepanje.
Ozadje je še bolj občutljivo zaradi poročanja CNN, da je Elon Musk osebno posegel v odločitev in preprečil varovalke, ki bi omejevale, kakšne slike lahko Grok ustvarja. Če to drži, ne gre več le za napako pri oblikovanju produkta, ampak za vodstveno odločitev – in tveganje pri morebitnem postopku pred regulatorji je toliko večje.
Za zdaj ni jasno, ali sta xAI ali X zaradi afere dejansko spremenila Grokov model. Javna zapis zavihka z medijskimi objavami na Grokovem računu na X je izginila, kar je odrezalo en očiten vir eksplicitne vsebine.
V izjavi 3. januarja je X ostro obsodil uporabo AI orodij za ustvarjanje spolnih posnetkov otrok. »Kdor koli uporablja ali usmerja Grok, da ustvarja nezakonito vsebino, bo doživel enake posledice, kot če bi takšno nezakonito vsebino naložil,« je zapisal račun X Safety in ponovil prejšnje sporočilo Elona Muska.
Toda ogromno sivo območje neprostovoljnih golih slik odraslih – zakonitih v številnih jurisdikcijah, a uničujočih za prizadete – ostaja.
Združeno kraljestvo in Avstralija pritiskata
Regulatorji v drugih demokracijah poskušajo pokazati, da dogajanje jemljejo resno.
Britanski regulator Ofcom je v ponedeljek sporočil, da je v stiku z xAI in da bo »hitro ocenil, ali obstajajo morebitna vprašanja skladnosti, ki bi upravičevala preiskavo«.
Britanski premier Keir Starmer je v radijskem intervjuju v četrtek val golih AI slik označil kot »sramoten« in »gnusen« ter dodal: »Ofcom ima našo popolno podporo, da v zvezi s tem ukrepa.« Redko se zgodi, da predsednik vlade tako neposredno izpostavi konkreten AI model.
Avstralska komisarka za e‑varnost Julie Inman‑Grant pa se s posledicami srečuje neposredno pri prijavah. V objavi na LinkedInu je zapisala, da se je število prijav, povezanih z Grokom, od konca leta 2025 podvojilo. Za zdaj še ni začela uradnega postopka proti xAI, je pa opozorila: »Uporabili bomo nabor regulativnih orodij, ki jih imamo na voljo, da preiščemo zadevo in sprejmemo ustrezne ukrepe.«
Sporočilo obeh regulatorjev je jasno: škodo vidijo in želijo pokazati odločenost. Za zdaj pa ostajajo njihovi odzivi predvsem na ravni opozoril.
Indija postavlja najtrše pogoje
Najresnejša grožnja za X trenutno ne prihaja iz Evrope, ampak iz Indije.
Grok je bil predmet uradne pritožbe člana indijskega parlamenta, zaradi česar je tamkajšnje ministrstvo za elektroniko in informacijsko tehnologijo (MeitY) od podjetja X zahtevalo pojasnila. Regulator je odredil, da mora X rešiti problem in v 72 urah predložiti poročilo o »sprejetih ukrepih«, naknadno pa je rok podaljšal še za 48 ur.
X je poročilo poslal 7. januarja. Ali bo MeitY z odzivom zadovoljen, za zdaj še ni znano.
Če bo presodil, da X ni ukrepal dovolj odločno, lahko platforma v Indiji izgubi status varnega pristana, ki jo ščiti pred odgovornostjo za vsebino uporabnikov. Izguba tega statusa v enem največjih spletnih trgov na svetu bi bila resen udarec sposobnosti X, da tam posluje.
Vrzel v upravljanju AI ima človeško ceno
V vseh teh primerih se ponavlja isti vzorec. Vlade lahko zahtevajo dokumente, napovedujejo preiskave in ogrožajo varni pristan. X lahko briše objave, skriva zavihke z medijskimi datotekami in grozi uporabnikom, ki ustvarjajo nezakonito vsebino.
Nič od tega pa ne spremeni dejstva, da so raziskovalci v vrhuncu valov ugotavljali na tisoče novih neprostovoljnih golih slik na uro.
Afera Grok razkriva strukturno vrzel v upravljanju generativnega AI.
Laboratoriji lahko razvijejo zmogljive sisteme za manipulacijo podob in jih neposredno priklopijo na globalna družbena omrežja. Varovalke je mogoče oslabiti ali odstraniti z eno vodstveno odločitvijo. In ko regulatorji napišejo prva pisma, so slike že shranjene, deljene in zrcaljene na mestih, kjer nadzor skoraj ne obstaja.
Posledice nosijo žrtve – pogosto povsem običajni ljudje – ki skušajo z zahtevami za umik vsebine povrniti vsaj del dostojanstva.
Regulatorji od Bruslja do New Delhija obljubljajo ukrepanje. Afera Grok bo pokazala, ali z obstoječimi pravili o spletnem nasilju, zasebnosti in odgovornosti platform sploh lahko dohajajo zmožnosti generativne umetne inteligence ali pa bo treba pravila na novo zapisati, medtem ko se poplava še kar nadaljuje.



