Muskovi oznaki »manipuliranih slik« na X razkrivata, kako slabo so platforme pripravljene na dobo AI
Ponarejene fotografije so iz internetne kuriozitete postale politično orožje, ena najvplivnejših platform na svetu pa svoj obrambni mehanizem predstavlja z anonimnim računom in tremi besedami. Elon Musk napoveduje, da bo X začel opozarjati na »urejene vizualne vsebine«, a ne pove ne kako, ne kdaj, ne zakaj bo oznaka uporabljena. To bi moralo skrbeti vsakogar, ki X uporablja za novice, politiko ali gradnjo blagovne znamke. V nadaljevanju pogledamo, kaj sploh vemo, zakaj je označevanje slik tehnično in politično tako težko ter zakaj lahko X‑ov pristop ostane bliže PR‑u kot dejanski varnosti.
Novica na kratko
Kot poroča TechCrunch, X uvaja sistem za označevanje urejenih slik kot »manipuliranih medijev«. Javni signal je za zdaj le kratek Muskov zapis z omembo opozorila za »urejene vizualne vsebine«, s katerim deli objavo pseudonimnega računa DogeDesigner, ki ga X pogosto uporablja za najavo novih funkcij.
Po navedbah TechCruncha je funkcija predstavljena kot način, da bi tradicionalnim medijem otežili širjenje zavajajočih slik in posnetkov prek X. Ni jasno, ali se bo sistem osredotočal zgolj na z umetno inteligenco ustvarjene vsebine ali na vse oblike sprememb – od klasičnega Photoshopa in obrezovanja do retuširanja ali upočasnjenih videov.
Podjetje ni objavilo nobene dokumentacije o tem, kako zaznavanje deluje, kakšna so pravila ali kako lahko uporabniki izpodbijajo oznako. X sicer že ima politiko proti »neavtentičnim medijem«, ki pa se redko uveljavlja. Še kot Twitter je platforma poskusno označevala zavajajoče urejene posnetke. Druge platforme, kot sta Meta in TikTok, že nekaj časa označujeta del vsebin, povezanih z AI, in se spopadata z lastnimi tehničnimi in zaupanja vrednimi izzivi.
Zakaj je to pomembno
Kdo v resnici pridobi in kdo izgubi z meglenim, osebno vodenim sistemom označevanja?
Če bi sistem deloval zanesljivo, bi imeli korist običajni uporabniki, novinarji in javne institucije: očitni deepfaki, sintetični politični napadi in zavajajoče montaže bi bili označeni, še preden eksplodirajo v viralnost. V državah, kjer je X še vedno pomemben politični prostor, bi to lahko omililo nekatere najhujše izbruhe dezinformacij.
Tveganja pa so enako velika. Tehnični problem je zapleten. Kot poudarja TechCrunch, se je Meta pri poskusu označevanja vsebin »ustvarjenih z AI« hitro zapletla: povsem pristne fotografije so dobile oznako le zato, ker so bile urejene v orodjih, ki v ozadju uporabljajo strojno učenje. Meja med »urejeno«, »z AI podprto« in »popolnoma sintetično« je zabrisana, ko skoraj vsaka kamera in aplikacija uporablja AI.
Poleg tega so oznake oblika moči. Ko X nekemu posnetku dodeli oznako »manipuliran medij«, ne gre le za informiranje uporabnikov; s tem platforma implicitno odloča, čigava razlaga je verodostojna. Formulacija DogeDesignerja – da bo funkcija otežila zavajanje »tradicionalnim medijem« – je razkrivna. Glavna tarča morda sploh niso anonimni trolovski računi, temveč uredništva, ki jih Musk redno napada.
S tem se odpira možnost selektivne uporabe pravil. X je pod Muskom sprostil številne omejitve in razpustil velik del ekipe za varnost in integriteto. Obstoječa politika o manipuliranih medijih večinoma živi le še na papirju. Nova oznaka, nad katero ima ključen vpliv lastnik z zelo jasnimi političnimi stališči, lahko hitro postane orožje v kulturnih bojih: stroga do tradicionalnih medijev, popustljiva do memov in propagande, ki so Musku ideološko bližje.
Tretji problem je odsotnost jasnih pravil. Leta 2026 mora vsaka resna sprememba, ki vpliva na politični govor, priti z javno politiko in tehničnim opisom, ne zgolj z namigom lastnika. Brez jasnih standardov in pritožbenega postopka prek množičnih Community Notes uporabniki in regulatorji nimajo orodij, da bi preverili, ali je sistem sploh pravičen.
Širši kontekst
X ni osamljen v poskusu, da bi v vse bolj sintetičen internet naknadno vgradil pojem avtentičnosti.
Meta je morala svojo oznako »ustvarjeno z AI« leta 2024 omiliti, potem ko so se fotografi upravičeno pritoževali, da je običajna obdelava posnetkov nenadoma označena kot umetna inteligenca. TikTok od ustvarjalcev zahteva, da sami označijo vsebine, ustvarjene z AI, dodaja pa tudi lastna obvestila, a izvajanje pravil je neenotno. Glasbene storitve, kot sta Spotify in Deezer, razvijajo sisteme za prepoznavanje skladb, ustvarjenih z AI. Google Photos se opira na standard C2PA, ki omogoča vpogled v izvor fotografije.
Skupni imenovalec: platforme se raje odločajo za mehke oznake kot za trše ukrepe, kot sta odstranjevanje ali radikalno znižanje vidnosti. Oznake delujejo kot kompromis – regulatorjem pokažejo »nekaj smo naredili«, hkrati pa ohranijo angažma uporabnikov. Raziskave pa kažejo, da veliko ljudi na drobna opozorila preprosto ne gleda ali pa jih bere skozi lastna politična očala: oznaka postane dokaz, da »mainstream« cenzurira njihovo stran.
Twitter je v preteklosti poskusil vsaj bolj pravno opredeljen pristop. Leta 2020 je uvedel politiko proti zavajajoče urejenim ali ponarejenim medijem – od manipuliranih podnapisov do upočasnjenih posnetkov, ne le AI. Politika je bila nepopolna, a vsaj javno zapisana. Pod Muskom je veliko tega izginilo ali se ne izvaja.
Na tehnični ravni pa nastaja nekakšen konsenz okoli standardov, kot je C2PA, in pobud, kot sta Content Authenticity Initiative in Project Origin, ki v datoteke vgrajujejo preverljivo metapodatkovno zgodovino. Med vodilnimi člani so Microsoft, Adobe, Sony, BBC in proizvajalci čipov, kot je Intel. X, kot navaja TechCrunch, med člani (za zdaj) ni.
To ni nepomembna podrobnost. Namesto da bi se vklopil v ekosistem, kjer bi bilo mogoče izvor vsebin preverjati prek več orodij in platform, X očitno improvizira po svoje. Kratkoročno je to lahko hitrejše, dolgoročno pa so oznake težje združljive z ostalim internetom in manj preverljive za neodvisne raziskovalce.
Evropski in slovenski vidik
Za evropski prostor se takšna poteza pojavi sredi zahtevnega regulativnega okolja.
X je pri Evropski komisiji klasificiran kot »zelo velika spletna platforma« v okviru Akta o digitalnih storitvah (DSA). To pomeni obveznost ocenjevanja in zmanjševanja sistemskih tveganj – med njimi dezinformacij in posegov v volitve – ter večjo preglednost priporočilnih sistemov in moderiranja vsebin.
Polovičarsko razkrit manipulator slik gotovo ne bo navdušil Bruslja. Regulatorji že preiskujejo, ali X z zmanjševanjem ekip za moderiranje in s svojim ravnanjem s političnimi vsebinami sploh še izpolnjuje zahteve DSA. Vsak sistem, ki lahko vpliva na vidnost in verodostojnost vsebin, mora biti razložen – »Musk je tvitnil« ne bo prepričal nobene agencije.
Akt o umetni inteligenci dodaja še en nivo: nekateri ponudniki morajo jasno označevati vsebine, ki so bile ustvarjene ali spremenjene z AI. Čeprav X sam ne generira vsebin, je del verige, ki mora omogočiti, da oznake dejansko delujejo. Če je X‑ovo označevanje netransparentno, spodkopava širši cilj večje preglednosti.
Za slovenske medije – od RTV Slovenija in POP TV do manjših portalov in ustvarjalcev, ki X uporabljajo za distribucijo – ima to neposredne posledice. Agresiven ali pristranski sistem označevanja bi lahko tiho potisnil legitimno fotoreportažo nižje v toku ali v javnosti vzbudil dvom o resničnosti posnetkov, medtem ko bi politični memi ostali nedotaknjeni.
Hkrati v Evropi raste ekosistem alternativ, od mastodonovih strežnikov, ki jih upravljajo javne institucije, do raziskovalnih projektov na področju C2PA. Slovenska skupnost že zdaj aktivno uporablja Fedivers in lokalne platforme. Če bo X nadaljeval z improvizacijo, medtem ko drugi standardizirajo izvor vsebin, bodo evropske institucije in podjetja dolgoročno vse lažje selile strateško komunikacijo drugam.
Pogled naprej
V naslednjih mesecih lahko pričakujemo vsaj tri razvojne linije.
Prvič, lažne oznake in zmedo. Če X ne uporablja popolnoma drugačnega pristopa kot Meta, bomo videli resnične fotografije z oznako »manipulirano«, ker so šle skozi orodja z vgrajenimi funkcijami AI. Fotografom, oblikovalcem in blagovnim znamkam to ne bo všeč.
Drugič, politične bitke okoli tega, kdo je označen. Če komentarji o »tradicionalnih medijih« odražajo notranjo logiko, bodo klasične redakcije verjetno pod večjim drobnogledom kot anonimni partizanski računi. To bo hitro postalo tema za regulatorje in opazovalce volitev, tudi v državah članicah EU, kjer X ostaja pomemben kanal politične komunikacije.
Tretjič, regulativni pritisk. Evropska komisija in nacionalni organi so že pokazali, da so pripravljeni sprožiti postopke po DSA proti velikim platformam. Sistem označevanja slik, ki lahko vpliva na prepoznavnost in verodostojnost političnih vsebin, a je nedokumentiran in upravljan praktično z lastnikovega zasebnega računa, je odprto vabilo k dodatnim preiskavam.
Tehnično ima X pred sabo nekaj trdih odločitev: ali se bo opiral na metapodatke naprav, signale C2PA tam, kjer obstajajo, zaznavanje znanih deepfakov ali izključno na lastne AI‑klasifikatorje? Bo ločeval med benignimi estetskimi popravki in manipulacijami, ki spreminjajo pomen vsebine? Bo obstajala resna pritožbena pot, ki ne temelji le na množičnem urejanju Community Notes?
Optimističen scenarij bi bil, da bo javni pritisk X prisilil k objavi jasne dokumentacije, pridružitvi standardom, kot je C2PA, in k razumevanju oznak kot nevtralne infrastrukture. Temnejši scenarij pa je, da bodo oznake postale še ena fronta v kulturnih vojnah – znak sramote za »neprave« medije, ki ga večina uporabnikov sčasoma ignorira.
Spodnja črta
X‑ovo napovedano opozorilo za »urejene vizualne vsebine« naslavlja resničen problem, a za zdaj ponuja ne preveč resno rešitev: veliko moči, malo preglednosti, oznake brez standardov. V času sintetičnih medijev in krhkega zaupanja je že sama definicija »manipuliranega« politično dejanje. Dokler X ne odpre svojih metod in se ne približa širšim industrijskim standardom, bi morali uporabniki in evropski regulatorji nove opozorilne značke razumeti manj kot varnostni ščit in bolj kot indikator, kdo trenutno drži narativno moč na tej platformi. Bi vi zaupali takšni oznaki pri naslednji viralni sliki, ki lahko vpliva na volitve?



