Muskove oznake „manipuliranih medija“ na X-u: sigurnosni alat ili novo oružje u info ratovima?

29. siječnja 2026.
5 min čitanja
Ilustracija sučelja platforme X s fotografijom označenom kao manipulirani medij

Muskove oznake „manipuliranih medija“ na X-u: sigurnosni alat ili novo oružje u info ratovima?

Lažne fotografije više nisu internetska zezancija, nego ozbiljan alat političke i propagandne borbe. U tom trenutku jedna od najutjecajnijih platformi na svijetu svoj odgovor najavljuje putem anonimnog računa i tri riječi. Elon Musk kaže da će X početi upozoravati na „uređene vizuale“, ali ne objašnjava kako, kada ni prema kojim pravilima. Za sve koji X koriste za vijesti, politiku ili poslovnu komunikaciju, to je itekako važno. U nastavku analiziramo što zapravo znamo, zašto je označavanje slike tako teško i što ovaj potez znači za Europu i našu regiju.

Vijest ukratko

Kako piše TechCrunch, X uvodi sustav koji bi trebao označavati uređene slike kao „manipulirane medije“. Jedini javni trag zasad je kratka Muskov objava u kojoj spominje upozorenje za „uređene vizuale“ i dijeli post anonimnog računa DogeDesigner, koji X često koristi za neformalno najavljivanje novih funkcija.

Prema navodima TechCruncha, funkcija se predstavlja kao način da se „tradicionalnim medijima“ oteža širenje zavaravajućih fotografija i videoisječaka putem X-a. Nije jasno hoće li se sustav fokusirati isključivo na sadržaje generirane umjetnom inteligencijom ili na svaku izmjenu – od običnog Photoshopa i kadriranja do retuširanja, usporavanja videa ili mijenjanja titlova.

Tvrtka zasad nije objavila dokumentaciju koja objašnjava kako detekcija radi, koja se pravila primjenjuju ni kako korisnik može osporiti oznaku. X već ima politiku protiv „neautentičnih medija“, no rijetko se provodi. Još u vrijeme Twittera platforma je eksperimentirala s oznakama za obmanjujuće uređene sadržaje. Druge mreže, poput Mete i TikToka, već neko vrijeme označavaju dio sadržaja povezan s AI-jem, uz vlastite tehničke i reputacijske probleme.

Zašto je to važno

Tko zapravo dobiva, a tko gubi s ovakvim, zasad vrlo mutnim sustavom označavanja?

Ako bi sustav bio kvalitetan, korist bi imali obični korisnici, novinari i institucije: očiti deepfakeovi, sintetički politički spotovi i zlonamjerne video montaže mogli bi biti označeni prije nego što eksplodiraju u viralnost. U državama gdje je X i dalje važna politička arena, to bi barem djelomično moglo ublažiti valove dezinformacija.

No rizici su jednako veliki. Tehnički problem je izuzetno složen. Kako podsjeća TechCrunch, Meta je 2024. krenula s oznakom „izrađeno uz pomoć AI-ja“, da bi se ubrzo našla pod paljbom fotografa i dizajnera: sasvim stvarne fotografije dobivale su etiketu AI-ja samo zato što su prošle kroz Adobeove alate koji koriste strojno učenje ili mijenjaju datoteku pri spremanju. U svijetu u kojem gotovo svaka kamera i aplikacija koristi neki oblik AI-ja, granica između „uređeno“, „AI-potpomognuto“ i „potpuno sintetičko“ postaje mutna.

Drugo, oznake su oblik moći. Kada X obilježi sliku kao „manipulirani medij“, platforma ne samo da informira – ona sugerira da je sadržaj sumnjiv. Formulacija DogeDesignera, koja funkciju stavlja u kontekst „tradicionalnih medija“, otkriva puno: glavna meta možda nisu anonimne bot mreže, nego upravo redakcije koje Musk voli javno prozivati.

Tu dolazimo do opasnosti selektivne primjene. X je pod Muskom popustio mnoge standarde moderiranja sadržaja i drastično smanjio timove za povjerenje i sigurnost. Postojeća pravila o manipuliranim medijima uglavnom su mrtvo slovo na papiru. Novi sustav oznaka, pod snažnim utjecajem vlasnika s jasnim političkim stavovima, lako može postati još jedno oružje u kulturnim ratovima: strog prema mainstream medijima, blag prema memovima i propagandi koja mu ide u prilog.

Treći problem je potpuni izostanak transparentnosti. Godine 2026. ozbiljna promjena koja dira politički govor ne bi smjela biti najavljena samo kroz zagonetni post vlasnika. Bez javno objavljenih kriterija i jasnog žalbenog postupka – izvan zajedničkih Community Notes – ni korisnici ni regulatori ne mogu provjeriti je li sustav uopće pravedan.

Šira slika

X nije jedini koji pokušava naknadno ugraditi „autentičnost“ u sve sintetičkiji internet.

Meta je na svojoj koži osjetila koliko je teren sklizak: oznaka „napravljeno uz pomoć AI-ja“ dovela je do toga da se sasvim legitimna fotografija i obrada prikazuju kao da su potpuno generirane. Tvrtka je na kraju morala ublažiti naziv oznake. TikTok od kreatora traži da sami označe sadržaj generiran AI-jem, a dodaje i vlastita upozorenja, no praksa je neujednačena. Glazbene platforme poput Spotifya i Deezeera razvijaju načine prepoznavanja AI glazbe. Google Photos koristi C2PA standard kako bi se vidjelo kako je fotografija nastala.

Zajedničko svima: platforme vole meki pristup putem etiketa umjesto teških poteza poput brisanja sadržaja ili radikalnog spuštanja dosega. Politički i PR-ovski to je zgodno – može se reći „nešto radimo“, a da se ne ugrozi previše angažmana. No istraživanja pokazuju da mnogi korisnici sitna upozorenja jednostavno ignoriraju ili ih čitaju kroz vlastiti ideološki filter.

Twitter je nekad imao nešto strukturiraniji pristup. Godine 2020. uveo je politiku protiv svjesno obmanjujuće uređivanih ili potpuno izmišljenih medija, koja nije obuhvaćala samo AI, nego i manipulirane titlove, selektivne rezove i usporene snimke. Bila je daleko od savršene, ali je postojala i bila javna. Pod Muskom je dobar dio te arhitekture nestao ili se ne provodi.

U međuvremenu se formira tehnički konsenzus oko standarda poput C2PA te inicijativa kao što su Content Authenticity Initiative i Project Origin, koje u medijske datoteke ugrađuju provjerljive metapodatke o porijeklu. U upravljačkim tijelima sjede Microsoft, Adobe, Arm, Intel, Sony, BBC i mnogi drugi. X, kako navodi TechCrunch, među članovima se zasad ne pojavljuje.

I to je važan signal. Umjesto da se uključi u širu infrastrukturu u kojoj se porijeklo sadržaja može provjeravati kroz različite alate i platforme, X očito bira solo-igru. Kratkoročno to znači više slobode, dugoročno manje interoperabilnosti i više sumnje kod neovisnih istraživača.

Europski i regionalni kontekst

Iz europske perspektive ovaj potez pada usred vrlo zahtjevnog regulatornog okvira.

Europska komisija je X proglasila „vrlo velikom internetskom platformom“ (VLOP) prema Aktu o digitalnim uslugama (DSA). To nosi stroge obveze: procjenjivanje i ublažavanje sistemskih rizika poput dezinformacija i izborne manipulacije te transparentnost kada je riječ o algoritmima preporuke i moderiranju.

Poluobjavljeno označavanje „manipuliranih medija“ teško će impresionirati Bruxelles. Komisija već propituje koliko X nakon otpuštanja i promjena pravila uopće poštuje DSA. Svaki mehanizam koji može utjecati na vidljivost i vjerodostojnost politički relevantnih sadržaja mora imati jasno objavljene kriterije i mogućnost žalbe.

EU Akt o umjetnoj inteligenciji dodatno zahtijeva da određeni pružatelji AI sustava jasno označe sadržaje generirane ili izmijenjene uz pomoć AI-ja. X nije generator, ali je ključni distributer. Ako su njegove oznake proizvoljne ili neobjašnjene, potkopavaju širu europsku namjeru da se uspostave razumljivi standardi.

Za hrvatske i regionalne medije – od HRT-a i N1 do Indexa, Jutarnjeg, malih portala i nezavisnih autora – X je i dalje važan kanal za brzu distribuciju i raspravu, osobito u kriznim situacijama ili tijekom izbora. Intransparentan sustav označavanja mogao bi neprimjetno kazniti legitimno fotonovinarstvo ili pobuditi sumnju u autentičnost snimki s terena, dok bi stranački memovi prolazili bez oznaka.

Ujedno, jugoistočna Europa već eksperimentira s alternativama: lokalne Mastodon instance, jači oslonac na Telegram, Viber i WhatsApp, pa i vlastite medijske platforme. Ako X nastavi improvizirati dok drugi prihvaćaju otvorene standarde poput C2PA, državne institucije, mediji i organizacije civilnog društva imat će sve više razloga da kritičnu komunikaciju šire izvan X-a.

Pogled unaprijed

U sljedećim mjesecima realno je očekivati barem tri trenda.

Prvo, pogrešne oznake i zabunu. Ako X ne koristi radikalno drugačiji pristup od Mete, vidjet ćemo stvarne fotografije označene kao „manipulirane“ jer su prošle kroz alate koji koriste AI. Fotografima, dizajnerima i brendovima to neće biti prihvatljivo i sukobi će brzo izaći u javnost.

Drugo, političke rasprave oko toga tko dobiva oznaku, a tko ne. Ako je retorika o „tradicionalnim medijima“ odraz unutarnje logike X-a, klasične redakcije bit će pod većom lupom nego anonimni, stranački obojeni profili. To će zanimati i promatrače izbora i europske regulatore, osobito u državama gdje X još uvijek ima ulogu digitalnog trga.

Treće, pojačan regulatorni pritisak. Europska komisija i nacionalna tijela već su pokazali da su spremni koristiti DSA protiv velikih platformi. Sustav označavanja koji može mijenjati vidljivost i vjerodostojnost političkog sadržaja, a postoji samo kao usputna Muskovina objava, teško će proći bez dodatnih pitanja.

Tehnički, X mora odlučiti hoće li se oslanjati na metapodatke uređaja, C2PA signale gdje postoje, baze poznatih deepfakeova ili vlastite AI klasifikatore. Hoće li razlikovati estetske, bezazlene izmjene od manipulacija koje mijenjaju smisao? Hoće li postojati ozbiljan kanal žalbe izvan zajedničkog uređivanja Community Notes?

Optimističan scenarij je da će pritisak javnosti i regulatora natjerati X na objavu konkretne dokumentacije, pristupanje standardizacijskim inicijativama poput C2PA i shvaćanje oznaka kao neutralne infrastrukture. Pesimističan: da će oznake postati još jedna crta bojišnice u info ratovima – znak nepovjerenja za „nepoželjne“ medije i pozadinska buka za sve ostale.

Zaključak

Najavljene oznake za „uređene vizuale“ na X-u adresiraju stvaran problem, ali zasad nude prilično površno rješenje: puno moći, malo transparentnosti i bez jasnih standarda. U eri sintetičkih medija sama definicija „manipuliranog“ postaje politički čin. Dok X ne otvori svoje metode i ne približi se industrijskim standardima, korisnici i europski regulatori trebali bi nove oznake shvatiti manje kao sigurnosni pojas, a više kao indikator tko trenutačno kontrolira narativ na platformi. Biste li vi vjerovali toj oznaci kod sljedeće viralne slike koja bi mogla utjecati na izbore u vašoj zemlji?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.