AI MAGA lepotice: ko politična prevara postane poslovni model

22. april 2026
5 min branja
Umetno ustvarjena svetlolasa ženska v patriotski opravi na zaslonu pametnega telefona

1. Naslov in uvod

Brezdenarni 22‑letni študent medicine iz Indije ustvari izmišljeno, ultra‑konzervativno ameriško "medicinsko sestro" z umetno inteligenco – in na tisoče resničnih volivcev iz ZDA mu začne pošiljati denar. To ni znanstvena fantastika, ampak stanje na družbenih omrežjih leta 2026.

Zgodba o Emily Hart je veliko več kot anekdota o enem zvitem posamezniku. Kaže, kako globoko prepleteni so postali politika, pornografija in generativna umetna inteligenca ter kako ranljivi so algoritmi, ki jih poganjata jeza in poželenje. V nadaljevanju analiziram, kaj nam ta primer pove o ekonomiji pozornosti, o tveganjih za volitve ter kaj pomenijo takšni liki za Evropo – zlasti v kontekstu DSA in prihajajočega Akta o umetni inteligenci.


2. Dogodek na kratko

Kot poroča Ars Technica na podlagi originalnega prispevka revije WIRED, je 22‑letni študent medicine iz severne Indije (v članku poimenovan "Sam") uporabil generativna orodja umetne inteligence za ustvaritev Emily Hart – fiktivne bele, svetlolase, izrazito pro‑Trump medicinske sestre iz ZDA, ki na Instagramu objavlja konzervativne slogane v bikiniju.

Sam je najprej poskusil z generičnimi erotičnimi podobami, ustvarjenimi z AI, vendar profil ni dosegel večjega dosega. Nato se je – po poročanju – obrnil na Googlov klepetalnik Gemini, ki mu je nakazal, da je konzervativno, pro‑MAGA občinstvo finančno zelo zanimiva niša. V skladu s tem je oblikoval Emilyno persono: fotografije na strelišču, pivo, krščanske parole, protiimigrantska in proti‑"woke" sporočila.

Račun je v kratkem času zbral več deset tisoč sledilcev in milijonske oglede Reels posnetkov. Denar je prihajal predvsem zunaj Instagrama: prek naročnin in AI‑generirane erotične ali gole vsebine na platformi Fanvue (konkurent OnlyFans) ter s prodajo majic s MAGA motivi. Podobni AI‑ustvarjeni desničarski vplivneži – pogosto kot policistke, gasilke ali reševalke – se pojavljajo na več omrežjih. Instagram je Emilyn račun kasneje zaprl zaradi „goljufive dejavnosti“, a koncept se hitro širi.


3. Zakaj je to pomembno

To ni le zgodba o podjetnem študentu. Gre za ogledalo, v katerem vidimo, kaj v resnici nagrajuje današnji splet: kombinacijo seksualiziranega videza, politične jeze in identitetnega laskanja. Umetna inteligenca je iz te kombinacije naredila poceni, praktično neskončno reproducibilen produkt.

Kdo pridobi?

  • Posamezni „podjetniki“ in tržniki: Z nekaj urami dela in dostopom do orodij AI lahko kdorkoli izven ZDA monetizira ameriško politično polarizacijo, brez fizične prisotnosti ali razumevanja lokalnega konteksta.
  • Platforme in ponudniki AI: Vsak ogorčen komentar, vsak klik na vabo prinaša oglede in prihodke. Instagram, Fanvue in ponudniki modelov AI posredno zaslužijo, tudi če njihova pravila formalno zahtevajo označevanje AI‑vsebine.
  • Akterji, povezani s politiko, ki so pripravljeni igrati umazano igro: danes je to študent, jutri so lahko politične agencije, ki avtomatizirajo na stotine podobnih avatarjev.

Kdo izgubi?

  • Resnične ustvarjalke in seks‑delavke, ki tekmujejo z neskončno skalabilnimi, „neutrudnimi“ virtualnimi modeli, pri katerih ni vprašanj soglasja, izčrpanosti ali pravic.
  • Volivci, katerih informacijski prostor vse bolj polnijo sintetične identitete, zasnovane za pritisk na čustvene gumbe, ne za kakovostno razpravo.
  • Javna razprava, ki postaja težko preverljiva, ko ni jasno, ali je „patriotska medicinska sestra iz Kansasa“ resnična oseba, botnet ali študent nekje na drugem koncu sveta.

Morda najbolj zaskrbljujoča ugotovitev je psihološka: številnim oboževalcem – sodeč po pripovedi v članku – ni bilo pomembno, ali je Emily resnična. Dokler je potrjevala njihov svetovni nazor in fantazije, je bila pristnost drugotnega pomena. Tak odnos nas dela izjemno ranljive za manipulacijo v velikem obsegu.


4. Širša slika

Emily Hart je del širšega prepleta trendov:

  1. Hiper‑personalizirana politična propaganda – Umetna inteligenca se vse pogosteje uporablja za ustvarjanje lažnih fotografij protestov, ponarejenih izjav znanih osebnosti in političnih videoposnetkov. Naslednji korak so vztrajni AI liki, ki z nami komunicirajo tedne ali mesece, flirtajo, gradijo zaupanje in v ozadju premikajo naša politična stališča.

  2. Algoritmična prednost jeze in seksualizacije – Priporočilni sistemi TikToka, Instagrama in YouTuba nagrajujejo vsebino, ki nas zadrži na platformi. To pogosto pomeni škandale, konflikte in erotiko. AI‑ustvarjene MAGA lepotice so zgolj optimalna implementacija te logike.

  3. Blagovna izmenjava identitete – Platforme se skušajo oddaljiti od ideje „resničnih ljudi na spletu“ in prehajajo v svet „vsebinskih objektov“, optimiziranih za metrike. Ali je za temi objekti človek, AI ali mešanica, postaja za poslovni model drugotno.

Podobne vzorce smo že videli, le da so bili počasnejši. Na Facebooku so se pred leti širile lažne strani „lokalnih medijev“, izmišljeni vojaki ali mamice, ki so širili politične narative. Razlika danes sta cena in realizem: kar je nekoč zahtevalo ekipo oblikovalcev in mesece dela, lahko sedaj en človek sestavi v enem popoldnevu.

Na ravni industrije se riše delitev: eni – kot Fanvue – odkrito sprejemajo sintetične modele in hitro rastejo, vendar privlačijo regulatorje; drugi – kot OnlyFans z obvezno verifikacijo identitete – stavijo na pristnost in varnost, četudi z nekoliko počasnejšo rastjo.

Skupni imenovalec: sintetične persone bodo postale normalne, vprašanje „ali je to resnično?“ pa bo posebnost, ne več privzeta predpostavka.


5. Evropski in slovenski pogled

Za EU je to miniatura problema, s katerim se bo kmalu srečala sistemsko. Digitalni akt o storitvah (DSA) že danes od največjih platform zahteva oceno tveganj glede dezinformacij in večjo preglednost algoritmov. Prihajajoči Akt o umetni inteligenci napoveduje dodatna pravila za generirano vsebino, zlasti kadar gre za politični vpliv in deepfake posnetke.

AI‑ustvarjene politične lepotice, kot je Emily, ležijo na presečišču pornografije, trgovine in političnega oglaševanja. Od tega, v katero kategorijo jih uvrstimo, so v Evropi odvisne obveznosti označevanja, omejitve oglaševanja in morebitne sankcije.

Slovenija tu ni izjema. Volilne kampanje pri nas že danes uporabljajo meme‑kulturo, vplivneže in čustveno nabite vizuale. Predstavljajte si „domoljubno medicinsko sestro“ ali „tradicionalno mamico“, ki v slovenščini deli teorije zarote o migracijah ali cepivih – a v resnici nastaja na strežniku nekje daleč stran.

Za domači startup ekosistem (Ljubljana, Maribor, Celje) se odpirata dve smeri: ena je brezglavo izkoriščanje novih niš AI‑vplivnežev, druga pa razvoj orodij za preverjanje pristnosti, digitalno vodno označevanje in transparentnost oseb, ki se pojavljajo v oglasih ali političnih kampanjah. Glede na to, da je Slovenija majhen in regulacijsko občutljiv trg, bo druga pot dolgoročno verjetno bolj pametna.


6. Pogled naprej

V naslednjih letih lahko pričakujemo tri premike:

  1. Tovarne person: Kar je Sam počel ročno, bo kmalu avtomatizirano. Večagentni sistemi AI bodo ustvarjali slike, pisali objave, odgovarjali na komentarje in sproti testirali, kaj najbolj vžge. Politični svetovalci in tržniki bodo v skušnjavi, da vzpostavijo cele flote navideznih osebnosti za različne ciljne skupine.

  2. Protiukrepi regulatorjev in tehnike: Pod pritiskom DSA, Akta o umetni inteligenci in nacionalnih volilnih komisij bodo platforme prisiljene uvajati bolj dosledno označevanje AI‑vsebine, standarde za izvor podatkov (npr. C2PA) ter neodvisne presoje tveganj. To ne bo ustavilo zlorab, bo pa dvignilo prag in potisnilo najbolj problematične projekte na manj nadzorovane platforme.

  3. Normalizacija in odpor: Ko bo sintetičnih vplivnežev dovolj, bodo uporabniki postali cinični. Del bo iskreno priznal, da jih resničnost niti ne zanima – gre za fantazijo. Drugi bodo aktivno iskali „preverjeno človeške“ ustvarjalce in bodo za to morda pripravljeni plačati več.

Za slovenske bralce bodo ključna vprašanja:

  • Ali bodo volilni organi in AKOS obravnavali orkestrirane AI‑persone kot prikrito politično oglaševanje ali celo tuji vpliv?
  • Kako daleč bodo šli domači mediji in stranke pri uporabi generiranih obrazov v kampanjah?
  • Ali bo javnost pripravljena sprejeti, da „popolna“ oseba na ekranu verjetno ni človek, ali pa bo raje zamižala na eno oko?

Trenutno je razmerje med stroški in tveganji nepošteno: eksperimentiranje s takšnimi avatarji je poceni in anonimno, nadzor ter kazni pa so počasni in redki.


7. Bistvo

Emily Hart ni le bizarna epizoda iz sveta umetne inteligence, temveč delovni prototip novega poslovnega modela politične prevare. Dokler so algoritmi usmerjeni v maksimiranje angažmaja, bodo najbolj nagrajeni tisti, ki znajo z najmanj truda ustvariti največ jeze in poželenja – ne glede na to, ali so ljudje ali stroji. Ključno vprašanje za vas je: boste naslednjo „predobro, da bi bila resnična“ politično obarvano vplivnico na zaslonu obravnavali kot resnično osebo ali kot skupek ukazov umetni inteligenci?

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.