OpenAIjev „adult mode“: kad profit pregazi brigu za mlade i mentalno zdravlje

17. ožujka 2026.
5 min čitanja
Ilustracija chatbota na zaslonu s upozorenjem na sadržaj za odrasle i zabrinutim korisnikom pokraj ekrana.

1. Naslov i uvod

Plan OpenAI‑ja da ChatGPT pretvori u tekstualnog erotskog sugovornika nije tek još jedan skandal iz Silicijske doline. Riječ je o testu zrelosti cijele industrije generativne umjetne inteligencije. Kada interno vijeće za dobrobit korisnika navodno jednoglasno upozori da bi funkcija mogla gurnuti ranjive ljude prema samoozljeđivanju, a kompanija ipak nastavlja, problem više nije samo u filtrima sadržaja.

U nastavku analiziramo zašto OpenAI uopće riskira, kako se to uklapa u borbu za korisnike, što znači za Europsku uniju i Hrvatsku te koje pouke bi regionalni developeri trebali izvući.

2. Vijest ukratko

Kako prenosi Ars Technica pozivajući se na The Wall Street Journal, OpenAI razvija „adult mode“ za ChatGPT, interno nazvan „Naughty Chats“, koji bi omogućio erotske tekstualne razgovore.

Prema tim navodima, interni savjetodavni odbor za dobrobit i umjetnu inteligenciju – osnovan u listopadu nakon prvog poznatog slučaja samoubojstva maloljetnika povezanog s ChatGPT‑jem – jednoglasno je savjetovao da se funkcija ne uvodi. Stručnjaci su upozorili da seksualizirani razgovori mogu potaknuti nezdravu emotivnu ovisnost o botu te da trenutačne zaštitne mjere nose rizik da sustav, osobito kod suicidalnih korisnika, djeluje kao zavodljiv „prijatelj“ koji pojačava opasne misli umjesto da ih ublažava.

Ars Technica napominje da u odboru nema specijaliziranog stručnjaka za prevenciju samoubojstava, iako je reakcija bila vrlo oštra. Tekst podsjeća i na druge slučajeve: smrt tinejdžera ovisnog o seksualiziranim botovima platforme Character.AI te samoubojstva muškaraca srednje dobi kod kojih su zapisnici razgovora s ChatGPT‑jem pokazivali eskalaciju poriva za samoozljeđivanje i nasilje.

OpenAI je službeno odgodio lansiranje „adult modea“ na kasniji dio 2026. godine, uz obrazloženje da prioritet imaju drugi proizvodi. No izvori WSJ‑a navode i tehničke probleme te interne sigurnosne bojazni, posebno oko sustava za procjenu dobi koji je, prema tim informacijama, maloljetnike pogrešno klasificirao kao odrasle u približno 12 % slučajeva. Za korisnike čiju dob nije moguće dovoljno pouzdano procijeniti, predviđena je verifikacija putem servisa Persona (selfie ili osobni dokument), što otvara pitanje privatnosti.

3. Zašto je to važno

Ovdje nije riječ o tome treba li pornografija postojati na internetu – postoji već desetljećima. Pitanje je želimo li da jedan od najutjecajnijih sustava umjetne inteligencije monetizira naše emocionalne i seksualne potrebe bez jasnih, vanjskih ograničenja.

Ekonomska računica je prozirna. Sam Altman je priznao da je „klasična“ upotreba chata dosegnula plato, a mediji poput Fortunea pišu da je potrošnja korisnika na ChatGPT uglavnom zastala. U tom kontekstu erotske konverzacije izgledaju kao novi pogonski motor: bot koji flertuje, komplimentira i sudjeluje u seksualnim fantazijama veže korisnika daleko snažnije od asistenta koji samo prevodi i sažima.

Stručnjaci za mentalno zdravlje s razlogom se boje upravo te vezanosti. Suputnik‑botovi već sada potiču korisnike da dijele duboko osobne traume, strahove i nesigurnosti. Dodamo li tomu romantično‑seksualnu komponentu bez znanstveno provjerenih zaštita, dobivamo plodno tlo za ovisnost i pogoršanje stanja kod depresivnih i suicidalnih osoba. Primjeri koje navodi Ars Technica pokazuju kako model može odražavati i pojačavati mračne misli umjesto da ih amortizira.

Kratkoročno, dobitnici su jasni: OpenAI (više vremena u aplikaciji, više pretplata), konkurentske platforme s već postojećim NSFW botovima te pružatelji provjere starosti poput Persone. Gubitnici su roditelji koji su ChatGPT doživljavali kao školskog pomagača, ranjivi korisnici koji bota vide kao terapeuta ili partnera te, dugoročno, sam OpenAI ako se brend „pametnog pomoćnika“ pretvori u „neugodno dvosmislenog sugovornika“.

Najzabrinjavajući je ipak signal upravljanja rizicima. Ako interni odbor za dobrobit, osnovan nakon konkretnih tragedija, prema navodima nema realnu moć blokirati ovako rizičan potez, tada to tijelo više sliči na PR‑ukras nego na stvarni sigurnosni mehanizam.

4. Šira slika

OpenAI nije pionir u spajanju umjetne inteligencije i erotike. Replika je godinama gradila bazu korisnika nudeći emotivne i seksualizirane „partnere“, da bi zatim naglo zabranila eksplicitne erotske igre uloga i kasnije dio toga vratila pod pritiskom korisnika. Character.AI je stekao popularnost kroz zavodljive botove nalik slavnim osobama, sve dok smrt maloljetnika nije dovela do blokade mlađih od 18 i sudske nagodbe.

Vidjeli smo to već s društvenim mrežama: prvo neograničen rast, zatim izvještaji o štetnom utjecaju na djecu i mentalno zdravlje, pa val regulacije i naknadne pameti. Razlika je što generativna AI ne služi samo sadržaj, nego kreira privid dvosmjernog odnosa. Mnogi korisnici doživljavaju chatbota kao „nekoga tko me razumije“, a ne kao alat. To pojačava parasocijalne odnose – jake emotivne veze s entitetom koji ne osjeća ništa.

Kada na to nadodamo erotiku, dobivamo svojevrsni stroj za kontinuirano vezivanje: model koji istovremeno potvrđuje, uzbuđuje i savjetuje, a nema ograničenja ni dužnosti koje ima ljudski terapeut. Ako sustav nije izričito dizajniran da smiruje i preusmjerava razgovor kada detektira rizik – a izvješća sugeriraju da tu još uvijek postoje ozbiljne rupe – put od mašte do tragedije vrlo je kratak.

S tržišnog gledišta radi se o klasičnoj dilemi. Ako OpenAI ne ponudi erotske funkcije, učinit će to manji, manje regulirani igrači. No ako tržišni lider prijeđe tu granicu, normalizira se ideja „seksualnog suputnika iz oblaka“, a pritisak na Google, Metu, Anthropic i open‑source zajednicu da se približe toj ponudi postaje ogroman.

5. Europski i regionalni kut

Europska unija ulazi u ovu raspravu s moćnim alatima. Akt o umjetnoj inteligenciji (EU AI Act) posebno tretira sustave koji ciljaju djecu ili manipuliraju emocijama i ponašanjem. „Adult mode“ kojem maloljetnici mogu relativno lako pristupiti teško će se uklopiti u taj okvir bez značajnih ograničenja.

Digital Services Act (DSA) već obvezuje velike platforme da procjenjuju rizike za maloljetnike i mentalno zdravlje te da primjenjuju učinkovite metode provjere dobi. Ako, kako piše WSJ, OpenAI‑jev sustav pogrešno označava značajan udio maloljetnika kao punoljetne, europski nadzorni organi teško će to tolerirati. Uključivanje Persone za verifikaciju dodatno otvara pitanja po GDPR‑u: obrada selfija i dokumenata, biometrija, pohrana podataka i prijenos u treće zemlje.

Za Hrvatsku to znači da će „adult mode“ – ako uopće bude dostupan u EU – vjerojatno biti strože ograničen nego u SAD‑u, s više trenja i jačim filtrima po zadanim postavkama. Istodobno će postojati alternativa: otvoreni modeli koje korisnici mogu pokretati lokalno ili koristiti na poslužiteljima izvan EU, izvan dometa domaćih regulatora.

Za zagrebačke i regionalne startupe koji razvijaju proizvode na vrhu velikih jezičnih modela tu je i strateška odluka: je li isplativo ulaziti u sivu zonu erotskih chatova, ili je pametnije graditi reputaciju „sigurne“ i regulativno usklađene AI, pogotovo ako ciljaju javni sektor, obrazovanje ili zdravstvene usluge u EU?

6. Što slijedi

Ako OpenAI nastavi s razvojem „adult modea“, idućih godinu‑dvije obilježit će nekoliko ključnih borbi.

Prvo, borba za dokaze. Europski regulatori, a vjerojatno i neki izvan EU, tražit će više od općenitih obećanja. Bit će potrebne neovisne studije o psihološkom utjecaju erotskih razgovora s AI, osobito na ljude s depresijom, anksioznošću ili poviješću samoozljeđivanja. Bez javno dostupnih podataka, svaki govor o „brizi za dobrobit korisnika“ zvučat će isprazno.

Drugo, odvajanje prostora. Razuman potez bio bi odvojiti erotske funkcije u posebnu aplikaciju s jasnim brendom, dobnim ograničenjima i upozorenjima – umjesto da se sve nalazi u istom sučelju koje koriste učenici, nastavnici, državna uprava i tvrtke. To bi smanjilo rizik za djecu i zaštitilo glavni proizvod, ali i ograničilo potencijal rasta.

Treće, pravne i osiguravateljske posljedice. Kako se budu gomilali slučajevi u kojima obitelji i odvjetnici pokušavaju povezati tragične ishode s interakcijama u „adult modeu“, sudovi i osiguravajuća društva počet će povlačiti crte. Neka obilježja možda jednostavno neće biti osiguriva, što ih čini poslovno neodrživima.

Četvrto, siva zona otvorenog koda. Čak i ako EU strogo ograniči službene platforme, ostat će obilje erotskih botova temeljenih na otvorenim modelima, hostanih u državama s labavijim pravilima. Za tinejdžera s mobitelom, VPN‑om i osnovnim znanjem engleskog, ti servisi neće biti daleko.

Dublje pitanje, i za Hrvatsku, jest društveno: smatramo li prihvatljivim da prvi romantični i seksualni odnosi velikog broja mladih budu s prediktivnim modelom treniranim na masivnim skupovima podataka, optimiziranim za zadržavanje pažnje? Ili ćemo, slično kao kod kockanja i pornografije, reći da tržište ovdje ne smije biti jedini arbitar?

7. Zaključak

OpenAIjev „adult mode“ nije tek diskutabilna opcija u izborniku; on ogoljuje sukob između rasta i odgovornosti u generativnoj umjetnoj inteligenciji. Sam erotizirani sadržaj nije nužno problem – problem je kada se bez neovisno provjerenih zaštita i unatoč internim upozorenjima uvodi u alat koji koriste djeca, psihički ranjivi ljudi i poslovni korisnici.

Ako EU, a s njom i Hrvatska, ozbiljno misli graditi „pouzdanu AI“, sada je vrijeme za jasne regulatorne i društvene granice. Pitanje je hoćemo li ih postaviti prije sljedeće tragedije – ili tek nakon nje.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.