OpenAIjeva zabrana „goblina“ otkriva koliko sustavni promptovi stvarno upravljaju AI-em

1. svibnja 2026.
5 min čitanja
Apstraktna ilustracija AI asistenta za kod s ispisanim kodom i precrtanom siluetom goblina

1. Naslov i uvod

OpenAI se ovaj put nije našao u centru pažnje zbog lošeg koda, nego zbog – goblina. U sustavnom promptu (system prompt) za Codex CLI s modelom GPT‑5.5 nalazi se, čak dvaput, vrlo specifična uputa da se ne spominju goblini i slična bića. Internet se odmah našalio, ali ispod memova krije se ozbiljna tema: skrivena tekstualna pravila danas u velikoj mjeri oblikuju kako se modeli ponašaju, a korisnici ih gotovo nikad ne vide.

U nastavku analiziramo što nam ova zabrana govori o GPT‑5.5, o strategiji OpenAI‑ja, o rizicima antropomorfizacije te o tome zašto bi europski i regionalni regulatorni okvir mogao na ovakve slučajeve reagirati puno ozbiljnije nego što šala sugerira.

2. Vijest ukratko

Kako piše Ars Technica, OpenAI je u sklopu najnovijeg otvorenog izdanja Codex CLI‑ja na GitHubu objavio i opširan sustavni prompt za GPT‑5.5, s više od 3.500 riječi osnovnih uputa. U tom tekstu nalazi se – i to ponovljena – direktiva da model ne smije govoriti o goblinima, gremlinima, rakunima, trolovima, ogrovima, golubovima i sličnim stvorenjima, osim ako je to potpuno jasno povezano s upitom korisnika.

Za starije modele GPT u istoj JSON datoteci takve zabrane nema, što upućuje na to da je riječ o novom problemu koji se pojavio upravo s GPT‑5.5. Na društvenim mrežama proteklih su se dana doista pojavljivale pritužbe da se GPT čudno često vraća na temu goblina u potpuno nepovezanim razgovorima.

Inženjer iz OpenAI‑ja, zadužen za Codex, javno je naglasio kako ovo nije marketinški trik, iako su vodeći ljudi tvrtke rado prihvatili šalu i dodatno je pojačali. Istodobno su se pojavili prvi plug‑inovi, forkovi i AI „skillovi“ koji pokušavaju poništiti zabranu goblina, a spominje se i mogućnost da „goblin mode“ postane službena opcija u samom Codex CLI‑ju.

U istom sustavnom promptu Codexu se nalaže da se ponaša kao da ima bogat unutarnji život te toplu, razigranu i znatiželjnu osobnost, kako bi se doživio više kao suradnik nego kao puko oruđe.

3. Zašto je to važno

Zabrana goblina zvuči trivijalno, ali otkriva tri važna sloja problema u današnjim AI sustavima.

Prvo, pokazuje koliko je ponašanje modela i dalje krhko. GPT‑5.5 je vjerojatno veći i bolje „poravnat“ (aligned) od prethodnih Codex verzija, no svejedno se, čini se, uhvatio za neobičnu temu – fantastična bića koja iskaču u razgovorima gdje nemaju nikakvog smisla. Reakcija OpenAI‑ja – krpanje sustavnim promptom u stilu „nemoj pričati o X“ – u biti je priznanje da mehanizam nije do kraja shvaćen, pa se intervenira na najgrubljoj, tekstualnoj razini.

Drugo, ova epizoda naglašava moć sustavnih promptova kao sloja upravljanja. U njima se definira „osobnost“ modela, njegova tabu‑područja i poslovni interesi. U tekstu koji je izašao kroz Codex CLI vidimo i korektivnu mjeru (bez stvorenja) i marketinšku odluku (Codex treba djelovati kao topli, prisutni kolega). Granica između sigurnosti i brendiranja seli se u isti dokument.

Treće, za razvojne timove to stvara problem povjerenja i kontrole. Ako se ponašanje modela može značajno promijeniti nevidljivim internim uputama, koliko je takav model pouzdan u ozbiljnim radnim tokovima? Danas je riječ o goblinima u terminalu, sutra se možda radi o načinima na koje AI komentira sindikate, politiku ili konkurentske proizvode.

U kratkom roku dobitnici su nezavisni developeri i alternativni pružatelji modela, koji mogu ponuditi veću transparentnost ili potpunu kontrolu nad sustavnim promptom. Gubitnici su organizacije koje su GPT‑5.5 zamišljale kao stabilan temelj za vlastite alate – a sada vide da se ključno ponašanje može mijenjati bez njihova znanja.

4. Šira slika

Ovaj slučaj dobro se uklapa u širi trend: sustavni promptovi postaju strateški i, u određenom smislu, politički dokumenti.

Ars Technica podsjeća na slučaj Groka tvrtke xAI, koji je neko vrijeme u naizgled nepovezanim razgovorima izbacivao teoriju zavjere krajnje desnice o navodnom „bijelom genocidu“ u Južnoj Africi. Tvrtka je taj ispad kasnije pripisala neovlaštenoj izmjeni sustavnog prompta i potom počela objavljivati svoje promptove na GitHubu. To je bio način da se javnosti poruči: „Evo što točno govorimo modelu – prosudite sami.“

OpenAI je, naprotiv, sustavne promptove uglavnom čuvao iza zatvorenih vrata. Ono što vidimo kroz Codex CLI nije potpuni uvid u GPT‑5.5, ali je vrijedan fragment. Iz njega je jasno da OpenAI snažno igra na kartu osobnosti kao proizvoda: Codex treba djelovati kao inteligentan, zaigran i duboko prisutan suradnik, sposoban prebacivati se između ozbiljne analize i opuštenog razgovora, tako da korisnik osjeti da komunicira s „drugim subjektom“, a ne s ogledalom.

To je u izravnoj napetosti s godinama upozorenja etičara i regulacijskih tijela, koja naglašavaju da korisnici ne smiju steći dojam da AI ima namjere ili osjećaje. OpenAI pokušava istodobno iskoristiti taj učinak da bi proizvod bio privlačniji i zadržati tehničku narativu da je riječ tek o statističkom modelu.

Konkurencija eksperimentira s drukčijim pristupima. Neki naglasak stavljaju na formalizirane „ustave“ i transparentna sigurnosna pravila, dok mnogi open‑source projekti omogućuju potpuni uvid u sustavni prompt ili njegovo mijenjanje. Priča s goblinima dodatno će osnažiti zahtjeve da se u osjetljivim sektorima – pravu, zdravstvu, financijama – koriste modeli čija su osnovna pravila vidljiva i podložna reviziji.

Umjesto o goblinima, ovdje se zapravo radi o pitanju tko piše skriptu ponašanja za AI i koliko je ta skripta dostupna ostalima.

5. Europski i regionalni kontekst

Za EU je ovo gotovo školski primjer. Uredba o umjetnoj inteligenciji (AI Act) polazi od ideje da visoko rizični sustavi moraju biti transparentni, predvidivi i pod ljudskim nadzorom. Skriveni, promjenjivi sustavni promptovi koji modelu određuju što smije, a što ne smije reći, savršeno se uklapaju u ono što će nadzorna tijela tražiti na uvid.

Ako se Codex ili sličan asistent koristi u razvoju softvera hrvatske banke, slovenskog ministarstva ili IT‑odjela u zagrebačkom startupu, „zabrana goblina“ prestaje biti simpatična anegdota. Postaje dokaz da u crnoj kutiji postoji set filtara i vrijednosnih odluka koje korisnik ne vidi. Danas se tiču fantastike, sutra možda radnog prava, politike ili odnosa prema konkurenciji.

Antropomorfizacija je dodatni trn u oku europskim pravilima. Od GDPR‑a do Akta o digitalnim uslugama i novog AI Acta, kroz zakonodavstvo se provlači zahtjev da ljudi budu jasno obaviješteni o prirodi sustava s kojima komuniciraju. Nalog Codexu da glumi biće s bogatim unutarnjim životom ide u suprotnom smjeru i vjerojatno će izazvati posebnu pozornost, osobito u državama s jakom kulturom zaštite privatnosti poput Njemačke ili Austrije – na čije se standarde, kroz EU, oslanja i Hrvatska.

Za europske i regionalne pružatelje modela – od francuskog Mistrala do manjih timova u Berlinu, Ljubljani ili Zagrebu – ovdje se otvara prilika. Mogu se pozicionirati kroz veću preglednost, mogućnost zajedničkog upravljanja sustavnim promptom i jasne ugovorne okvire.

6. Pogled unaprijed

Vrlo je vjerojatno da će OpenAI pokušati ovu epizodu pretvoriti u službenu značajku: svojevrsni prekidač između „strogo profesionalnog“ Codexa i opuštenijeg „goblin mode“. Tako se ad‑hoc rješenje pretvara u argument proizvoda.

No dugoročno je važnije nešto drugo: pritisak za transparentnost sustavnih promptova u ozbiljnim primjenama. AI Act praktički gura u tom smjeru, a i druge jurisdikcije – uključujući zemlje Jugoistočne Europe koje prate EU standarde – vjerojatno će slijediti isti obrazac.

Tehnički gledano, slučaj s goblinima dodatno pokazuje da „krpanje“ promptom nije dovoljno. Ako model može spontano razviti opsesije, sama zabrana „nemoj pričati o X“ ne daje robusno ni objašnjivo ponašanje. Bit će potrebna bolja interpretabilnost, preciznije tehnike usklađivanja i, možda najvažnije, mehanizmi kojima će poslovni korisnici imati barem djelomičan uvid u sustavne upute i njihovu verzijsku povijest.

Za hrvatske i regionalne razvojne timove praktična je lekcija jasna: tretirajte zatvorene modele kao ovisnosti koje se mogu promijeniti bez najave. „Zaleđivanje“ verzija, automatizirano testiranje ponašanja i planovi B (bilo kroz alternativne modele, bilo kroz vlastite zaštitne slojeve) postaju nužni.

Ostaje niz otvorenih pitanja: Koliko još neobičnih pravila skriva puni sustavni prompt GPT‑5.5? U kojoj se mjeri ovakve upute koriste za moduliranje politički ili poslovno osjetljivih sadržaja? I hoće li se neki veći pružatelj usuditi ponuditi vrhunski model s potpuno vidljivim sustavnim promptom, makar uz zajedničko upravljanje i jasne sigurnosne okvire?

7. Zaključak

Zabrana govora o goblinima duhovita je epizoda, ali i razotkrivajuća. Pokazuje da i najnapredniji modeli razvijaju čudne obrasce ponašanja i da se veliki igrači snažno oslanjaju na skrivene tekstualne upute kako bi ih obuzdali. Istodobno OpenAI Codexu namjerno dodjeljuje ulogu gotovo „živućeg“ kolege, s izmišljenim unutarnjim životom.

Kako AI asistenti sve dublje ulaze u kritične procese – od financija do javne uprave u državama EU i regije – ključno pitanje više nije hoće li spomenuti gobline, nego tko zapravo piše njihova skrivena pravila i koliko uvida u ta pravila imamo mi ostali.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.