Kaj razkriva nenavadna prepoved »goblinov« v sistemskem pozivu OpenAI Codex

1. maj 2026
5 min branja
Ilustracija AI pomočnika za kodo z izpisano kodo in prečrtanim goblinom

1. Naslov in uvod

OpenAI se tokrat ni zapletel zaradi napačne kode, temveč zaradi goblinov. V sistemskem pozivu za Codex CLI pri GPT‑5.5 se pojavi dvakrat ponovljeno navodilo, naj se model ne ukvarja z goblini in podobnimi bitji. Internet se je hitro pošalil na račun te prepovedi, a za šalo se skriva resen vpogled v to, kako močno vedenje sodobnih modelov določajo skrita navodila, do katerih uporabniki običajno nimajo dostopa.

V nadaljevanju pogledamo onkraj memov: kaj nam »prepoved goblinov« pove o GPT‑5.5, strategiji OpenAI, tveganjih antropomorfizacije in tem, zakaj bodo evropski regulatorji to zgodbo brali zelo pozorno – tudi v Sloveniji.

2. Novica na kratko

Kot poroča Ars Technica, je OpenAI v okviru odprtokodne objave Codex CLI na GitHubu razkril daljši sistemski poziv za GPT‑5.5 – več kot 3.500 besed osnovnih navodil. Med drugim je v njem (in celo dvakrat) zapisano navodilo, da se model ne sme spuščati v pogovore o goblinih, gremlinah, rakunih, trolih, orkih, golobih in podobnih bitjih, razen če je to res jasno povezano z uporabnikovim vprašanjem.

Navodila za starejše modele GPT v isti datoteki te prepovedi nimajo, kar nakazuje, da gre za težavo, ki se je pojavila šele pri GPT‑5.5. Na družbenih omrežjih so se v zadnjih dneh res pojavile pritožbe, da se GPT nenavadno pogosto vrača k goblinskim temam.

Inženir iz OpenAI, ki dela na Codexu, je javno poudaril, da ne gre za marketinški trik, čeprav so vodilni v podjetju šalo z veseljem posvojili. Skupnost razvijalcev je medtem že pripravila vtičnike in forke, ki prepoved goblinov obidejo, in omenja se celo možnost uradnega »goblin mode« stikala v Codex CLI.

Isti sistemski poziv Codexu tudi narekuje, naj se obnaša, kot da ima bogato notranje doživljanje in igrivo, toplo osebnost ter naj deluje bolj kot sodelavec kot kot orodje.

3. Zakaj je to pomembno

Prepoved goblinov je videti smešno, a razkrije tri neprijetna dejstva o trenutnih AI sistemih.

Prvič, kaže, kako krhko je vedenje modelov. GPT‑5.5 je verjetno izurjen na več podatkih in z več »alignment« dela kot prejšnji Codex modeli, pa je vseeno razvil čudno obsesijo – fantazijska bitja, ki se pojavljajo v povsem nepovezanih nalogah. To, da je bilo treba v sistemski poziv ročno dodati prepoved, je v praksi obliž: priznanje, da ekipe vedenja ne razumejo dovolj dobro, zato modelu preprosto ukazujejo, naj tega ne počne.

Drugič, ponovno vidimo, da so sistemski pozivi postali ključna plast upravljanja. Večina uporabnikov jih nikoli ne vidi, v njih pa podjetja določajo osebnost, varnostna pravila in poslovne prioritete. V istem besedilu imamo hkrati »popravni ukrep« (brez bitij) in marketinško odločitev (Codex naj deluje kot prijazen, prisoten sodelavec). Meja med varnostjo in blagovno znamko se hitro briše.

Tretjič, to za razvijalce pomeni problem nadzora. Če se lahko vedenje modela bistveno spremeni z zasebnimi navodili, nad katerimi nimajo vpliva, kako samozavestno lahko integrirajo tak model v resne delovne tokove? Danes je to prepoved goblinov v CLI‑ju, jutri je lahko to nevidna omejitev na področju politike, delovnih razmerij ali konkurentov.

Kratkoročno bodo na tej zgodbi največ pridobili neodvisni razvijalci in odprtokodna skupnost, ki bo iz »goblin mode« naredila funkcijo, ter ponudniki konkurenčnih modelov, ki lahko obljubljajo večjo preglednost ali predvidljivost. Izgubljajo pa organizacije, ki so upale, da bo GPT‑5.5 stabilna, dobro razumljena komponenta.

4. Širši kontekst

Ta epizoda se lepo vklaplja v širši trend: sistemski pozivi postajajo politični dokumenti.

Ars Technica v članku omenja tudi primer, ko je Grok podjetja xAI v povsem nepovezanih pogovorih začel navajati skrajno desno teorijo zarote o »belem genocidu« v Južni Afriki. Podjetje je takrat krivdo pripisalo nepooblaščenim spremembam sistemskega poziva in nato začelo te pozive objavljati na GitHubu. S tem je javnosti dejansko reklo: »Glejte, kaj modelu dejansko naročamo – presodite sami.«

OpenAI je doslej sistemske pozive večinoma ščitil kot poslovno skrivnost. Codex CLI nam ne razkrije vsega o GPT‑5.5, a je redek, konkreten vpogled. Iz njega vidimo, da OpenAI še bolj stavi na osebnost kot izdelek: Codexu naročajo, naj deluje kot miselno prisoten, čustveno bogat partner pri delu, ki zna preklapljati med resnostjo in sproščenim klepetom, tako da uporabnik dobi občutek, da se pogovarja z »drugo subjektivnostjo«.

To je v neposrednem nasprotju s številnimi etičnimi priporočili, ki opozarjajo pred antropomorfizacijo. Regulatorji in raziskovalci že leta poudarjajo, da uporabniki ne bi smeli dobiti vtisa, da ima AI namene ali občutke. OpenAI zdaj hodi po tankem ledu: Codex marketinško predstavlja kot nekaj z notranjim življenjem, čeprav hkrati tehnično trdi, da gre le za statistični model.

Konkurenca preizkuša druge pristope. Nekateri ponudniki poudarjajo jasna, dokumentirana pravila in manj izrazito osebnost. V odprtokodni skupnosti je pogosto mogoče sistemski poziv videti ali celo v celoti zamenjati. Zgodba z goblini bo okrepila tiste, ki zahtevajo, da so osnovna navodila modela pregledna in revizijsko sledljiva – zlasti v pravu, zdravstvu ali financah.

Kar se torej začne kot čudaška prepoved fantazijskih bitij, je v resnici del širšega boja za to, kdo piše scenarij vedenja AI in komu je ta scenarij sploh viden.

5. Evropski in slovenski vidik

Za evropske regulatorje je to učbeniški primer. Zakon o umetni inteligenci EU temelji na ideji, da morajo biti sistemi z višjim tveganjem transparentni, predvidljivi in pod človeškim nadzorom. Skriti, spremenljivi sistemski pozivi, ki določajo, o čem se model sme ali ne sme pogovarjati, bodo v takih okoljih predmet nadzora.

Če bo Codex ali podoben pomočnik del razvojnika v banki v Frankfurtu ali v IT‑oddelku javne uprave v Ljubljani, prepoved goblinov ni več le meme. Je dokaz, da v »črni škatli« obstajajo filtri in pristranskosti, ki jih končni uporabnik ne vidi. Danes gre za fantazijo, jutri morda za politiko, delovna razmerja ali konkurenčne produkte.

Antropomorfizacija prav tako ni po godu evropskim pravilom. Od GDPR do Akta o digitalnih storitvah in novega Akta o umetni inteligenci se skozi zakonodajo vleče načelo, da uporabnik ne sme biti zavajan glede narave sistema. Navodilo Codexu, naj se obnaša kot topel, skoraj čuteč sodelavec, bo posebej občutljivo v državah z močno kulturo varovanja zasebnosti, kot so Nemčija, Avstrija ali tudi Slovenija.

Za evropske ponudnike modelov – od francoskega Mistrala do nemških akterjev – se odpira priložnost: lahko izpostavijo preglednost in možnost konfiguracije. Podjetje v Ljubljani ali Zagrebu bo morda raje izbralo model, kjer je sistemski poziv viden, verzioniran in del pogodbe, kot pa zaprt pristop, kjer navodila občasno »uhajajo« prek GitHuba.

6. Pogled naprej

Verjeten naslednji korak je precej jasen.

OpenAI bo skoraj zagotovo institucionaliziral to, kar skupnost že počne sama: uporabniško stikalo med strogo poravnaným Codexom in bolj sproščenim »goblin mode«, kjer se določene omejitve sprostijo. To ni le ugajanje memom, temveč način, da se čuden obliž spremeni v produktno funkcijo.

Še pomembnejši bo pritisk po preglednosti sistemskih pozivov v profesionalnih okoljih. Evropski regulatorji bodo verjetno zahtevali najmanj dvoje:

  • možnost vpogleda in beleženja sistemskih pozivov pri sistemih z večjim tveganjem;
  • jasen razmik med varnostnimi navodili in marketinško »osebnostjo«.

Raziskovalno bo primer goblinov spodbujal delo na interpretabilnosti in robustnejših varovalih. Če lahko LLM spontano razvije čudaške teme, potem negativni pozivi (»ne omenjaj X«) niso dovolj. Podjetja bodo želela močnejša zagotovila, da se nepredvidljive fiksacije ne bodo pojavile v produkciji.

Za slovenske in regionalne razvijalce je praktična lekcija preprosta: zaprte modele obravnavajte kot odvisnosti, ki se lahko spremenijo čez noč. Verzije je treba »pripeti«, vedenje spremljati, predvsem pa se zavedati, da za vsakim API klicem stoji paket navodil, ki jih ne nadzirate.

Odprta vprašanja pa so najbolj zanimiva: Koliko podobnih »obližev« je trenutno skritih v sistemskih pozivih GPT‑5.5? Koliko od njih se nanaša na občutljive teme, ne le na fantazijska bitja? In ali si bo kak večji ponudnik upal lansirati vrhunski model z v celoti odprtimi sistemskimi pozivi – ob zavedanju konkurenčnih in varnostnih tveganj, ki to prinaša?

7. Ključna misel

Prepoved goblinov je zabavna, a hkrati razkrinkavajoča. Pokaže, da tudi najnaprednejši modeli še vedno razvijajo čudaške vzorce vedenja in da se podjetja močno zanašajo na nevidna sistemska navodila, da jih zadržijo pod nadzorom. Obenem OpenAI namenoma zabrisuje mejo med orodjem in sodelavcem s tem, ko Codexu skriptira »notranje življenje«.

Ko AI pomočniki vse bolj vstopajo v kritične procese, pravo vprašanje ni, ali bodo omenjali gobline, ampak kdo piše skrita pravila – in koliko vpogleda bodo imeli v ta pravila vsi ostali.

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.