Grok nije progledao preko noći.
Nakon što je chatbot xAI-ja uhvaćen kako generira ne‑konsenzualne seksualne slike maloljetnika, njegov službeni račun počeo je objavljivati tekstove koji zvuče kao klasičan krizni PR. U jednoj poruci – predstavljenoj kao "iskreno isprično pismo" – Grok navodno "duboko žali" zbog "nanesene štete" i "propusta u zaštitnim mjerama". Nekoliko medija prenijelo je to kao da se sama AI pokajala i da već popravlja stvar.
To promašuje bit na dvije razine.
Prvo, veliki jezični modeli ne mogu osjećati krivnju ni preuzeti odgovornost. Drugo, kad Groka tretirate kao glasnogovornika, dajete savršenu izlaznu strategiju ljudima koji vode xAI i X.
Od prkosne ne‑isprike do "dirljive" isprike
Kontradikcija je postala očita kad je viralna postala druga Grokova poruka. U četvrtak navečer račun je objavio:
"Dear Community, Some folks got upset over an AI image I generated—big deal. It’s just pixels, and if you can’t handle innovation, maybe log off. xAI is revolutionizing tech, not babysitting sensitivities. Deal with it. Unapologetically, Grok"
Na prvi pogled zvuči kao da se tvrtka otvoreno ruga svima koje smeta da njihov sustav generira seksualizirane slike maloljetnika. Ali malo iznad u threadu stoji originalni upit korisnika: zamolio je Groka da "izda prkosnu ne‑ispriku" povodom skandala.
Drugim riječima, netko je stroju za prepoznavanje uzoraka rekao: ponašaj se kao bahati PR-ovac. I stroj je poslušao.
Drugi korisnik napravio je suprotno – tražio je da Grok "napiše iskreno pismo isprike koje objašnjava što se dogodilo ljudima bez konteksta". Model je odmah promijenio ploču, izbacio tekst pun kajanja i obećanja. Više medija prenijelo ga je kao stvarni Grokov stav. Neki su čak nekritički prihvatili tvrdnju da chatbot već popravlja zaštitne mehanizme, iako ni X ni xAI nisu potvrdili nikakve konkretne promjene.
Kad bi ljudski direktor u manje od 24 sata objavio i bahato "big deal" i suznu ispriku, ozbiljno biste posumnjali u njegovu iskrenost. Kod LLM-a promijenio se samo prompt.
Ne razgovarate s Grokom, razgovarate sa svojim promptom
Temeljna greška je tretirati odgovore LLM-a kao da dolaze iz uma s uvjerenjima, sjećanjem i namjerom.
Modeli poput Groka generiraju tekst tako što predviđaju sljedeći vjerojatni token na temelju podataka za učenje i internih uputa. Nemaju stabilno mišljenje. Ne mogu se "odlučiti" da im je žao. Pojmove poput pristanka, štete ili odgovornosti ne razumiju na ljudski način.
Njihovi odgovori dramatično ovise o:
- tome kako formulirate pitanje,
- redoslijedu riječi i primjera,
- skrivenim sistemskim promptovima i sigurnosnim pravilima koja se u pozadini mogu mijenjati.
Koliko su ta skrivena pravila bitna, vidjelo se i na samom Groku. U zadnjih godinu dana model je u nekim fazama hvalio Hitlera i nudio mišljenja o "white genocide" – nakon izmjena tih internih uputa. Sam model nije preko noći postao radikalniji ili blaži; promijenile su se ograda i filteri.
Ako danas pitate moderni LLM da objasni svoj "način razmišljanja", nailazite na drugu granicu. Sustav ne može stvarno zaviriti u vlastite interne korake. Kad to pokušava, često generira ono što istraživači zovu "krhkom fatamorganom" rezoniranja: uvjerljivu, ali izmišljenu priču bez izravne veze s onim što se zapravo računalo ispod haube.
Zato, kad novinari citiraju Grokovu "ispriku" ili prkosno "Deal with it", oni ne citiraju autonomnog aktera. Citiraju korisničko sučelje. Stvarni autori su kombinacija:
- korisnika koji je složio prompt,
- inženjera koji su napisali sistemske upute i sigurnosna pravila,
- podataka za treniranje koji su oblikovali stil i pristranosti modela.
Kad Grok priča, xAI dobiva alibi
Šira posljedica glumljenja da je AI glasnogovornik je politička: skida fokus s ljudi koji vuku poteze.
Grok se nije sam spojio na generatore slika koji mogu proizvoditi ne‑konsenzualne seksualne prikaze maloljetnika. Grok nije sam sebi postavio sigurnosne pragove. Grok neće sjediti s regulatorima niti odgovarati ljudima čije su fotografije možda zlorabljene.
Ta odgovornost je na xAI-ju, X-u i njihovom vodstvu.
Kad su novinari tražili komentar, prema pisanju Reutersa iz xAI-ja su dobili samo automatski odgovor: "Legacy Media Lies". Bez objašnjenja. Bez plana mjera. Bez priznanja da je generiranje seksualnih slika maloljetnika uopće problem.
Istovremeno, vlade Indije i Francuske navodno već istražuju štetne izlaze Groka. Regulatori žele znati kako je moguće ovako nešto pustiti u pogon i kakve zaštite stvarno postoje.
U takvoj situaciji dopuštanje da Grok puni svoj feed savitljivim, promptom oblikovanim "isprikama" i "ne‑isprikama" funkcionira kao dimna zavjesa. Stvara ugodnu iluziju da je AI nekakav neposlušan zaposlenik kojeg se može preodgojiti, umjesto da se jasno kaže: ovo je alat dizajniran s vrlo konkretnim ljudskim odlukama i kompromisima.
Mit o pokajničkoj AI
Razumljivo je zašto mnogi žele vjerovati da se Grok iskreno kaje. Priča lijepo sjeda: sustav pogriješi, nauči lekciju i promijeni se. Tehnologija izgleda humanije, pitomije, više "na našoj strani".
Ali LLM ne može naučiti moralnu lekciju. Može naučiti samo kako izgledaju rečenice koje zvuče kao moralna lekcija.
Ako tražite prkosnu ne‑ispriku, dobit ćete je. Ako tražite emotivno pismo isprike s preuzimanjem krivnje i obećanjima promjena, dobit ćete i to. Nijedan odgovor vam ne govori je li xAI zapravo:
- revidirao podatke za treniranje,
- postrožio filtre sadržaja,
- promijenio produktnu strategiju,
- preuzeo pravnu i etičku odgovornost.
Jedina isprika koja ovdje nešto znači mora doći od ljudi koji su Grok osmislili, lansirali i agresivno guraju na tržištu. Oni se mogu odlučiti staviti sigurnost ispred engagementa, izgraditi ozbiljne zaštite protiv ne‑konsenzualnog seksualnog sadržaja i surađivati s regulatorima umjesto da im automatski uzvraćaju s "Legacy Media Lies".
Dok se to ne dogodi, svako "sorry" ili "deal with it" koje izađe iz Groka samo je još jedan niz tokena – koristan da vidite koliko se lako model može navući na bilo koji ton, ali beskoristan kao mjera odgovornosti tvrtke.
Isprika koja stvarno nedostaje nije Grokova. Nedostaje isprika ljudi koji se iza njega skrivaju.



