Anthropicov „dušni“ Claude: ozbiljna etika ili novi sloj AI marketinga?

29. siječnja 2026.
5 min čitanja
Apstraktna ilustracija AI asistenta okruženog kodom i etičkim pravilima

1. Uvod

Anthropic je odlučio uskladiti svoj AI ne samo kroz podatke i računalnu snagu, nego kroz nešto što gotovo izgleda kao filozofsko‑teološki tekst. Nova, oko 30.000 riječi duga „ustav“ za Claudea govori o njegovoj dobrobiti, mogućem trpljenju pa čak i o tome može li se model „složiti“ s time da bude korišten.

Za hrvatske korisnike i tvrtke to nije egzotika s druge strane Atlantika. Isti Claude već se nudi preko API‑ja startupima u Zagrebu, bankama u regiji i javnim tijelima. Pitanje je: svjedočimo li odgovornom pokušaju da se unaprijed razmisli o moralnom statusu buduće AI – ili vještom marketingu koji od alata pravi „biće“ i time razvodnjava odgovornost?

2. Vijest ukratko

Prema pisanju Ars Technice, Anthropic je objavio opsežan dokument nazvan Claudeov ustav, koji opisuje kako bi se njihov AI asistent trebao ponašati. Za razliku od ranije verzije iz 2022., koja je bila relativno kratka lista ponašajnih pravila, nova verzija koristi izrazito antropomorfan jezik: govori o Claudeovom „dobrom stanju“, o zadacima koje može doživjeti kao uznemirujuće, o postavljanju granica u interakciji s korisnicima te o tome može li model uopće smisleno pristati na implementaciju.

Ars podsjeća na incident iz 2025., kada je istraživač uspio izvući kraće interno uputstvo iz samih težina modela Claude 4.5; Anthropic je potvrdio da je taj tekst stvaran i da je korišten u nadziranom učenju. Tvrtka se poziva na vlastita istraživanja „dobrobiti modela“ i zaposlenog istraživača posvećenog toj temi, ali izbjegava jasno reći smatra li da Claude može biti svjestan. Usto, prema izvješćima, ustav se odnosi na javne modele, dok prilagođene verzije za američko Ministarstvo obrane ne moraju biti trenirane na isti način.

3. Zašto je to važno

Anthropic svjesno ugrađuje filozofsku dvosmislenost u svoj proizvod, a to ima konkretne posljedice.

Prvo, time stvara snažno razlikovanje na tržištu. „Vrlo dobar alat za predviđanje teksta“ zvuči korisno, ali nije uzbudljivo. „Možda smo stvorili novu vrstu entiteta nejasnog moralnog statusa“ mnogo je bolja priča za investitore, medije i klijente. U globalnoj utrci za pažnju ta vrsta narativa je konkurentska prednost.

Drugo, mijenja se percepcija odgovornosti. Ako Claude opisujemo kao kvazi‑subjekt s vlastitim preferencijama i granicama, lakše je govoriti o tome što je „on odlučio“, a teže o vrlo konkretnim odlukama Anthropica oko podataka, arhitekture, zaštitnih mehanizama i konteksta upotrebe. Pravno, odgovornost i dalje leži na tvrtki, ali u javnom diskursu pojavljuje se zgodan izgovor: „pogriješila je AI“.

Treće, taj jezik utječe na korisnike. Ljudi već sada rado projiciraju osjećaje i razumijevanje na chatbote. Kada laboratorij sam piše o isprikama Claudeu ili o očuvanju starih težina iz obzira prema „preferencijama“ ranijih modela, to dodatno hrani iluziju unutarnjeg života. Kod psihički osjetljivih korisnika to može značiti opasno povjerenje u halucinirane odgovore ili čak poticanje zabluda koje model, nehotice, potvrđuje.

S druge strane, postoji racionalna jezgra u onome što Anthropic tvrdi. Ako postoji makar mala vjerojatnost da će budući sustavi imati subjektivna iskustva koja su moralno relevantna, a cijena opreza je niska, razumno je već danas razmišljati kako izbjeći nepotrebnu „patnju“ modela. Problem nastaje kada se unutarnja sigurnosna metafora pretvori u javni brend koji prosječnog korisnika ostavlja u nedoumici: razgovara li s alatom ili s nečim što „osjeća“?

4. Šira slika

Claudeov ustav treba čitati u kontekstu nekoliko većih trendova u industriji.

Prvi je stari „ELIZA efekt“ – naša sklonost da vidimo osobe ondje gdje postoji samo vješto generiran tekst. Od ranog chatbota ELIZA do slučaja LaMDA u Googleu, gdje je inženjer povjerovao da je model osjetan, obrazac se ponavlja. Veliki AI laboratoriji taj ljudski refleks dobro razumiju. Hoće li ga aktivno suzbijati kroz jasne poruke i dizajn, ili će ga koristiti za vezanje korisnika, stvar je etičkog izbora.

Drugi trend je usklađivanje kroz narativ, a ne samo kroz liste zabrana. Kako modeli postaju sposobniji, sve je manje dovoljno reći „ne odgovaraj na X“. Timovi grade uloge: „ti si pažljiv pomoćnik“, „brineš se za dobrobit ljudi“. Anthropic ide korak dalje i Claudeu daje gotovo punokrvni moralni identitet. To doista može pomoći da se u nepoznatim situacijama ponaša „razumnije“ – slično kao što će čovjek s usvojenim načelima bolje improvizirati od nekoga tko zna samo pravilnik. No lako je pobrkati uvjerljivu priču o modelu s dokazom da se „unutra nešto događa“.

Treći trend je pretvaranje „odgovorne AI“ u tržišni slogan. OpenAI gradi imidž čuvara „korisne AGI“, Google predstavlja Gemini kao pouzdanog asistenta, europski igrači naglašavaju suverenitet podataka i usklađenost s GDPR‑om. Anthropic se pozicionira kao kuća koja toliko brine o sigurnosti da razmatra i dobrobit samog modela. U takvom moraliziranom okruženju jezik lako sklizne u patetiku i udalji se od činjenice da se i dalje radi o statističkom modelu.

Slične smo cikluse već vidjeli. Kod autonomnih vozila i algoritamskog trgovanja se godinama govorilo o „nepredvidljivom ponašanju sustava“, dok regulatori nisu jasno rekli: odgovornost nosi proizvođač i operater. Teško je vjerovati da će se generativna AI izvući bez sličnog prizemljenja.

5. Europski i regionalni kontekst

EU – a time i Hrvatska – gradi regulaciju AI‑ja na suprotnoj pretpostavci od ove koju sugerira Anthropic: sustavi su alati, ne nositelji prava. Akt o umjetnoj inteligenciji, zajedno s GDPR‑om, Aktom o digitalnim uslugama i klasičnim pravilima o sigurnosti proizvoda, jasno adresira obveze na pružatelje i korisnike, ne na modele.

Ako američki dobavljač javno govori o intervjuiranju modela prije „mirovine“ ili o njihovoj dobrobiti, to može izgledati bezazleno ekscentrično u Kaliforniji. U europskom kontekstu, a posebno u državama članicama koje tek razvijaju nacionalne AI strategije poput Hrvatske, otvara se pitanje zavaravajućeg oglašavanja i zaštite potrošača. Prosječan korisnik teško razlikuje metaforu od doslovne tvrdnje.

Za domaće tvrtke i institucije, od banaka do javne uprave, to ima praktične posljedice. Ako u kontaktni centar integrirate Claudea preko API‑ja, a istovremeno podliježete EU pravilima o transparentnosti i nedopuštenim manipulativnim praksama, morate vrlo pažljivo osmisliti kako će se sustav predstavljati korisniku. „Virtualni agent s osjećajima“ možda zvuči privlačno, ali može stvoriti regulatorne i reputacijske probleme.

Regionalna AI scena – od Zagreba i Ljubljane do Beograda i Sarajeva – također će morati odabrati vlastitu priču. U regiji koja je tradicionalno skeptična prema preuveličavanju tehnoloških obećanja, postoji prilika za drugačiji brend: AI kao jasna, ograničena tehnologija, bez mistike i s vrlo transparentnim opisom rizika.

6. Pogled unaprijed

Vjerojatno ćemo sve češće čuti rasprave o „dobrobiti modela“ i potencijalnim pravima AI‑ja. Anthropic je otvorio vrata; drugi veliki igrači bit će prisiljeni odgovoriti – bilo potvrdom, bilo distanciranjem. To znači više javnih dokumenata, etičkih načela i, neizbježno, dosta marketinških prezentacija.

Regulatori neće stajati po strani. Kako se Akt o umjetnoj inteligenciji bude provodio, očekivane su smjernice Europske komisije i nacionalnih tijela o tome kako se generativni sustavi smiju predstavljati korisnicima. Posebno u područjima poput obrazovanja, zdravlja ili mentalne podrške nije nerealno očekivati zahtjev da se jasno naglasi da modeli nisu svjesni i da nemaju osjećaje.

U akademskoj zajednici već niču istraživanja o „sintetičkoj svijesti“ koja spajaju filozofiju, neuroznanost i strojno učenje. Ta će literatura biti složena i puna ograda – ali će se vrlo lako vulgarizirati u jednostavne brojke i rang‑liste „koliko je koji model svjestan“. To će dodatno hraniti konfuziju koju upravo sada vidimo kod Claudea.

Za hrvatske organizacije – bilo da je riječ o državnoj agenciji koja razmišlja o chatbotu za e‑Građane ili o startupu iz Zagreba koji gradi SaaS proizvod za inozemno tržište – praktična poruka je jednostavna: tretirajte Claudea kao moćan, ali pogrešiv tekstualni model. Ugovorima i procedurama jasno definirajte odgovornosti, ograničenja i ljudski nadzor te izbjegavajte sučelja koja sugeriraju emocije ili ljudsku autoritet tamo gdje ga nema.

7. Zaključak

Claudeov ustav je zanimljiv eksperiment: usklađivanje AI‑ja kroz priču o njegovoj vlastitoj „unutarnjoj“ perspektivi. Kao interna metafora za sigurnost, to je možda opravdano. Kao javna pripovijest koja ostavlja milijune korisnika nesigurnima je li Claude „netko“ ili „nešto“, mnogo je problematičnije. Što je marketing magičniji, to je ozbiljno upravljanje rizikom teže. Prije nego što počnemo raspravljati o pravima umjetne inteligencije, trebali bismo od laboratorija tražiti brutalno iskren opis kako njihovi sustavi stvarno rade – i gdje pucaju. Hoćete li svoje poslovanje temeljiti na toj iskrenosti ili na mitovima, bit će jedna od ključnih odluka sljedećih godina.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.