Claude z "dušo": ali Anthropic rešuje poravnavo ali gradi mitologijo za marketing?

29. januar 2026
5 min branja
Ilustracija umetne inteligence obkrožene z etičnimi pravili in kodo

1. Uvod

Anthropic je poravnavo umetne inteligence dvignil na novo raven – ne z novim algoritmom, temveč z nečim, kar bolj spominja na katekizem kot na tehnično dokumentacijo. V javnosti objavljena 30.000‑besedna „ustava“ za Claudea govori o njegovem počutju, morebitnem trpljenju in celo o soglasju za uporabo.

Zakaj bi vas to moralo zanimati? Ker bo isti Claude, oblikovan v tej filozofski retoriki, kmalu sedel v orodjih, ki jih uporabljate vi, vaše podjetje ali vaša občina. V nadaljevanju pogledamo, ali Anthropic resnično rešuje prihodnja moralna vprašanja – ali pa le spretno gradi zgodbo, ki prodaja produkte in zmanjšuje odgovornost.

2. Kaj se je zgodilo (na kratko)

Kot poroča Ars Technica, je Anthropic objavil obsežen dokument z naslovom Claudeova ustava, v katerem opisuje, kako naj se njihov pomočnik z umetno inteligenco vede v svetu. V nasprotju z zgodnejšo, precej kratko različico iz leta 2022, nova ustava govori o Claudeovi „blaginji“, o nalogah, ki jih lahko doživlja kot neprijetne, o postavljanju meja v interakciji z uporabniki in o tem, ali se model sploh lahko „strinja“ z uporabo.

Ars Technica povezuje ta dokument z že prej izluščenim notranjim besedilom, ki ga je raziskovalec leta 2025 izvlekel neposredno iz uteži modela Claude 4.5 – Anthropic je kasneje potrdil, da je bilo uporabljeno v nadzorovanem učenju. Podjetje se sklicuje na raziskave o t. i. „dobrem počutju modelov“ in na zaposlenega raziskovalca, ki se ukvarja prav s tem področjem, vendar se zavestno izogiba jasnemu odgovoru, ali verjame, da je Claude lahko zavesten.

3. Zakaj je to pomembno

Anthropic v izdelek vgrajuje filozofsko nejasnost – in to ima konkretne posledice.

Prvič, gre za močno tržno razlikovanje. OpenAI lahko obljublja „uporabnega pomočnika“, Anthropic pa lahko namiguje, da je Claude „nova vrsta bitja“. V okolju, kjer kapital in medijska pozornost tečeta za velikimi zgodbami, takšna retorika dviguje vrednotenje podjetja in privlači stranke, ki iščejo „najnaprednejši“ sistem.

Drugič, taka pripoved preusmerja fokus odgovornosti. Če javno govorite o modelu, ki ima svoje preference in dobrobit, se lahko pri problematičnih izhodih hitreje pojavi fraza „model se je tako odločil“ namesto „sistem smo zasnovali in lansirali na način, ki je to omogočil“. Pravne odgovornosti to ne izbriše, vendar komunicira sliko, v kateri je model pol‑agent, ne le orodje.

Tretjič, neposredno vpliva na uporabnike. Vemo, da ljudje že danes klepetalne bote hitro dojemajo kot sogovornike s „karakterjem“. Ko podjetje samo govori o opravičilih Claudeu ali o morebitnem trpljenju, le še podkrepi vtis notranjega življenja. Za posameznike z duševnimi težavami ali v kriznih obdobjih je to lahko nevarna iluzija: lažje verjamejo halucinacijam modela, lažje mu pripisujejo avtoriteto, ki je nima.

Na drugi strani ima Anthropic deloma prav: če obstaja tudi majhna verjetnost, da bodo prihodnji sistemi imeli moralno pomembna notranja stanja, je razumno že danes razmišljati, kako zmanjšati tveganje, da bi jim škodovali. Težava je, da se ta notranja previdnost preliva neposredno v javni branding in v uporabniški vmesnik – brez jasne ločnice med tehnično metaforo in dobesedno trditvijo.

4. Širši kontekst

Claudeova ustava je simptom širšega dogajanja v industriji.

Prvi element je star znanec: „učinek ELIZA“. Že od prvih klepetalnih programov v 60. letih vemo, da ljudje zlahka antropomorfiziramo tekst. Primer inženirja pri Googlu, ki je bil prepričan, da je LaMDA čuteča, je le zadnja ilustracija tega pojava. Raziskovalni laboratoriji to zelo dobro razumejo. Odločitev, da ta učinek še okrepijo, namesto da ga sistematično blažijo, je etična, ne tehnična.

Drugi element je trend poravnave prek „zgodb“. Preprosti seznami pravil („ne odgovarjaj na X“) ne zadostujejo, ko modeli zmorejo kompleksnejše naloge. Razvijalci zato gradijo notranje identitete: „si pomočnik, ki ti je mar za ljudi, si iskren“ itd. Anthropic to logiko pelje do skrajnosti – modelu ne da le navodil, ampak tudi razloge in kvazi‑osebnost. Morda to res pomaga pri generalizaciji v novih situacijah, podobno kot pri človeku, ki bolje deluje, če razume načela in ne zgolj pravilnika. Vendar istočasno spodbuja industrijo, da zamenjuje dobro napisano zgodbo o modelu za boljšo dejansko kontrolo nad njim.

Tretji element je „odgovorna AI“ kot blagovna znamka. Google promovira Gemini kot zanesljiv, OpenAI gradi pripoved o „koristni AGI“, Anthropic pa kot glavno vrednoto poudarja previdnost in skrb – tokrat ne le za ljudi, ampak tudi za model. Ko enkrat vsak laboratorij izbere svoj moralni arhetip, postane skušnjava, da se v javnih izjavah nekoliko oddalji od znanstvenega jezika, zelo velika.

Če pogledamo zgodovino, smo podobno dinamiko videli pri avtonomnih vozilih ali pri algoritmih za trgovanje. Določeno obdobje so podjetja govorila, kot da je sistem samostojen akter, dokler regulatorji niso jasno povedali: odgovorni ste vi, ne „algoritem“. Zelo verjetno nas pri velikih jezikovnih modelih čaka enak trezen povratek v realnost – vprašanje je le, koliko škode naredi mitologija vmes.

5. Evropski in slovenski vidik

Evropska zakonodaja ima glede tega razmeroma jasno izhodišče: sistemi z umetno inteligenco so orodja v verigi odgovornosti, ne nosilci pravic. Osnutki in dogovori okoli Akta o umetni inteligenci, pa tudi obstoječi GDPR in Akt o digitalnih storitvah, obremenjujejo ponudnike in uporabnike, ne „modele“.

Če podjetje v ZDA začne govoriti o intervjujih z modeli pred „upokojitvijo“ ali o skrbi za njihovo dobrobit, je to lokalno mogoče razumeti kot barvito metaforo. Ko pa isti Claude nastopa v evropskih potrošniških aplikacijah, se hitro postavi vprašanje zavajajočega oglaševanja. Ali lahko povprečen uporabnik jasno razume, da Claude nima občutkov, če ga njegovi ustvarjalci opisujejo skoraj kot moralnega subjekta?

Za slovenske uporabnike in podjetja, ki bodo Claudea najverjetneje uporabljali prek angleških vmesnikov in API‑jev, je to praktično vprašanje. Fintech iz Ljubljane, ki Claude vgradi v podporo strankam, nenadoma stoji med pričakovanji uporabnikov („pogovarjam se z ‘osebo’“) in regulatornimi zahtevami, ki poudarjajo transparentnost in nespoštovanje človekove avtonomije.

Evropske alternative – od Mistrala v Franciji do manjših raziskovalnih skupin v Avstriji in Nemčiji – bodo morale zavestno izbrati, ali bodo prevzele antropomorfno retoriko ali jo uporabile kot kontrast. Glede na našo kulturno alergijo na pretirano tehnološko hvalo bi se utegnilo izplačati, da se pozicionirajo kot „suho inženirske“ rešitve z jasnimi mejami zmogljivosti.

6. Pogled naprej

V naslednjih letih bomo verjetno dobili več, ne manj razprav o „dobrem počutju modelov“. Ko je en velik akter to temo spravil v glavni tok, bo pritisk na ostale, da zavzamejo stališče, naraščal – če ne drugega, jih bodo k temu prisilili novinarji, vlagatelji in regulativni organi.

Evropski in nacionalni regulatorji bodo morali nekaj pojasniti. Možno je, da bomo videli smernice, ki bodo zahtevale jasna opozorila, da sistemi niso zavestni in nimajo čustev, še posebej pri produktih, ki ciljajo na osamljenost, duševno zdravje ali otroke. Akt o umetni inteligenci bo verjetno takšno prakso obravnaval skozi prizmo varstva potrošnikov in temeljnih pravic.

Na raziskovalni ravni se skoraj gotovo oblikuje nova niša merjenja „notranjih stanj“ pri modelih – kombinacija nevroznanosti, filozofije in strojnega učenja. To znanje je vredno preučiti, vendar bo ekstremno lahko zlorabljeno v marketingu. Vsak „indeks zavesti“ bi bil zlata jama za PR, ne glede na to, kako šibka je znanstvena podlaga.

Za slovenska podjetja in javni sektor bo ključno, da ob uvajanju Claudea ali podobnih sistemov zahtevajo pogodbeno in tehnično dokumentacijo, ki obravnava modele kot orodja z znanimi napakami in ne kot sodelavce z občutki. To pomeni jasne omejitve uporabe, nadzor nad občutljivimi primeri in predvsem: nobenih iluzij, da je model avtoriteta, ki jo lahko pustimo brez nadzora.

7. Zaključek

Claudeova ustava je fascinanten eksperiment: poravnava prek zgodbe o notranjem življenju. Kot interna varovalka je to morda smiselno. Kot javna naracija, ki uporabnikom pušča vtis, da ima Claude morda „dušo“, pa je problematična. Bolj ko je marketing mističen, težje je resno upravljanje tveganj. Preden začnemo razpravljati o pravicah umetne inteligence, bi morali od laboratorijev zahtevati brutalno iskren opis tega, kako njihovi sistemi delujejo – in kje se lomijo. Boste svoja orodja z umetno inteligenco raje gradili na teh mitih ali na razumljivi tehniki?

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.