Kada „sigurna AI“ padne na osnovama: težak mjesec za Anthropic

1. travnja 2026.
5 min čitanja
Programer gleda u zaslon s sučeljem AI asistenta za pisanje koda

Kada „sigurna AI“ padne na osnovama: težak mjesec za Anthropic

Anthropic se godinama predstavlja kao zreliji, oprezniji igrač u utrci za umjetnom inteligencijom – s naglaskom na sigurnost, usklađenost i odgovorno korištenje modela. Za europske i regionalne tvrtke, od banaka do telekoma, to je zvučalo kao dobar razlog da povjerenje usmjere upravo prema njima. No dva ozbiljna incidenta s izlaganjem internih datoteka u manje od tjedan dana pokazuju da „oprez“ u znanstvenim radovima ne znači automatski i zrelu inženjersku praksu. Ovo je prvi pravi crash‑test Anthropica kao infrastrukturnog dobavljača.

Vijest ukratko

Prema pisanju TechCruncha, Anthropic je u nekoliko dana doživio dva značajna sigurnosna propusta.

Prvo je, kako je izvijestio Fortune, gotovo 3.000 internih datoteka tvrtke greškom bilo javno dostupno. Među njima se nalazio i nacrt objave na blogu o još neobjavljenom, snažnijem AI modelu. Nakon što je incident primijećen, pristup datotekama je uklonjen.

Nekoliko dana poslije, navodi TechCrunch, Anthropic je objavio verziju 2.1.88 svog alata Claude Code. U paket je pogreškom uvrštena datoteka koja je otkrivala oko 2.000 izvornih datoteka – više od 512.000 linija koda. U praksi, to je bio gotovo potpuni arhitektonski nacrt jednog od ključnih proizvoda tvrtke.

Nisu procurile težine samog AI modela, već „skele“ oko njega: orkestracija, alati, ograničenja i upute za ponašanje. Sigurnosni istraživač je brzo ukazao na problem na X‑u, a developeri su gotovo odmah krenuli detaljno analizirati kod. Anthropic je incident opisao kao ljudsku pogrešku pri pakiranju izdanja te naglasio da nije riječ o vanjskom proboju sustava.

Zašto je to važno

Na razini naslova, lako je reći „netko je zaboravio odznačiti opciju u konfiguraciji“. No za tvrtku koja sebe gradi kao „pažljivog“ dobavljača AI, posljedice idu puno dalje od jedne nespretne objave.

Anthropicova prednost nije samo u kvaliteti Claude modela, nego u percepciji da je riječ o partneru kojem možete povjeriti osjetljive sustave i podatke. Kada hrvatska banka, slovenski telekom ili institucija EU razmatraju duboku integraciju generativne AI u poslovne procese, u igri nije samo performans, nego i pitanje: hoće li ovaj dobavljač sutra slučajno izbaciti dio svoje arhitekture – ili, još gore, naše podatke – na internet?

Tehnički gledano, šteta je ozbiljna ali ne i smrtonosna. Težine modela ostaju zaštićene, a dio orkestracijskog koda relativno brzo zastarijeva u ovako dinamičnom području. Konkurenti mogu naučiti kako je Claude Code organiziran, kako se upravlja kontekstom nad velikim kodnim bazama i kako se AI uklapa u tijek rada developera, ali to ne znači da sutra mogu isporučiti isti proizvod.

Prava rana je organizacijska. Jedan incident može biti peh, dva vrlo slična u tjedan dana ukazuju na dublji problem: nedovoljno čvrste kontrole u CI/CD procesu, manjak automatiziranih provjera sadržaja paketa, možda i kulturu u kojoj je pritisak da se što prije isporuči jači od dosadne, ali nužne sigurnosne higijene.

Za tvrtku koja javno kritizira površnost drugih i drži lekcije o odgovornoj AI, ovakav raskorak između retorike i prakse je opasan. Veliki kupci i partneri – od oblaka do integratora – to neće zaboraviti preko noći.

Šira slika

Anthropikov težak mjesec savršeno ilustrira gdje se zapravo nalaze najveća operativna rizika u novoj AI ekonomiji. Nisu (samo) u modelima, nego u svemu oko njih.

Vidjeli smo i ranije incident slične naravi: rani bug u ChatGPT‑u koji je nakratko prikazivao naslove tuđih razgovora, curenje koda velikih platformi, problemi sa sigurnošću internih alata u cloud tvrtkama. Pouka je ista: „ljepljivi sloj“ – pipelinei, skripte, konfiguracije, pomoćne usluge – često je najranjiviji dio.

Claude Code spada u kategoriju alata koji mijenjaju igru za developere. Konkurira GitHub Copilotu, alatima OpenAI‑a te pokušajima Microsofta, Googlea i AWS‑a da zauzmu teritorij AI pomoćnika za programere. TechCrunch podsjeća da je Claude Code postao dovoljno relevantan da, prema Wall Street Journalu, utječe čak i na strateške prioritete OpenAI‑a između proizvoda za video i proizvoda za developere.

U tom kontekstu, curenje arhitekture znači da je industrija dobila vrlo detaljan uvid u to kako izgleda „production‑grade“ iskustvo rada s AI‑jem za pisanje koda. Otvoreno je pitanje hoće li dio tog znanja pogurati open‑source zajednicu i ubrzati nastanak alternativnih rješenja – možda i onih koja će bolje odgovarati potrebama specifičnih jezika i tržišta, uključujući jugoistočnu Europu.

Istodobno, postoji i snažan element ironije. Godinama razgovaramo o rizicima „prejake AI“, egzistencijalnim prijetnjama i potrebama za strogo reguliranom upotrebom modela. A onda jedan od vodećih „sigurnosno osviještenih“ aktera dobije najteži udarac reputaciji zbog nečega tako prizemnog kao što je loše složen release.

Europski i regionalni pogled

Za Europsku uniju i zemlje poput Hrvatske, Slovenije ili ostatka regije SEE, ovaj slučaj nije tek zanimljivost iz San Francisca, već konkretan argument u raspravama o regulaciji i izboru dobavljača AI.

EU upravo implementira Uredbu o umjetnoj inteligenciji (EU AI Act), direktivu NIS2 te već postojeće okvire poput GDPR‑a i DORA‑e. Svi oni guraju organizacije u smjeru da AI tretiraju kao kritičnu infrastrukturu – s jasnim zahtjevima za upravljanje rizicima u lancu dobave softvera.

Za banke iz Zagreba, osiguravatelje iz Beča ili javnu upravu u Ljubljani to znači da će se kod nabave AI rješenja morati pitati više od „gdje su vam podatkovni centri“ i „kako štitite osobne podatke“. Na stol dolaze pitanja o sigurnom razvojnom procesu, neovisnim revizijama, načinu upravljanja izdanjima i procedurama reagiranja na incidente.

Otvara se prostor i za europske i regionalne pružatelje usluga – od velikih poput Mistral AI ili Aleph Alpha, do manjih tvrtki u DACH‑u i na Balkanu koje nude prilagođene LLM‑ove ili implementacije – da iskoriste prednost „rođeni u EU, usklađeni s EU pravilima“. Američki laboratorij koji u kratkom razdoblju dvaput pogriješi kod izdanja suočit će se s težim pitanjima na tenderima u Bruxellesu ili Zagrebu.

Za startupe iz Zagreba, Ljubljane ili Beograda koji svoje proizvode grade na API‑jima Anthropica ili drugih, poruka je jasna: arhitekturu treba dizajnirati tako da zamjena dobavljača bude izvediva. To uključuje apstrakcijski sloj prema više modela, ali i realan plan što raditi ako omiljeni dobavljač odjednom izgubi povjerenje tržišta.

Što slijedi

Anthropic sada mora pokazati da će ovaj neugodan period iskoristiti za rast, a ne samo za gašenje požara.

Unutar tvrtke, gotovo je sigurno da će uslijediti zaoštravanje sigurnosnih i QA procedura: stroži automatizirani pregledi svih artefakata prije objave, jasnije odvajanje internih i javnih komponenti, možda i nova organizacijska struktura u kojoj sigurnost proizvoda ima snažniji glas.

Prema vani, Anthropic će, želi li zadržati povjerenje enterprise kupaca, morati nadograditi svoju priču o „sigurnoj AI“ pričom o „sigurnoj infrastrukturi“. To znači više transparentnosti (javne tehničke analize incidenata), jasno komunicirane certifikate (SOC 2, ISO 27001 i sl.), ali i konkretnije obaveze u ugovorima o razini usluge i obavješćivanju o incidentima.

Jedna hrabrija strategija bila bi djelomično „prigrliti“ ono što je već procurilo: otvoriti neke komponente Claude Codea pod kontroliranom licencom i oko njih graditi ekosustav. Time bi dio narativa o curenju preokrenuli u priču o otvorenosti, ali rizik gubitka konkurentske prednosti bio bi realan.

Konkurenti će u pozadini svakako proučavati iscurjeli kod, no vjerojatnije je da će iz njega izvlačiti ideje, a ne graditi direktne kopije. Na tržištu će se, međutim, još glasnije naglašavati „enterprise‑grade sigurnost“, nenametljivo uspoređujući vlastitu disciplinu s Anthropico­vim lošim mjesecom.

Za korisnike u Hrvatskoj i regiji najvažnije pitanje je praktično: hoće li Anthropic dovoljno uvjerljivo pokazati da je naučio lekciju prije nego što ti incidenti uđu u udžbenike kao primjer kako ne voditi AI infrastrukturu?

Zaključak

Anthropicovi modeli nisu preko noći postali lošiji, ali je mit o tvrtki koja „radi sve kako treba“ vidljivo napuknuo. U trenutku kada se AI uvlači u temeljne procese banaka, država i industrije, operativna sigurnost dobavljača postaje jednako važna kao i kvaliteta modela. Ako Anthropic ovu krizu pretvori u polugu za izgradnju vrhunske inženjerske i sigurnosne kulture, mogao bi dugoročno izaći jači. Ako ne, veliki će kupci tiho rasporediti svoje oklade na više strana. A vi? Kada birate AI dobavljača, gledate li samo na demo – ili i na to kako izgleda njegovo razvojno okruženje iza kulisa?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.