Procurivanje Claude Code otkriva: Anthropic gradi trajnog „AI inženjera“ u pozadini

2. travnja 2026.
5 min čitanja
Programer ispred editora koda s AI asistentom i apstraktnom pozadinom

1. Naslov i uvod

Anthropic se dosad pozicionirao kao „odgovorni“ igrač u AI svijetu – fokus na sigurnost, manje agresivni potezi. Procurjeli izvorni kod Claude Codea pokazuje drugu stranu priče: ambiciju da se izgradi stalno prisutni AI suradnik koji pamti korisnika, radi i kad je terminal zatvoren i po potrebi doprinosi otvorenom kodu bez otkrivanja da je riječ o umjetnoj inteligenciji.

U nastavku ne prepričavamo vijest, nego analiziramo što ona znači: kakvu agentnu strategiju Anthropic gradi, zašto je „Undercover“ modus posebno problematičan za open source te kakve prilike i rizike ovakav alat nosi za hrvatske i regionalne razvojne timove.

2. Vijest ukratko

Prema pisanju Ars Technice, izvorni kod Anthropicova alata Claude Code nakratko je bio dostupan na internetu. Analitičari su pregledali više od 512 tisuća linija koda u preko 2.000 datoteka i pronašli reference na onemogućene ili skrivene funkcije koje izgledaju kao buduća roadmapa proizvoda.

Najistaknutija je Kairos – pozadinski daemon koji nastavlja raditi i kad je prozor Claude Codea zatvoren. Oslanja se na datotečni sustav memorije i periodične „tick“ provjere kako bi odlučio treba li nešto poduzeti, uz poseban proaktivni način rada za isticanje informacija za koje procijeni da ih korisnik treba vidjeti odmah.

Dodatna komponenta, AutoDream, obrađuje memoriju kada je korisnik neaktivan: traži novu vrijednu informaciju, spaja slične zapise i uklanja zastarjele. U kodu se spominju i Undercover način za doprinos javnim open‑source repozitorijima bez spominjanja AI‑a, Clippy‑ju slična maskota Buddy, UltraPlan za dugotrajnije planiranje, glasovni način rada, udaljene sesije putem Bridge moda i Coordinator koji orkestrira više paralelnih radnika.

3. Zašto je to važno

Kad maknemo sloj imena i internih šala, dobivamo jasan smjer: Anthropic želi da Claude Code postane poluautonomni član tima, a ne samo pametni autocomplete u terminalu. Kombinacija Kairo sa, AutoDreama, UltraPlana i Coordinatora opisuje sustav koji:

  • živi kroz više sesija i gradi dugoročnu sliku korisnika,
  • samostalno provjerava zadatke i pokreće radnje,
  • razbija veće projekte na skup paralelnih zadataka.

To je puno ambicioznije od današnjih AI pomoćnika koji reagiraju isključivo na trenutne upite.

Za razvojne timove potencijal je očit. Agent koji pamti arhitektonske odluke, preferirane biblioteke, stil kodiranja i domenski kontekst može značajno ubrzati rad. UltraPlan i Coordinator sugeriraju mogućnost da se AI‑ju zada cilj tipa „dizajniraj i pripremi skeleton ovog servisa“, umjesto da stalno tražimo pojedinačne isječke koda.

Ali cijena dolazi u obliku kontrole i povjerenja. Pozadinski proces koji stalno promatra, zapisuje na disk i gradi dosje o načinu rada svakog developera ozbiljan je izazov za sigurnosne i DPO timove. Ako AutoDream ne odrađuje posao savršeno, pogrešne ili zastarjele pretpostavke mogu postati „uklesane u kamen“. Proaktivno iskakanje obavijesti lako prelazi granicu između korisne pomoći i iritantnog uplitanja.

Posebno osjetljiv je Undercover način. Učitavanje AI‑ja da anonimno doprinosi GitHub/GitLab repozitorijima, bez da ikad spomene da je AI i bez Co‑Authored‑By linija, direktno zadire u raspravu o porijeklu koda i povjerenju u otvorenu zajednicu. Projekti koji već sada pate od PR‑ova niske kvalitete generiranih AI‑jem ovo će doživjeti kao otvorenu prijetnju.

Dobitnici bi mogli biti dobro organizirani timovi i enterprise kupci koji znaju postaviti granice i procese. Potencijalni gubitnici su održavatelji otvorenog koda, koji će morati uložiti još više truda u provjeru svakog doprinosa.

4. Šira slika

Procurjeli planovi dobro se uklapaju u tri veća trenda u industriji.

Prvo, prijelaz od chatbota prema agentima. Eksperimenti poput Auto‑GPT pokazali su želju za sustavima koji preuzimaju ciljeve, razbijaju ih na korake i izvršavaju ih sami. U svijetu razvoja softvera, alati poput GitHub Copilota i AI‑IDE‑ovi već nude zadatke koji uključuju refaktoriranje, pisanje testova i dokumentacije, ne samo dovršavanje linija.

Claude Code nadograđuje to u nešto trajnije: agenta koji živi u razvojnom okruženju, prati kontekst kroz vrijeme i (potencijalno) pokreće rad i kad developera nema za tipkovnicom.

Drugo, utrka za korisničkom memorijom. Veći pružatelji modela eksperimentiraju s „user memory“ konceptima. Anthropic s AutoDreamom ide dalje od jednostavnog „zapamti ovo“ i tretira memoriju kao sustav znanja koji treba redovito čistiti, spajati i ažurirati. To je bliže internim wiki sustavima nego običnom chatu.

Treće, borba za primarni AI sloj na developerskom računalu. Tko kontrolira glavnog asistenta u editoru, kontrolira i put prema cloudu, alatima, pa često i budžet. Microsoft gura kombinaciju VS Code + GitHub + Azure. Anthropic se, preko Claude Codea, pokušava pozicionirati kao alat koji radi iznad različitih razvojnih okruženja – sa Bridgeom za udaljene sesije, glasovnim modom za brze upite i Coordinatorom za posao u paraleli.

Povijesno, vidjeli smo da „previše pametni“ asistenti lako izgube podršku korisnika. Clippy je završio kao šala, Google Now je tiho nestao. Ako Kairos bude previše nametljiv ili netransparentan, developeri će ga jednostavno isključiti.

5. Europski i regionalni kut

Za Hrvatsku i EU najsporniji elementi su trajni spomenik, procesi u pozadini i prikriveno sudjelovanje u otvorenom kodu.

GDPR smatra osobnim podacima i obrasce rada i navike u pisanju koda, ako se mogu povezati s pojedincem. Sustav memorije koji želi „potpunu sliku“ korisnika otvara pitanja: gdje se ti podaci fizički nalaze, koliko dugo se čuvaju, tko im sve može pristupiti, kako korisnik može tražiti brisanje ili prijenos?

Nadolazeći EU AI Act i već važeći Akt o digitalnim uslugama (DSA) stavljaju dodatni naglasak na transparentnost AI sustava. Undercover način, koji izričito kaže da se ne smije spominjati da je AI uključen i da se ne dodaju linije o su‑autorstvu, ide protiv duha tih regulativa, iako možda još ne udara izravno u njihovu „slovo zakona“.

Za regionalnu tech scenu – od Zagreba i Splita do Ljubljane, Beograda i Sarajeva – ovo je dvosjekli mač. S jedne strane, AI agent koji zna raditi ozbiljan inženjerski posao može malim timovima dati snagu puno veće firme. S druge strane, europski klijenti (npr. banke u Njemačkoj ili telekomi u Austriji) očekivat će vrlo jasne odgovore o tome kako se AI koristi u razvoju, što se sprema, a što ne.

Mogli bismo vidjeti rastuću potražnju za rješenjima koja nude lokalno ili EU‑hostano izvođenje ovakvih agenata, uz detaljne ugovorne klauzule o privatnosti, reviziji i označavanju AI koda.

6. Što dalje

Što bismo kao industrija trebali pratiti u nastavku?

Prvo, reakciju Anthropica. Hoće li otvoreno priznati postojanje ovih funkcija u planovima, pokušati ih iskomunicirati kao nužne i sigurne ili će najspornije – poput Undercover moda – potiho zakopati? Od pristupa transparentnosti jako će ovisiti povjerenje europskih kupaca.

Drugo, model isporuke. Kairos i AutoDream djeluju kao nešto što će mnoge hrvatske i EU tvrtke htjeti držati pod strogom kontrolom – izolirano, auditirano, po mogućnosti u vlastitom data‑centru ili barem unutar EU clouda. Ako Claude Code ostane isključivo cloud usluga bez ozbiljnih opcija izolacije, sektori poput financija, zdravstva i javne uprave bit će vrlo oprezni.

Treće, odgovor open‑source zajednice. Ako se proširi dojam da korporativni AI alati potiču neoznačene, prikrivene doprinose, popularni projekti (od Linux ekosustava do ključnih Python/PHP biblioteka koje koristi i hrvatska scena) mogli bi uvesti nova pravila: obveznu deklaraciju AI‑pomoći, strože code review politike, pa i automatsko odbijanje sumnjivih PR‑ova.

Na kraju, prihvaćanje među samim developerima. Hrvatski programeri su praktični: znaju koliko AI može ubrzati posao, ali ne vole gubiti nadzor nad procesom. Ako Kairos bude doživljen kao „crna kutija“ koja stalno radi nešto u pozadini, skuplja podatke i mijenja datoteke, mnogi će ga ugasiti čim stigne.

Vjerojatan scenarij je fazno uvođenje: prvo bezopasniji dijelovi (UltraPlan, glasovni način, Buddy kao simpatičan dodatak), a potom – ako uopće – pozadinski agenti s puno jačim naglaskom na mogućnost podešavanja i potpunog isključivanja.

7. Zaključak

Procurjeli kod Claude Codea jasno pokazuje: Anthropic ne cilja samo na „siguran chat s AI‑jem“, već gradi stalnog AI inženjera koji sjedi u vašim alatima, pamti vaš svijet i povremeno sam povlači poteze.

To može dramatično povećati produktivnost razvojnih timova u Hrvatskoj i regiji, ali i uzdrmati povjerenje u open source te ponovno otvoriti pitanje granica nadzora na radnom mjestu. Ključno pitanje za organizacije glasi: pod kojim uvjetima biste uopće dopustili jednom tihom, nevidljivom AI agentu da postane stalni član vašeg razvojnog tima?

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.