Anthropic, GitHub i DMCA fijasko: što ovaj incident otkriva o zrelosti AI industrije

2. travnja 2026.
5 min čitanja
Ilustracija sučelja GitHuba s više repozitorija koda i logotipom Anthropica u pozadini.

Anthropic, GitHub i DMCA fijasko: što ovaj incident otkriva o zrelosti AI industrije

Tvrtka koja se godinama predstavlja kao „odgovornija“ alternativa u utrci umjetne inteligencije upravo je uspjela napraviti dvostruki autogol: prvo je nehotično objavila osjetljiv izvorni kod, a zatim je pokušala sanirati štetu DMCA zahtjevom toliko širokim da je privremeno srušio tisuće legitimnih GitHub repozitorija. Za Anthropica, koji navodno cilja na izlazak na burzu, to je više od neugode – to je test zrelosti cijele AI industrije. U nastavku analiziramo što se dogodilo, zašto je važno za europske i regionalne igrače te koje pouke bi developeri u Hrvatskoj trebali izvući.

Vijest ukratko

Prema pisanju TechCruncha, Anthropic je u jednoj od zadnjih verzija svog popularnog CLI alata Claude Code nenamjerno uključio pristup dijelu izvornog koda. Jedan softverski inženjer je to uočio, a entuzijasti za AI i open source ubrzo su počeli dijeliti i analizirati kod na GitHubu, tražeći uvid u to kako alat koristi model Claude.

Kao reakciju, Anthropic je GitHubu poslao DMCA obavijest zbog navodne povrede autorskih prava prema američkom pravu, tražeći uklanjanje repozitorija koji sadrže sporni kod. GitHubovi zapisi pokazuju da je zahvat obuhvatio oko 8.100 repozitorija. Među njima su bili i potpuno legitimni forkovi službenog javnog Claude Code repozitorija, što je izazvalo buru nezadovoljstva među korisnicima.

Nakon kritika na društvenim mrežama, voditelj proizvoda Claude Code poručio je da je takav opseg bio neslavan propust. Anthropic je povukao veći dio DMCA zahtjeva i suzio ga na jedan izvorni repozitorij i 96 forkova koji su doista sadržavali slučajno objavljeni kod. Prema izjavama za TechCrunch, GitHub je u međuvremenu vratio pristup ostalim pogođenim projektima.

Zašto je to važno

Samo curenje koda bilo bi ozbiljan incident za gotovo svaku tehnološku tvrtku. U slučaju Anthropica, međutim, strategija sanacije možda je još problematičnija od same pogreške.

Posljedice osjećaju tri skupine:

  • Developeri na GitHubu, čiji su repozitoriji iznenada nestali. Za open source projekte iz Zagreba, Splita ili Ljubljane – ili za startupe koji se oslanjaju na javne repoje u produkciji – i kratkotrajna blokada može prekinuti CI/CD procese, unijeti kaos u timove i narušiti povjerenje korisnika.
  • Poslovni klijenti i ulagači, koji sada moraju preispitati koliko su Anthropicu doista važni procesi, kontrola kvalitete i pravna usklađenost. Ako se tvrtka ovako spetlja kod relativno „jednostavnog“ incidenta, kako će izgledati reakcija u slučaju stvarnih sigurnosnih propusta ili regulatornih istraga?
  • Konkurentske AI kompanije, koje dobivaju konkretan argument protiv Anthropica kao navodno „opreznijeg“ igrača.

Šire gledano, incident pokazuje rizike kada veliki AI dobavljač posegne za teškom pravnom artiljerijom u ekosustavu koji ovisi o otvorenom kodu i suradnji. DMCA je dizajniran kao alat za borbu protiv piratstva, ali u praksi se često pretvara u grubi mehanizam prekomjernog uklanjanja sadržaja, s kolateralnom štetom za nedužne projekte.

Anthropic je istovremeno glasni sudionik rasprava o sigurnosti i regulaciji umjetne inteligencije. Ovakav propust sugerira da jaz između javno deklariranih principa i svakodnevne operativne prakse još uvijek postoji – i to upravo na mjestu gdje bi trebao biti najmanji: u odnosu prema developer zajednici.

Šira slika

Incident se uklapa u dugogodišnji obrazac preširokih autorsko‑pravnih zahtjeva u tehnološkoj industriji. DMCA se već desetljeće koristi i zloupotrebljava – od YouTube videa skinutih zbog nekoliko sekundi glazbe do istraživača sigurnosti kojima se prijeti zbog objave proof‑of‑concept koda.

Ono što je novo jest činjenica da su ponuđači generativne AI postali kritična razvojna infrastruktura. Alati poput Claude Codea, GitHub Copilota ili drugih kodnih asistenata nalaze se u samo srce IDE‑ova, pipelineova i timskih procesa. Kada jedan od tih alata ili dobavljača pogriješi, posljedice se više ne zadržavaju unutar njihove organizacije – osjećaju se u tisućama timova diljem svijeta.

Istovremeno svjedočimo trendu sve veće netransparentnosti: vodeći AI laboratoriji objavljuju sve manje podataka o arhitekturi modela, skupovima za treniranje i internim alatima, pozivajući se na konkurentnost i sigurnost. U takvom okruženju, kada dođe do curenja, DMCA postaje zgodan instrument za „vraćanje stvari pod tepih“. Pri tome se rizik reputacijske štete kod developera očito često podcjenjuje.

Ako pogledamo klasične cloud igrače poput AWS‑a ili Azurea, obrazac je drukčiji. Kod njih se u slučajevima nenamjerne objave internih podataka uglavnom prvo vide tehnički zahvati, forenzička analiza i komunikacija s korisnicima. Masovno uklanjanje sadržaja putem pravnih prijetnji prije je iznimka nego pravilo, jer dobro razumiju da je povjerenje u platformu ključan resurs. AI laboratoriji tek moraju izgraditi sličnu kulturu.

Sve se to događa u trenutku kada se i u SAD‑u i u EU gomilaju sudski sporovi oko korištenja zaštićenih djela za treniranje modela. Svaki slučaj u kojem DMCA „pomeće“ i legitimne projekte dodatno hrani skeptične glasove koji tvrde da veliki igrači žele maksimalnu slobodu kad treniraju modele na tuđim podacima, ali i maksimalnu zaštitu vlastitog koda.

Europski i regionalni kontekst

Za Hrvatsku i širu jugoistočnu Europu, ovo je podsjetnik koliko ovisimo o nekoliko globalnih platformi i američkom pravnom okviru. Jedan američki AI dobavljač, preko američke hosting platforme, uspio je – makar nakratko i nenamjerno – blokirati rad na tisućama projekata širom svijeta. Upravo takve situacije europski regulatori pokušavaju adresirati instrumentima poput AI Acta, DSA‑a, DMA‑a i, naravno, GDPR‑a.

Za hrvatske kompanije, od banaka do telekoma i državnih tijela, koje razmišljaju o uvođenju alata poput Claude Codea u razvojne procese, postavlja se praktično pitanje: što ako ključni dio našeg toolchaina ovisi o volji dobavljača koji može – greškom ili namjerno – privremeno ukloniti naše repozitorije? U kontekstu javne nabave i reguliranih industrija, to je rizik koji se ne smije ignorirati.

U regionalnom startup ekosustavu – od Zagreba i Ljubljane do Beograda i Sarajeva – incident bi trebao potaknuti na razmišljanje o redundanciji i suverenitetu koda. To može značiti vlastite GitLab ili Gitea instance, mirroranje ključnih repozitorija, jasne procedure za brzu migraciju te oprez kod oslanjanja na jednog AI dobavljača za kritične funkcionalnosti.

Pogled unaprijed

Što možemo očekivati u nastavku?

  1. Konzolidaciju procesa unutar Anthropica. Vjerojatno slijede strože kontrole prije objave novih verzija, jasnija podjela internih i javnih repozitorija te konzervativniji pristup DMCA zahtjevima. Tvrtka koja cilja IPO ne može si priuštiti niz sličnih gafova.

  2. Pritisak na GitHub da poboljša obradu masovnih prijava. Kada jedan DMCA zahtjev zahvati tisuće repozitorija, razumno je očekivati dodatne provjere – bilo kroz ručni pregled, postupno provođenje ili barem jasnije i brže kanale žalbe za maintainere.

  3. Promjenu ponašanja razvojnih timova. Sve više timova – i u Hrvatskoj – počet će ozbiljnije razmišljati o riziku od „centralne točke kvara“: gdje živi kod, tko ga može isključiti i pod kojom jurisdikcijom. To ide u prilog hybrid i multi‑cloud pristupu, kao i većoj ulozi lokalno kontroliranih alata.

  4. Pojačani regulatorni interes. U okviru DSA‑a EU već analizira kako velike platforme uklanjaju sadržaje. Slučajevi poput ovog mogu poslužiti kao argument za dodatne smjernice ili čak postupke protiv prekomjernih blokada koje pogađaju legitimne korisnike.

Otvoreno je i pitanje transparentnosti: hoće li Anthropic objaviti detaljniji „post‑mortem“ izvještaj? Hoće li klijentima jasno predstaviti koje tehničke i organizacijske mjere uvodi? I hoće li ovaj incident ući u širi razgovor o odgovornosti i obvezama AI dobavljača u sklopu nadolazeće regulative EU?

Zaključak

Incident Anthropic–GitHub možda izgleda kao tehnički detalj – pogrešno upakiran kod i jedan krivo formuliran DMCA obrazac – ali simbolički je vrlo snažan. Pokazuje koliko je krhka etiketa „odgovorne AI“ kad unutarnji procesi zakažu, a prvi refleks bude pravna paljba koja pogađa i nedužne. Za developere i organizacije u Hrvatskoj poruka je jasna: na AI dobavljače ne gledajte samo kroz prizmu performansi modela, nego kao na kritične infrastrukturne partnere čiju kulturu upravljanja, transparentnost i odnos prema zajednici treba pažljivo ocjenjivati. Pitanje je hoćemo li to napraviti sada – ili tek nakon idućeg, možda većeg incidenta.

Komentari

Ostavite komentar

Još nema komentara. Budite prvi!

Povezani članci

Ostani informiran

Primaj najnovije vijesti iz svijeta AI i tehnologije.