Anthropic, GitHub in DMCA kaos: ko “varna“ umetna inteligenca pokaže operativne razpoke

2. april 2026
5 min branja
Ilustracija vmesnika GitHub z več repozitoriji kode in logotipom Anthropic v ozadju.

Anthropic, GitHub in DMCA kaos: ko “varna“ umetna inteligenca pokaže operativne razpoke

Za podjetje, ki želi biti glas razuma v svetu umetne inteligence, je kombinacija dveh spodrsljajev precej boleča: nenamerno razkritje izvorne kode in nato še pretirano agresiven DMCA‑ukrep, ki je na GitHubu začasno skril tisoče projektov. Anthropic si je v enem dnevu ustvaril problem z zaupanjem pri razvijalcih, poslovnih strankah in regulatorjih. V nadaljevanju pogledamo, kaj se je zgodilo, zakaj to presega “še en incident v oblaku” in kaj to pomeni za slovensko ter širšo evropsko tehnološko skupnost.

Novica na kratko

Kot poroča TechCrunch, je Anthropic v eni od zadnjih različic po nesreči objavil dostop do izvorne kode za svoj priljubljeni ukaznovrstični pripomoček Claude Code. Razvijalec je napako opazil, kodo pa so hitro začeli analizirati in deliti navdušenci nad umetno inteligenco, predvsem prek GitHuba, kjer so iskali vpogled v to, kako orodje uporablja model Claude.

Anthropic je odgovoril z obvestilom o domnevni kršitvi avtorskih pravic na podlagi ameriškega zakona DMCA in od GitHuba zahteval odstranitev repozitorijev, ki vsebujejo sporni del kode. Po podatkih GitHuba je bilo prizadetih približno 8.100 repozitorijev. Med njimi tudi povsem legitimne vilice uradnega javnega repozitorija Claude Code, kar je sprožilo precejšnje ogorčenje uporabnikov.

Vodja produkta Claude Code je nato pojasnil, da je šlo za napako. Anthropic je umaknil večino zahtevka in ga omejil na en izvorni repozitorij ter 96 vilic, ki so dejansko vsebovale pomotoma objavljeno kodo. Po navedbah za TechCrunch je GitHub nato obnovil dostop do nepravično prizadetih projektov.

Zakaj je to pomembno

Za večino podjetij bi bil že sam izpad izvorne kode resen incident. Pri Anthropicu pa je morda še problematičnejši način, kako je podjetje poskušalo napako “počistiti” – in pri tem udarilo po nič hudega slutečih razvijalcih.

Neposredni učinki so trojni:

  • Razvijalci na GitHubu so nenadoma ostali brez dostopa do svojih repozitorijev. Za odprtokodne projekte, slovenske startupe ali integracije v produkciji lahko tudi kratek izpad pomeni prekinjen CI/CD, zmedo med sodelavci in slabo sliko pri strankah.
  • Poslovne stranke in investitorji morajo zdaj oceniti ne le varnost modelov, temveč tudi zrelost notranjih procesov. Če podjetje tako omahuje pri razkritju kode, kako bo ravnalo pri resnejših incidentih, kot so zlorabe modelov, varnostne vrzeli ali skladnost z regulativo?
  • Konkurenčni ponudniki AI dobijo priročno argumentacijo. Anthropic se pozicionira kot premišljen, “varnostno usmerjen” igralec. Zamočeni DMCA‑ukrepi to podobo neposredno spodkopavajo.

V ozadju pa je globlji problem: veliki ponudniki AI danes stojijo na vrhu ekosistemov, kjer številna orodja, razširitve in vtičniki gradijo na njihovih storitvah. Ko tak ponudnik poseže po pravnih vzvodih, kot je DMCA, ima njegov korak sistemski učinek – ne le na “kršitelje”, temveč tudi na popolnoma legitimne projekte.

Za podjetje, ki aktivno sodeluje v globalnih razpravah o varni umetni inteligenci, incident razkriva tudi vrzel med javnim diskurzom in interno prakso. Varnost ni samo vprašanje tega, kaj model odgovarja; je tudi vprašanje procesne discipline, transparentnosti in odnosa do skupnosti, na kateri gradiš produkt.

Širša slika

Zgodba se lepo umešča v dolgo zgodovino pretiranih ukrepov zaradi avtorskih pravic v tehnološki industriji. Od YouTubovih avtomatskih blokad do neutemeljenih DMCA‑prijav zoper varnostne raziskovalce – vzorec je znan: ko se pravni oddelki odzovejo hitro in široko, pogosto najprej preveč blokirajo, šele nato preverjajo.

Novo je to, da postajajo ponudniki AI, kot je Anthropic, del kritične razvojne infrastrukture. Orodja za pisanje kode, ki temeljijo na velikih jezikovnih modelih, so vgrajena v vsakdanji potek dela programerjev. Ko se en tak ponudnik zmoti, ne gre več le za “interni incident”, temveč za motnjo v tisočih projektih.

Hkrati se krepi trend zapiranja AI. Veliki laboratoriji vedno manj razkrivajo podrobnosti o arhitekturi modelov, podatkovnih zbirkah in orodjih. Ko pride do uhajanja informacij, je DMCA pogosto prvo in najmočnejše orožje. Spodbuda je jasna: raje preveč odstraniti, kot pustiti karkoli spornega javno vidnega.

Če primerjamo z velikimi ponudniki oblaka: pri AWS ali Azure v primeru nenamerne objave internih podrobnosti običajno sledijo hiter tehnični popravek, forenzična analiza in jasna komunikacija s strankami. Agresivno pravdarsko “pometanje pod preprogo” je prej izjema kot pravilo, ker dobro vedo, da je zaupanje v platformo njihovo glavno sredstvo. Laboratoriji za AI bodo morali ponotranjiti ravno to lekcijo.

Dodaten kontekst je, da se tako v ZDA kot v EU že odvijajo sodni spori glede uporabe avtorskih del pri treniranju modelov. Regulatorji in sodišča zato precej bolj pozorno spremljajo, kako tehnološka podjetja uporabljajo avtorsko pravo kot orodje nadzora. Primeri, kjer trpijo nedolžni uporabniki, bodo vse težje zagovarjani.

Evropski in slovenski zorni kot

Za evropske – in slovenske – razvijalce je ta incident opozorilo, kako ranljivi smo, ko se kritična orodja in kode nahajajo na nekaj ameriških platformah in pri nekaj globalnih ponudnikih.

EU gradi obsežen regulatorni okvir: akt o umetni inteligenci (EU AI Act), GDPR, akt o digitalnih storitvah (DSA) in akt o digitalnih trgih (DMA). Čeprav je zgodba z Anthropicom povezana z ameriškim DMCA, lepo ilustrira, zakaj Bruselj toliko govori o odgovornosti posrednikov, sorazmernosti ukrepov in transparentnosti.

Za slovenska podjetja in javne institucije, ki razmišljajo o vključevanju Claude Code ali podobnih orodij v razvojne infrastrukturе, se tu skriva zelo praktično vprašanje: kakšno tveganje sprejmemo, če se naš del procesa zanaša na orodje, ki ga lahko lastnik z enim napačnim pravnim korakom začasno “ugasne”? Za organizacije, ki morajo izpolnjevati stroge zahteve glede razpoložljivosti in sledljivosti (finančni sektor, zdravstvo, javna uprava), to ni nepomemben dejavnik pri izbiri dobavitelja.

Slovenski startupi in odprtokodni projekti, ki živijo na GitHubu, bi morali ta primer vzeti kot spodbudo za razmislek o zrcaljenju kritičnih repozitorijev, alternativnih platformah (npr. GitLab, Gitea, lokalni mirrorji) ter pogodbenih garancijah, ko sodelujejo z velikimi ponudniki AI.

Pogled naprej

Verjetno lahko pričakujemo več razvojnih potez na treh ravneh.

  1. Anthropic bo moral utrditi interne procese. Bolj stroge revizije izdaj, jasnejša ločitev internih in javnih repozitorijev in bolj previdno vlaganje DMCA‑zahtevkov. Če podjetje resno cilja na javno kotacijo, si podobnih spodrsljajev ne more privoščiti.

  2. GitHub bo moral razmisliti o “varovalkah” pri množičnih zahtevkih. Ko en DMCA‑obrazec prizadene tisoče repozitorijev, bi moral obstajati dodatni pregled – morda fazno uveljavljanje ali naprej opozorilo vzdrževalcem.

  3. Razvijalci bodo iskali večjo odpornost. Od slovenskih ekip do velikih evropskih podjetij: več bo poudarka na lastnih mirrorjih, dokumentiranih postopkih za selitev in zmanjševanju odvisnosti od enega samega ponudnika ali orodja.

Regulatorji bodo incident verjetno uporabili kot študijski primer. Pod okriljem DSA se namreč pričakuje več usmeritev o tem, kako morajo velike platforme tehtati med obveznostjo ukrepanja in pravicami uporabnikov. Če bodo podobni incidenti pogosti, lahko v prihodnjih letih vidimo tudi zelo konkretne obveznosti glede postopkov pred odstranitvijo vsebin.

Odprta ostajajo vprašanja: koliko vpogleda bo Anthropic ponudil v interni “post mortem”? Bo razkril, kakšne tehnične in organizacijske spremembe uvaja? In ali bodo naročniki te informacije dejansko zahtevali – ali pa bo tudi tokrat pozornost hitro preskočila na naslednjo verzijo modela?

Zaključek

Incident Anthropic–GitHub je na papirju “majhen” – nekaj napačnih datotek, en preširok DMCA‑zahtevek. A simbolno je zelo zgovoren: pokaže, kako hitro se lahko lepo zveneča načela “odgovorne umetne inteligence” zaletijo v realnost nepopolnih procesov in prehitrih pravnih reakcij. Za razvijalce in slovenske organizacije je sporočilo jasno: na ponudnike AI ne glejte le kot na pametne modele, temveč kot na kritično infrastrukturo, pri kateri morate ocenjevati tudi upravljanje, ne samo zmogljivosti. Ključno vprašanje je, ali bodo industrija in regulatorji ta standard tudi dejansko uveljavili.

Komentarji

Pustite komentar

Še ni komentarjev. Bodite prvi!

Povezani članki

Ostani na tekočem

Prejemaj najnovejše novice iz sveta AI in tehnologije.