Naslov i uvod
Sigurnosni incident u Mercoru nije samo problem jednog startupa, već ogledni primjer kako danas izgleda stvarni rizik u svijetu umjetne inteligencije. Kroz kompromitirani open source paket LiteLLM napadači su, prema navodima, došli do platforme vrijedne 10 milijardi dolara koja regrutira stručnjake za OpenAI, Anthropic i druge. To bi trebao biti alarm za sve koji razvijaju ili koriste AI sustave na Balkanu i u EU: najveća slabost često nije sam model, nego biblioteke u pozadini. U nastavku analiziramo što se zna, zašto je ovaj slučaj poseban i što znači za regionalno tržište.
Vijest ukratko
TechCrunch izvještava da je Mercor, popularni AI startup za regrutiranje stručnjaka, potvrdio sigurnosni incident povezan s napadom na dobavni lanac softvera u kojem je kompromitiran open source projekt LiteLLM.
Prema pisanju TechCruncha:
- Mercor je naveo da je bio »jedna od tisuća tvrtki« koje je pogodila kompromitacija LiteLLM‑a, koju sigurnosni istraživači povezuju sa skupinom TeamPCP;
- hakerska skupina za iznudu Lapsus$ zasebno je tvrdila da je ciljala Mercor i došla do njegovih podataka, te je na svojem leak‑sajtu objavila uzorak koji navodno uključuje fragmente Slack i ticketing podataka te dvije snimke razgovora između Mercorovih AI sustava i izvođača na platformi;
- Mercor je poručio da je brzo reagirao, zamejio i sanirao incident te angažirao vanjske forenzičke stručnjake, ali nije odgovorio na pitanja jesu li podaci klijenata ili izvođača bili pristupljeni ili izneseni;
- u slučaju LiteLLM‑a, zlonamjerni kod je otkriven i uklonjen unutar nekoliko sati, no knjižnica bilježi milijune preuzimanja dnevno, prema podacima tvrtke Snyk na koje se poziva TechCrunch.
I dalje nije poznato koliko je tvrtki doista pogođeno niti je li došlo do šireg curenja podataka.
Zašto je ovo važno
Mercor je ključna karika između velikih AI laboratorija i tisuća visokokvalificiranih stručnjaka diljem svijeta, uključujući i Europu te jugoistočnu Europu. Preko platforme se, prema tvrdnjama tvrtke, dnevno isplati više od 2 milijuna dolara izvođačima – liječnicima, odvjetnicima, znanstvenicima i drugim ekspertima koji pripremaju zadatke i ocjenjuju modele.
Potencijalno ugroženi su:
- osobni i financijski podaci tih izvođača,
- povjerljivi zadaci i promptovi koje dostavljaju klijenti (OpenAI, Anthropic i drugi),
- konkretni razgovori između stručnjaka i AI sustava, često s realnim medicinskim, pravnim ili poslovnim scenarijima.
Ako je dio toga završio u pogrešnim rukama, posljedice sežu daleko izvan Mercora:
- otkrivaju se načini na koje se modeli testiraju i ograničavaju,
- dobivaju se uvidi u interni rad vodećih AI tvrtki,
- narušava se povjerenje stručnjaka koji sve češće ovise o ovakvim platformama za prihod.
Najveća lekcija je strukturalna: AI samorogi ovise o nizu malih, često slabo osiguranih open source komponenti. U ovom slučaju nije bila potrebna sofisticirana ranjivost u oblaku – dovoljan je bio uspješan napad na pomagalo koje koriste tisuće razvojnih timova.
Šira slika
Napad na LiteLLM dio je šireg trenda u kojem se napadači fokusiraju na dobavni lanac softvera, a ne na krajnje organizacije.
Već smo vidjeli slične scenarije:
- SolarWinds (2020): kompromitirane nadogradnje otvorile su put u mreže državnih institucija i velikih kompanija.
- Log4Shell (2021): ranjivost u općeprisutnoj logging biblioteci izazvala je globalnu utrku u krpanju sustava.
- Pokušaj ugradnje backdoora u XZ Utils (2024) zaustavljen je u zadnji čas prije nego što je dospio u glavne Linux distribucije.
LiteLLM sada zauzima sličnu poziciju u AI svijetu – kao »nezamjetna« knjižnica koja olakšava rad s različitim modelima. Upravo zato predstavlja idealnu metu: kompromitirajte nju i dotaknuli ste stotine proizvoda i servisa.
U AI kontekstu rizik je pojačan zato što:
- se kroz takve biblioteke često provlače osjetljivi podaci i poslovna logika,
- su pipelines automatizirani pa zlonamjeran kod može tiho izvlačiti ključeve, promptove ili rezultate,
- je kultura »move fast« i dalje dominantna, a sigurnost dolazi kasnije.
Veliki igrači već reagiraju:
- uvode interne repozitorije s provjerenim paketima,
- zahtijevaju softverske popise sastavnica (SBOM) od dobavljača,
- sve češće se oslanjaju na vlastite SDK‑ove, umjesto na community wrapere poput LiteLLM‑a.
Slučaj Mercor/LiteLLM dodatno će ubrzati ove trendove. U odborima i nadzornim tijelima sve češće će se čuti pitanje: koje točno open source komponente u našoj AI infrastrukturi nose sličan rizik?
Europski i regionalni kut gledanja
Za Hrvatsku i ostale članice EU incident dolazi u trenutku kada se implementiraju NIS2 direktiva, Akt o kibernetičkoj otpornosti (CRA) i nadolazeći EU Akt o umjetnoj inteligenciji. Sva tri naglasak stavljaju na odgovornost za dobavni lanac.
Ako Mercor obrađuje podatke izvođača ili klijenata iz EU (što je vrlo vjerojatno), u igri su:
- GDPR: svako curenje osobnih podataka građana EU povlači obvezu prijave nadzornim tijelima i potencijalno visoke kazne;
- NIS2: subjekti koji spadaju u kategoriju »osnovnih« ili »važnih« moraju aktivno upravljati rizikom trećih strana i moći pokazati kako ocjenjuju dobavljače i njihove open source ovisnosti;
- EU AI Akt: za visokorizične AI sustave bit će potrebno dokumentirati cijeli lanac – od prikupljanja podataka do evaluacije – uključujući alate poput Mercora.
Za regionalne freelancere i stručnjake – od Zagreba do Beograda i Sarajeva – ovo je podsjetnik da njihov rad i podaci često ovise o sigurnosnim odlukama startupa i open source projekata u SAD‑u. To je i prilika:
- za domaće tvrtke da ponude sigurnije, regionalno usklađene platforme,
- za države da kroz fondove i EU programe ulože u osiguranje ključnih open source komponenti,
- za korisnike da u ugovorima s platformama traže veću transparentnost o sigurnosti i dobavnom lancu.
Pogled unaprijed
Vjerojatno nismo vidjeli posljednju vijest vezanu uz LiteLLM. U idućim mjesecima važno je pratiti nekoliko smjerova:
- Tehničke detalje napada. Kada se objave detaljni forenzički izvještaji, saznat ćemo jesu li kompromitirani developeri, build sustavi ili distributivna infrastruktura i može li se isti pristup primijeniti na druge AI knjižnice.
- Stvarni opseg štete. Ako se pokaže da je pogođen veći broj poznatih organizacija, LiteLLM će postati stalni dio prezentacija o riziku dobavnog lanca, uz SolarWinds i Log4j.
- Regulatorni odgovor. Nacionalna tijela za zaštitu podataka i kibernetičku sigurnost u EU, uključujući i Hrvatsku, mogu iskoristiti ovaj slučaj kao primjer pri tumačenju NIS2, CRA i AI Akta.
Za AI startupe i softverske kuće u regiji preporuke su jasne:
- uvesti strogu kontrolu ovisnosti i automatizirane sigurnosne provjere,
- voditi SBOM za vlastite proizvode i tražiti ga od dobavljača,
- integrirati AI projekte u postojeće sigurnosne okvire (ISO 27001, NIS2 procjene), umjesto da ih se tretira kao eksperiment.
Dobra vijest je da ovakvi incidenti često ubrzaju dugo odgađane investicije. Loša je da se to gotovo uvijek događa tek nakon što netko bude ozbiljno pogođen.
Zaključak
Slučaj Mercor–LiteLLM jasno pokazuje: AI ekosustav počiva na open source temeljima koji su osjetljiviji nego što mnogi žele priznati. Tvrtke, regulatori i korisnici trebali bi kod svakog AI dobavljača postaviti isto pitanje: pokažite nam svoj softverski lanac opskrbe. Dok AI kompanije ne počnu ulagati u sigurnost tih temelja jednako ozbiljno kao u nove modele i GPU‑ove, ovakvi će se incidenti ponavljati – svaki put s većim ulozima i većim posljedicama.



