1. Naslov i uvod
U prezentacijama Microsoft prikazuje Copilot kao novog digitalnog kolegu u uredu. U uvjetima korištenja, međutim, zvuči više kao bezazlena aplikacija za razonodu, bez ikaknog jamstva za točnost. Ta razlika izašla je u prvi plan kada je javnost ponovno otkrila formulacije u Copilotovim uvjetima, koje ga zapravo svrstavaju među alate za neobaveznu upotrebu. Microsoft danas tvrdi da je riječ o zastarjelom tekstu koji će uskoro promijeniti. No upravo taj „zaostali“ jezik razotkriva širu dilemu: kako prodavati AI kao ozbiljnu poslovnu infrastrukturu, a istovremeno se pravno ponašati kao da nudite igračku. U nastavku analiziramo što to znači za korisnike, tvrtke i regulatore – posebno u europskom i regionalnom kontekstu.
2. Vijest ukratko
Prema pisanju TechCruncha, Microsoftovi uvjeti korištenja za Copilot – zadnji put ažurirani u listopadu 2025. – sadrže formulacije koje uslugu opisuju kao namijenjenu prije svega neformalnoj, ne‑kritičnoj upotrebi. Korisnici su upozoreni da sustav može griješiti, neočekivano se ponašati te da se na njega ne bi trebalo oslanjati pri važnim odlukama.
Ovakav tekst izazvao je val komentara na društvenim mrežama, jer Microsoft istodobno agresivno pozicionira Copilot kao ključni alat za poduzeća unutar Microsoft 365, Windowsa i GitHuba. Predstavnik Microsofta je za PCMag objasnio da se radi o „naslijeđenom“ jeziku iz ranije faze proizvoda, koji više ne odgovara stvarnoj upotrebi i da će biti izmijenjen pri sljedećem ažuriranju.
TechCrunch podsjeća i da drugi pružatelji AI rješenja, uključujući OpenAI i xAI, u svojoj dokumentaciji također ističu da se njihovi modeli ne smiju shvaćati kao nepogrešiv izvor činjenica ili jedini izvor informacija.
3. Zašto je to važno
Ovdje nije riječ tek o nespretnoj rečenici u uvjetima korištenja, nego o simptomu dubljeg problema u svijetu generativne umjetne inteligencije.
S jedne strane, Microsoft ulaže ogromna sredstva kako bi Copilot postao nova produktivna platforma za uredske radnike, developere i menadžment. Alat piše e‑poštu, rezimira dokumente, pomaže u programiranju, pretraživanju, pa čak i u sigurnosnim proizvodima. U toj viziji Copilot nije zanimacija, nego novi radni sučelnik.
S druge strane, pravni odjel korisnicima poručuje upravo suprotno: ponašajte se, kao da je riječ o aplikaciji za zabavu. Ne oslanjajte se na rezultate kada je u pitanju nešto zaista važno. Za IT direktore i vlasnike poduzeća koji bi trebali plaćati značajne iznose po korisniku i mijenjati procese oko Copilota, takva poruka je problematična.
Kratkoročno najveću korist ima Microsoft: može prodavati Copilot kao revolucionarno poslovno rješenje, a istodobno se pokušava ograničiti odgovornost za trenutke kada model halucinira, generira pristran sadržaj ili jednostavno da loš savjet.
Gubitnici su krajnji korisnici i posebno mala i srednja poduzeća. Zaposlenici će biti pod pritiskom da koriste Copilot kako bi više i brže radili, dok im službeni dokumenti istodobno govore da se na njega ne smiju oslanjati. Kada se dogodi greška – pogrešan podatak u izvješću, loše sažeta ugovorna klauzula ili e‑pošta s povjerljivim informacijama – odgovornost će se rijetko prebaciti na proizvođača modela.
Dublje gledano, ovaj slučaj pokazuje da veliki pružatelji i dalje nisu jasno definirali kako procjenjuju i preuzimaju rizik. Prodaju probabilističke sustave u okruženja koja očekuju gotovo determinističke rezultate: usklađenost s propisima, financije, ljudske resurse. Pravne ograde samo privremeno prikrivaju taj nesklad – a u reguliranim tržištima to neće moći trajati vječno.
4. Šira slika
Microsoft nije usamljen. TechCrunch ističe da i OpenAI te xAI u svojim materijalima jasno upozoravaju da njihovi modeli mogu proizvesti netočne, pa i potencijalno obmanjujuće informacije. Google je, nakon nekoliko incidenata sa Geminijem, također morao uvesti vidljive oznake upozorenja uz mnoge AI funkcije.
Industrija pokušava igrati dvostruku igru: s jedne strane tvrdi da je AI dovoljno zreo da automatizira velik dio uredskog posla; s druge strane naglašava da je sve još eksperimentalno i bez čvrstih jamstava. Zato svaka prezentacija završava slajdom s upozorenjima, a u svakom prodajnom materijalu ističe se „čovjek u petlji“.
Sjetimo se i povijesti društvenih mreža: godinama su se u uvjetima korištenja opisivale kao neutralne platforme bez stvarne uredničke odgovornosti. Regulatori i sudovi su taj narativ postupno srušili. Nešto slično se može dogoditi i s generativnom AI: ako sustav otvoreno nudite odvjetnicima, liječnicima, nastavnicima ili investitorima, teško ćete ga dugoročno moći prikazivati kao bezazlenu igračku u pravnom tekstu.
Postoji i „krivulja povjerenja“ za tehnologiju. U ranim fazama proizvodi nose stroge ograde; kako sazrijevaju, pojavljuju se garancije, ugovorene razine usluge i specifična osiguranja. U svijetu clouda, primjerice, dostupnost je precizno definirana u ugovorima. Jezični modeli su još daleko od takve predvidljivosti, osobito kada se suoče s neuobičajenim upitima.
Afera oko Copilota stoga je prije znak prijelaznog razdoblja nego izolirana pogreška: AI se seli iz domene „impresivnog demoa“ u domenu regulirane, poslovno kritične infrastrukture. Marketing, tehnologija i pravo još uvijek nisu usklađeni.
5. Europski i regionalni kut
Iz europske perspektive ovaj slučaj ulazi ravno u fokus nove regulative. Akt o umjetnoj inteligenciji EU razvrstava sustave prema razini rizika, a mnoge primjene Copilota – recimo kod zapošljavanja, kreditnog bodovanja ili u javnoj upravi – vjerojatno će spadati u visokorizične kategorije. U tim okvirima kvalifikacija da je alat „samo za zabavu“ nema praktičnu težinu, a može biti i u suprotnosti sa zahtjevima za robusnošću, transparentnošću i ljudskim nadzorom.
Europsko potrošačko i ugovorno pravo također je skeptično prema preširokim odricanjima odgovornosti. Tvrtka ne može proizvod oglašavati kao profesionalno rješenje, a onda ga u ugovoru svesti na razinu neobvezujuće aplikacije za razonodu. Kada su marketing i ugovor u proturječju, tumačenje se obično naginje u korist korisnika.
Za hrvatske i regionalne tvrtke, posebno one koje posluju unutar EU ili s europskim klijentima, to znači da je uvođenje Copilota i pravno pitanje. U proces treba uključiti službenike za zaštitu podataka, pravne odjele i – gdje postoje – radnička vijeća. Potrebne su jasne interne politike: u kojim je procesima AI dopušten, kako se rezultati provjeravaju i tko na kraju potpisuje odgovornost.
Istodobno se otvara prostor za europske i lokalne pružatelje specijaliziranih AI rješenja, s užim fokusom, ali jasnijim jamstvima i odgovornošću. U bankarstvu, zdravstvu, javnoj upravi ili turizmu – važnom sektoru za Jadransku regiju – takav model može biti privlačniji od generalnog američkog asistenta s teškim pravnim ograničenjima.
6. Pogled unaprijed
Microsoft će gotovo sigurno vrlo brzo „ispeglati“ Copilotove uvjete korištenja i ukloniti najspornije formulacije. No time se ne rješava temeljno pitanje: kako ugraditi statističke modele, sklone pogreškama, u procese koji traže gotovo nultu stopu grešaka?
Za očekivati je da će budući ugovori o AI uslugama biti puno granularniji. Umjesto općenitog „ne oslanjajte se na ovo“, vidjet ćemo ograničenja po funkcijama i slučajevima uporabe: rezimiranje s jednom razinom rizika, prijedlozi koda s drugom, nacrti pravnih dokumenata s jasnom obvezom ljudske revizije. U priču će se uključiti i osiguravajuća društva, s policama koje izričito uzimaju u obzir AI u kritičnim procesima.
Na razini regulative EU će biti svojevrsni testni poligon. Uz Akt o umjetnoj inteligenciji, tu su i GDPR, Digital Services Act i druge uredbe koje zajednički ostavljaju malo prostora za vječno skrivanje iza klauzule „koristite na vlastitu odgovornost“. Vjerojatno ćemo vidjeti prve slučajeve u kojima će se sukob između marketinških obećanja i pravnog teksta rješavati pred sudovima.
Za IT menadžere i poduzetnike u Hrvatskoj i regiji praktična poruka je jasna: Copilot i slične alate tretirajte kao vrlo moćno automatsko dovršavanje, a ne kao nepogrešivog kolegu. U svim procesima s pravnim, financijskim ili reputacijskim posljedicama uvedite obaveznu ljudsku provjeru. A pri ugovaranju usluge ne zaustavljajte se na prodajnoj prezentaciji – detaljno pročitajte ugovore i pokušajte pregovarati o jasnim granicama odgovornosti.
7. Zaključak
Činjenica da je Copilot u službenim uvjetima još uvijek opisan gotovo kao alat „samo za zabavu“ možda jest povijesni ostatak, ali dobro oslikava stvarnost: današnji AI asistenti su impresivni i korisni, ali u osnovi nepouzdani. Industrija želi da ih tretiramo kao digitalne suradnike, dok ih pravno definira kao igračke. Taj raskorak teško će preživjeti suočenje s regulatorima, sudovima i stvarnim incidentima. Ključno je pitanje koji će se pružatelji prvi usuditi preuzeti ozbiljnu odgovornost za svoje modele – i hoće li ih tržište zbog toga nagraditi.



