1. Naslov i uvod
Grammarly nije samo lansirao nespretan dodatak. Tvrtka je napravila nešto puno ozbiljnije: bez pitanja je tretirala ugled stvarnih autora i stručnjaka kao besplatno gorivo za svoj AI.
Funkcija Expert Review pretvarala je poznate novinare, pisce i znanstvenike u svojevrsne „AI urednike“ – bez njihovog pristanka. Skupna tužba koju je podnijela novinarka Julia Angwin zato nije samo još jedan spor iz Silicijske doline, nego test za cijeli ekosustav: smije li bilo koja platforma, od San Francisca do Zagreba, naš rad, stil i ime pretvoriti u komercijalnu persona modela bez da nas uopće obavijesti? U nastavku analiziram što ovaj slučaj znači za AI industriju i za europsko, pa tako i hrvatsko, digitalno tržište.
2. Vijest ukratko
Kako prenosi TechCrunch, Grammarly je nedavno uveo pretplatničku funkciju pod nazivom Expert Review. Za 144 američka dolara godišnje korisnici su mogli dobiti povratnu informaciju generiranu umjetnom inteligencijom, predstavljenu kao da dolazi od poznatih stručnjaka – primjerice književnika Stephena Kinga, pokojnog znanstvenika Carla Sagana ili tehnoloških novinara kao što su Kara Swisher i Julia Angwin.
Prema TechCrunchu, ti ljudi nikada nisu dali dopuštenje da se njihovo ime ili navodni stil koriste u toj usluzi. Angwin je stoga podnijela skupnu tužbu protiv Superhumana, matične kompanije Grammarlyja, tvrdeći da je time povrijeđeno njezino pravo na privatnost i osobnost, kao i prava drugih uključenih autora.
Novinari koji su testirali Expert Review opisali su dobiveni feedback kao vrlo općenit. Nakon žestokih reakcija javnosti, izvršni direktor Superhumana Shishir Mehrotra objavio je na LinkedInu da je funkcija isključena i uputio ispriku, ali je u isto vrijeme branio samu ideju servisa.
3. Zašto je to važno
Lako je ovo svesti na još jedan „fail“ generativne umjetne inteligencije. No u pozadini je puno dublji problem.
Grammarly je pokušao unovčiti nešto izrazito osobno: profesionalni autoritet vezan uz konkretno ime. Trening modela na javno dostupnim tekstovima već je sam po sebi sporan. Ovdje se ide korak dalje – korisniku se izravno sugerira da dobiva vrstu uredničkog komentara koja se pripisuje određenoj osobi. To ulazi u prostor neovlaštenog iskorištavanja identiteta i lažnog dojma podrške, čak i ako nema fotografije ili potpisa.
Kratkoročno, cilj je jasan: od običnog „grammar checkera“ napraviti premium savjetnički alat i pritom naplatiti skuplju pretplatu. Gubitnici su autori i stručnjaci čiji se ugled pretvara u marketinšku ambalažu za generički model – bez naknade, bez kontrole.
Tu je i pitanje povjerenja. Ako bilo koja aplikacija može imitirati vašeg omiljenog kolumnista ili cijenjenog profesora, kako znati s kim zapravo komunicirate? Normaliziranje ovakvih sintetičkih persona dugoročno potkopava vrijednost ljudske ekspertize i zamagljuje odgovornost kada je savjet loš ili štetan.
Za AI industriju ovo je ozbiljno upozorenje: doba u kojem se tuđi identitet tretira kao besplatan resurs bliži se kraju – htjela to industrija ili ne.
4. Šira slika
Grammarlyjev potez idealno se uklapa u recentne trendove oko generativne umjetne inteligencije.
Već smo svjedočili tužbama protiv velikih AI igrača zbog treniranja modela na knjigama, novinskim arhivima i programerskom kodu bez dozvole. Internet je preplavljen deepfake reklamama i AI influencerima koji „slučajno“ izgledaju ili zvuče kao poznate osobe. Pojedine glasovne asistentice izazvale su pritužbe jer previše podsjećaju na stvarne glumice.
Meta gura chat‑botove s osobnostima inspiriranima slavnim osobama. OpenAI se našao pod povećalom zbog glasa asistenta koji je mnogima zvučao previše slično Scarlett Johansson. Zajednički nazivnik: uzeti emocionalnu vezu koju publika ima s određenim likovima i pretvoriti je u skalabilni AI proizvod.
Expert Review primjenjuje istu formulu na uredničko prosuđivanje. Poruka je jasna: zašto plaćati pravog urednika ili kritičara, kad možete dobiti algoritam koji se osjeća „dovoljno slično“ i radi 0–24? Investitorima to djeluje učinkovito, ali za radna prava i kulturni ekosustav radi se o novoj fazi potiskivanja ljudskog intelektualnog rada.
Pravna povijest nudi zanimljive paralele. U SAD‑u su tvrtke gubile sporove jer su u reklamama koristile imitacije pjevača ili voditelja kvizova koje su bile previše prepoznatljive. Danas više ne govorimo o jednoj reklami, nego o interaktivnim sustavima koji mogu u nedogled reproducirati nečiji stil ili ton.
Ako sudovi ta stara načela primijene na AI kontekst, Grammarly neće biti posljednji koji će platiti visoku cijenu za poigravanje s tuđim identitetom.
5. Europski i regionalni kut
Iz europske perspektive, ovaj slučaj izgleda gotovo kao da je napisan za udžbenik o GDPR‑u i budućem AI Actu.
Prema GDPR‑u, ime i profesionalna identitet mogu biti osobni podaci. Funkcija koja komercijalno iskorištava prepoznatljivu „AI verziju“ konkretne osobe teško bi se mogla opravdati bez valjane pravne osnove – a kamoli bez izričitog pristanka. Europski Akt o umjetnoj inteligenciji, sa svojim obvezama transparentnosti i procjene rizika, dodatno steže obruč oko ovakvih eksperimenata.
Uz to, države poput Njemačke, Francuske i Španjolske imaju snažna prava osobnosti i prava na vlastiti lik. U Hrvatskoj, kroz građansko i autorsko pravo, također postoji zaštita od neovlaštene komercijalne uporabe imena i lika. Servis koji korisniku obećava komentar „u stilu“ određene novinarke ili znanstvenika vrlo je blizu toj granici.
Za hrvatske i regionalne medije, od Zagreba do Ljubljane i Beograda, posljedice su opipljive. Manji jezici i tržišta već su pod pritiskom globalnih platformi; sada riskiraju da im najprepoznatljiviji autori postanu samo lice za tuđi model. Istovremeno, za domaće AI startupe otvara se prilika: proizvodi koji ozbiljno shvaćaju prava autora i osobnosti mogu u EU imati realnu konkurentsku prednost.
6. Što slijedi
Daljnji razvoj ovisit će o tome koliko će sudovi i regulatori biti spremni agresivno zaštititi identitet u eri umjetne inteligencije.
U SAD‑u će skupna tužba Julije Angwin vjerojatno nastojati dokazati da je Grammarly neovlašteno i komercijalno iskorištavao identitet i reputaciju stvarnih osoba. Tijekom postupka moglo bi se otkriti tko je sve unutar tvrtke upozoravao na rizike i jesu li ti signali ignorirani – što će utjecati i na eventualnu odštetu.
Bez obzira na ishod, gotovo je sigurno da će uslijediti nove tužbe. Ako ste prepoznatljiv autor, profesor ili podcast voditelj, imate dobar razlog provjeriti jeste li već postali „AI urednik“ bez znanja. Osiguravatelji koji pokrivaju tehnološke kompanije također će sve češće tražiti jasna pravila oko svake uporabe stvarnih identiteta u AI proizvodima.
Na razini proizvoda, vjerojatan scenarij je pojava licenciranih, uz pristanak autora kreiranih persona. Zamislite platforme na kojima novinari, odvjetnici ili treneri svjesno i uz naknadu ustupaju svoj stil za AI alate, uz jasno označavanje i ugovorno ograničenje uporabe. Nije savršeno rješenje, ali vraća bar dva ključna elementa: pristanak i naknadu.
U EU, uključujući Hrvatsku, sljedećih 18–24 mjeseci bit će ključno. Regulatori će testirati koliko daleko mogu ići s postojećim pravilima protiv AI imitacija identiteta prije nego što traže nove zakonske ovlasti. Slučaj Grammarly poslužit će kao upozorenje svima koji razmišljaju o sličnim „AI licima“ bez pitanja onih čije lice i ugled koriste.
7. Zaključak
Expert Review nije bio samo loš proizvodni eksperiment, nego naličje svijeta u kojem se ljudski ugled tretira kao tanki sloj boje preko generičkog modela. Ako sudovi i regulatori ovdje ne povuku jasnu crtu, digitalni prostor ispunit će sintetički „stručnjaci“, dok će stvarni biti potisnuti u pozadinu. Pitanje za autore i čitatelje u Hrvatskoj je jednostavno, ali neugodno: koliko svog identiteta prepuštate platformama, a da vas nitko nije ništa pitao?



