1. Naslov in uvod
Grammarly ni samo izdal slabega dodatka. Naredil je nekaj bistveno hujšega: brez vprašanja je obravnaval ugled pisateljev, novinarjev in znanstvenikov kot brezplačen vir za svoj AI.
Funkcija Expert Review, ki uporabniku obljubi odziv v slogu znanih imen, je tipičen primer logike najprej izdaj, potem se opraviči. Ko je novinarka Julia Angwin vložila skupinsko tožbo proti lastniški družbi Superhuman, se ni odprla zgolj nova pravna fronta. Odprlo se je vprašanje, ali lahko tehnološka podjetja iz Ljubljane ali Silicijeve doline naš trud, stil in ime obravnavajo kot surovino za svoje modele. V nadaljevanju razčlenjujem, zakaj bi to moralo zanimati tudi slovenske avtorje in podjetja.
2. Kaj se je zgodilo – na kratko
Kot poroča TechCrunch, je Grammarly prejšnji teden predstavil funkcijo Expert Review za naročnike, ki plačujejo 144 dolarjev na leto. Orodje uporabniku ponudi povratne informacije, kot da bi jih napisal znani strokovnjak – med drugim pisatelj Stephen King, pokojni znanstvenik Carl Sagan ter novinarji Kara Swisher, Julia Angwin in drugi.
Po poročanju TechCruncha ti ljudje za uporabo svojega imena in domnevnega sloga niso dali dovoljenja. Angwin je zato vložila skupinsko tožbo proti podjetju Superhuman, v kateri trdi, da je podjetje kršilo njene zasebnostne in osebnostne pravice ter pravice drugih vpletenih avtorjev.
Novinar Casey Newton je funkcijo preizkusil in ugotovil, da so odgovori izredno splošni. Po burnih odzivih je izvršni direktor Superhumana Shishir Mehrotra na LinkedInu sporočil, da so Expert Review izklopili in se opravičil, ob tem pa še vedno branil samo idejo storitve.
3. Zakaj je to pomembno
Gre za več kot neroden poskus, kako podražiti naročnino z navidezno prestižnejšo storitvijo. Grammarly je poskušal unovčiti nekaj zelo osebnega: profesionalno avtoriteto, ki je navezana na konkretno ime.
Učenje modelov na javno dostopnih besedilih je že samo po sebi sporno. Tu pa ne gre samo za to, na čem je bil model treniran, temveč za izrecno trditev pred uporabnikom: zdaj vas bo pokomentiral nekdo, ki se obnaša kot točno določena oseba. To se nevarno približa lažnemu priporočilu in neupravičeni uporabi osebnostnih pravic – tudi če ne vidimo fotografije ali podpisa.
Kdo ima korist? Kratkoročno bi Grammarly rad prešel iz orodja za lektoriranje v premium svet uredniškega svetovanja in pri tem zaračunaval višjo naročnino. Kdo izgubi? Avtorji, uredniki in znanstveniki, katerih ugled se spremeni v tržno znamko brez nadomestila in nadzora.
Nevarnost je tudi izguba zaupanja. Če lahko katerakoli aplikacija z enim klikom posnema vašega najljubšega kolumnista ali profesorja, kako boste vedeli, ali imate na zaslonu resnega strokovnjaka ali le prijazno masko nad generičnim modelom? Normalizacija takšnih sintetičnih osebnosti poceni človeško ekspertizo in briše odgovornost, ko je nasvet slab.
Za AI industrijo je to jasen signal: obdobja, v katerem je bila identiteta razumljena kot prosto dostopen vir, je konec.
4. Širši kontekst
Grammarly ni osamljen primer, ampak simptom širšega trenda.
V zadnjih letih smo videli množične tožbe proti ponudnikom generativne umetne inteligence zaradi uporabe knjig, novinarskih arhivov in programerske kode brez licenc. Na družbenih omrežjih krožijo deepfake oglasi z znanimi obrazi, glasovne asistente pa pogosto kritizirajo, ker sumljivo spominjajo na znane igralce.
Veliki igralci, kot sta Meta in OpenAI, preizkušajo pogovorne bote z osebnostmi, ki aludirajo na zvezdnike ali vplivneže. Grammarly je isto logiko prenesel na uredniške odločitve: zakaj bi plačali pravega urednika ali recenzenta, če lahko dobite algoritem, ki deluje približno podobno in je na voljo 24/7?
Pravno gledano to spominja na stare primere iz sveta oglaševanja, ko so podjetja izgubila tožbe, ker so uporabila pevske posnemovalce ali like, ki so preveč spominjali na resnične osebnosti. Razlika je, da je šlo takrat za 30‑sekundni televizijski oglas, danes pa govorimo o sistemih, ki lahko v milijonih interakcij neprestano posnemajo slog in ton.
Če bodo sodišča ta stara načela prenesla v AI kontekst, bo Grammarly samo prvi v vrsti – ne pa tudi zadnji – z zelo drago lekcijo.
5. Evropski in slovenski vidik
Za Evropo je ta primer skoraj učbeniški prikaz, zakaj nastajajo GDPR, Akt o umetni inteligenci in drugi predpisi.
Po GDPR je ime in poklicna identiteta osebni podatek. Simuliranje prepoznavne osebe kot plačljive AI osebnosti bi številni nadzorni organi lahko razumeli kot obdelavo osebnih podatkov brez pravne podlage. Akt o umetni inteligenci, ki prinaša stroge zahteve glede preglednosti in upravljanja tveganj, pa dodatno dviguje prag tveganja za takšne funkcije.
V številnih državah – tudi v Sloveniji prek varstva osebnostnih pravic in avtorskopravnih institutov – velja, da uporaba imena ali podobe v komercialne namene brez soglasja ni dopustna. Funkcija, ki uporabniku obljublja komentar v stilu določene novinarke ali znanstvenika, je temu zelo blizu.
Za slovenske medije in avtorje je to še posebej občutljivo. Na manjšem trgu, kjer je vsak bralec pomemben, si uredništva težko privoščijo, da bi njihov najbolj prepoznavni kolumnist čez noč postal zgolj prijazna maska nad tujim modelom. Hkrati je priložnost za domača podjetja: orodja, ki bodo spoštovala avtorske in osebnostne pravice ter temeljila na soglasju, lahko v EU postanejo konkurenčna prednost.
6. Pogled naprej
Ključno vprašanje je, kje bodo sodišča in regulatorji potegnili mejo.
V ZDA bo v zadevi Angwin proti Superhumanu verjetno v ospredju vprašanje, ali uporaba imen ter impliciranih uredniških slogov pomeni lažno priporočilo in nedovoljeno komercialno izkoriščanje osebnosti. Razkritja v postopku bodo pokazala, ali je bilo vodstvo pred opozorili pravnikov in zaposlenih gluho – kar bi lahko vplivalo tudi na višino odškodnin.
Ne glede na izid je pričakovati nove tožbe. Če ste prepoznaven avtor, profesor ali podcast ustvarjalec, boste verjetno želeli proaktivno preveriti, ali vas katero od orodij že uporablja kot AI maskoto. Zavarovalnice bodo ob vse večjih AI tveganjih začele od podjetij zahtevati veliko bolj stroge procese za vsako uporabo realnih identitet.
Na produktni strani se zdi najbolj verjeten razvoj vzpostavitev licenčnih, opt‑in osebnosti. Predstavljajte si tržnico, kjer novinarji, odvetniki ali coachi zavestno in proti plačilu licencirajo svoj slog za uporabo v AI orodjih, z jasnim označevanjem in pogodbenimi omejitvami. To ne bo rešilo vseh etičnih dilem, bo pa vsaj vrnilo element soglasja in nadomestila.
Za Slovenijo in EU bo naslednjih 18–24 mesecev ključnih. Nadzorni organi bodo testirali, kako daleč lahko obstoječa pravila gredo pri obravnavi AI posnemanja identitet, preden bodo potrebni novi členi zakonodaje. Pričakujte, da se bodo v razpravah oglasile tudi novinarske organizacije, kolektivne organizacije in univerze, ki se bodo morale odločiti, ali bodo svoje ime posodile algoritmom – in pod kakšnimi pogoji.
7. Bistvo
Grammarlyjev Expert Review ni bil samo slab produktni poskus, temveč jasen pokazatelj, kako zlahka lahko umetna inteligenca spremeni človeški ugled v poceni embalažo za generični model. Če sodišča in regulatorji ne bodo postavili ostrih meja, bomo kmalu obdani s sintetičnimi strokovnjaki, medtem ko bodo pravi izrinjeni v ozadje. Ključno vprašanje za slovenske bralce je: ali ste pripravljeni, da tehnološka podjetja vašo identiteto obravnavajo kot brezplačen vhodni podatek?



