AI proti avtentičnosti: kaj razkriva »vibe coded« prevajalnik v igričarski zgodovini
Majhen stranski projekt, financiran prek Patreona, je v nekaj dneh razdelil eno najpomembnejših skupnosti za ohranjanje video iger. Doma narejeno orodje za prevajanje, zgrajeno okoli Google Gemini in opisano kot »vibe coded«, je sprožilo burno razpravo o tem, kje je meja med dostopnostjo in znanstveno zanesljivostjo.
Ne gre le za enega razvijalca ali eno aplikacijo. Primer Gaming Alexandria je test, s katerim ugotavljamo, kako daleč so skupnosti pripravljene iti pri uporabi AI, da bi odprle ogromne arhive, ne da bi pri tem onesnažile zgodovinski zapis. V nadaljevanju povzemam, kaj se je dejansko zgodilo, zakaj je odziv tako čustven in kaj to pomeni tudi za evropske ter slovenske igričarske arhive.
Novica na kratko
Kot poroča Ars Technica, je Gaming Alexandria – dobro znani portal za skenirane japonske revije o igrah in drugo zgodovinsko gradivo – predstavil nov namizni program Gaming Alexandria Researcher. Orodje je kot osebni projekt razvil dolgoletni sodelavec Dustin Hubbard. Program na lokalnem računalniku uporablja Google Gemini za OCR in strojne prevode skeniranih japonskih revij.
Uporabnik lahko išče, prenaša in lokalno gleda skene skupaj z AI‑generiranim besedilom in prevodom. Stroške procesiranja – nekaj deset centov do približno dolarja ali dveh na revijo – je Hubbard deloma kril z denarjem z Patreona, kjer Gaming Alexandria trenutno prejema več kot 250 dolarjev mesečno.
Ko je projekt kot »beta« predstavil podpornikom, je sledil hiter in oster odziv. Kritiki v skupnosti za ohranjanje iger so ocenili, da je uporaba skupnih sredstev za AI‑prevajanje neodgovorna ter da nezanesljivi prevodi ogrožajo resno raziskovalno delo. Hubbard se je opravičil, napovedal, da bo porabljeni Patreon denar nadomestil iz lastnega žepa, in obljubil, da v prihodnje ne bo več uporabljal skupnih sredstev za AI. Kljub temu je orodje ostalo na GitHubu, skupnost pa je razdeljena glede tega, ali je kakršna koli uporaba generativne AI sploh sprejemljiva.
Zakaj je to pomembno
Na prvi pogled gre za obrobno dramo okoli retro portala. V resnici pa spremljamo problem, s katerim se bodo zelo kmalu soočili arhivi, knjižnice, muzeji in tudi slovenske skupnosti okoli iger:
Kako uporabiti AI za večjo dostopnost, ne da bi pri tem uničili zaupanje v zbirko?
Vrednost Gaming Alexandria ni le v »golih« skenih. Skupnost portal dojema kot pol‑avtoritativen vir za platnice, oglase in razvojno zgodovino. Ko takšne skene povežete z besedilom, ki ga je pripravil model z neznano stopnjo napake, ne ohranjate več zgolj artefaktov – ustvarjate interpretacije.
Zato so nekateri zgodovinarji reagirali tako ostro. Napačno prevedena oblikovalska opomba ali intervju z razvijalcem se hitro znajde na wikijih, v člankih in videih. Če skupnost plačuje za množično proizvodnjo takšnih prevodov, se to v očeh kritikov zdi kot subvencioniranje prihodnjih napačnih interpretacij zgodovine.
Na drugi strani pa so ljudje, ki vidijo predvsem obseg naloge. Govorimo o stotisočih strani japonske tiskane zgodovine. Noben prostovoljni projekt si ne more privoščiti profesionalnih prevajalcev za vse to. Tudi če bi našli prostovoljce, bi delo trajalo desetletja. Za mnoge raziskovalce je nepopoln, jasno označen strojni prevod boljši kot popolna nedostopnost – možnost iskanja po besedilu je že sama po sebi velika pridobitev.
Hubbard je nehote zadel v srž: problem upravljanja skupnosti. Ko posameznik sam odloči, da bo skupna sredstva porabil za sporni tehnološki pristop, se pokaže, da skupina nima jasnih pravil odločanja. Pri AI se izkaže, da načelo »zaupajmo arhivarju, saj dela v dobro skupnosti« ni več dovolj.
Širši kontekst
Ta spor leži na presečišču več trendov, ki preoblikujejo AI in digitalno dediščino.
Prvič, tu je »vibe coding« – hitro sestavljanje orodij s pomočjo velikih jezikovnih modelov in minimalnega klasičnega programiranja. To samostojnim vzdrževalcem daje ogromno moč: ena oseba lahko v nekaj dneh zgradi večplatformsko raziskovalno orodje, za katero bi še pred leti potrebovala mesece. Hkrati pa se tako izogne procesom, ki jih imajo večje institucije: ocena tveganj, etični pregled, dokumentacija.
Drugič, podobne bitke smo že videli v drugih medijih. Filmski arhivarji so se dolgo prepirali o AI barvanju in »nadgradnji« starih posnetkov. Zvočni inženirji so deljeni glede strojnega »čiščenja« zgodovinskih posnetkov. V igričarskem svetu poteka razprava o AI‑povečavi tekstur in »remaster« modih. Vzorec je vedno isti: tisti, ki delo dejansko opravljajo, potrebujejo orodja, ki se skalirajo; tisti, ki skrbijo za avtentičnost, se bojijo, da bo udobje prepisalo original.
Tretjič, primer se lepo ujema z večjo kulturo »dovolj dobrega AI«, ki jo promovirajo veliki ponudniki. Sporočilo je: če je rešitev poceni, hitra in večinoma pravilna, jo lansirajte in naj se uporabniki prilagodijo. Zgodovinopisje takšnega pristopa ne tolerira dobro. Ena napačno razumljena formulacija izjave razvijalca lahko obrne razlago celotnega projekta.
V primerjavi z muzeji ali nacionalnimi arhivi imajo prostovoljski projekti, kot je Gaming Alexandria, skoraj nič institucionalnih blažilcev. Ni etičnega odbora, ni pravne službe, ni formalnega sveta uporabnikov – ostanejo le nepisana pravila, javni pritiski in odpovedi naročnin. To jih hkrati dela bolj agilne in bolj krhke. Napaka, ki bi bila za državni muzej manjša PR‑zgodba, je lahko za prostovoljski portal skoraj eksistenčna grožnja.
Nenazadnje pa je odziv tudi opozorilo ponudnikom AI. Gemini ne tekmuje samo v kakovosti prevoda, temveč tudi v tem, ali skupnosti njegovo uporabo sploh dojemajo kot varno za vključitev v raziskovalne procese. Ko javno slišite, da prevodi niso »citatno vredni«, je pot v resna orodja za raziskovalce precej težja.
Evropski in slovenski kot
Za evropske bralce je ta primer predokus napetosti, ki bodo še izrazitejše z uveljavitvijo Uredbe EU o umetni inteligenci (AI Act).
Če bi Gaming Alexandria delovala iz, recimo, Berlina ali Ljubljane, bi AI‑podprto prevajanje kulturne dediščine padlo pod pravila za »splošno namenske sisteme AI« in zahteve po preglednosti. To bi pomenilo jasnejše opisovanje virov modela, njegovih omejitev in profila napak – ne le »poskusili smo Gemini in se nam zdi dober«. Evropske kulturne institucije so že zdaj vajene strogih pričakovanj glede provenience in sledljivosti, kar bo postopoma vplivalo tudi na skupnostne projekte.
Hkrati pa realnost v EU zelo spominja na dilemo Gaming Alexandria. Narodne knjižnice, univerze in lokalni muzeji digitalizirajo ogromne količine gradiva v številnih jezikih z omejenimi proračuni. Tudi institucije EU rutinsko uporabljajo strojno prevajanje za dostopnost dokumentov v vseh uradnih jezikih. Brez avtomatizacije bi velika večina tega gradiva ostala praktično nevidna.
Za slovenske igričarske zgodovinarje, ljubljanske indie studije in retro skupnosti v Mariboru ali na obali ni poanta v tem, da bi AI povsem prepovedali. Ključno je, da ji določimo vlogo: AI kot pomočnik, katerega rezultat je jasno označen, pregleden in podvržen preverjanju.
Tu se odpira tudi priložnost. Če bodo ameriški komercialni modeli dojeti kot kulturno pristranski ali nezanesljivi za zgodovinske vire, je to prostor za evropske odprtokodne in akademske prevajalske modele, prilagojene starejšim besedilom in specifičnemu žanrskemu jeziku (revije, oglaševanje, tehnični opisi). Vprašanje je, ali bodo evropske politike in raziskovalni programi to prepoznali kot priložnost, ali pa bodo skupnosti preprosto odvisne od ponudbe velikih podjetij.
Pogled naprej
Ta incident se ne bo zaključil z enim opravičilom in nekaj odpovedanimi naročninami.
V naslednjih 1–2 letih lahko pričakujete vsaj tri premike:
Skupnosti bodo začele pisati uradne politike o AI. Večji projekti ohranjanja – ne le v igrah – bodo objavili jasna pravila: kdaj je uporaba AI dovoljena, kako se takšni izhodi označijo in kako se lahko porabljajo skupna sredstva. To bo bolj podobno pravilom odprtokodnih skupnosti kot klasičnim hišnim redom.
Kompromis bo »AI‑pomoč, človek‑potrditev«. Popolna prepoved AI ni realistična, slepo zaupanje prav tako ne. Srednja pot je, da modeli opravijo OCR in prvi prevod, končni, »uradni« sloj pa potrdi človek. Ključno bo vizualno in strukturno ločiti nepreverjene prevode od verificiranih.
Nastala bo razslojena krajina arhivov. Nekateri projekti se bodo jasno označili kot brez AI, počasnejši, a bolj zanesljivi. Drugi bodo stavili na hitro dostopnost in polno iskalnost, a z jasnimi opozorili o tveganju. Raziskovalci se bodo morali naučiti izbirati pravo orodje za pravo nalogo.
Veliko tveganje je socialno. Če bo vsaka napaka pri uporabi AI povod za javni linč, se bodo prostovoljci in vzdrževalci začeli umikati. To bi bila izguba predvsem za tiste, ki se danes jezijo – saj tudi oni tem ljudem dolgujejo dostop do gradiva.
Pozitivna plat pa je, da lahko prav takšni konflikti pospešijo profesionalizacijo projektov: boljšo dokumentacijo, jasnejše ločevanje med surovimi skeni in interpretativnimi sloji ter skupna orodja za spremljanje kakovosti prevodov. AI sili arhive, da hitreje odrastejo.
Bistvo
Afera okoli Gaming Alexandria v resnici ni zgodba o Gemini ali enem »vibe coded« programu. Gre za vprašanje, kdo odloča, kako bomo uravnotežili obseg, natančnost in etiko pri ohranjanju digitalne kulture. AI‑prevodi so lahko izjemno orodje za dostopnost, a le, če jih skupnosti obravnavajo kot pogojne, sledljive in jasno ločene od zgodovinskega zapisa, ob katerem stojijo.
Kot podporniki ali člani takšnih projektov si zato velja zastaviti vprašanje: kakšno raven preglednosti in skupnostnega odločanja pričakujete, preden vaša sredstva končajo v AI‑orodjih v imenu »ohranjanja«?



