1. Naslov in uvod
OpenAI si lahko privošči, da v obdobju največje AI‑evforije preprosto ukine aplikacijo Sora, medtem ko tvegan kapital v istem trenutku zbira nove milijardne sklade za »naslednji val AI«. To ni nelogičnost, ampak natančen opis stanja trga leta 2026. Denar se vali, hkrati pa lokalne skupnosti blokirajo podatkovne centre, sodišča se prvič resno lotevajo družbenih omrežij, največji igralci pa že režejo lastne produkte.
V nadaljevanju pogledamo, kaj nam zadnja epizoda podkasta Equity pri TechCrunch pove o treznitvi AI: zakaj je Sora pristala pod giljotino, zakaj VC‑hiše še vedno brez zadržkov polnijo sklade, zakaj imajo droni in roboti morda bolj trdne temelje kot generativni pogovorni vmesniki in zakaj bi lahko tožbe proti Meti postale »tobačni trenutek« za celotno industrijo.
2. Dogodek na kratko
Kot poroča podkast Equity pri TechCrunch, se AI‑razcvet vse pogosteje zaletava v zelo konkretne omejitve.
Epizoda se začne s primerom 82‑letne kmetice iz Kentuckyja, ki je zavrnila 26 milijonov dolarjev, kolikor ji je ponudilo AI‑podjetje za izgradnjo podatkovnega centra na njenem posestvu. Podjetje po navedbah podkasta zdaj skuša preurediti namembnost še približno 2.000 okoliških akrov, kar lepo kaže, kako se AI‑infrastruktura spopada z voljo lokalne skupnosti.
Na produktni ravni je OpenAI napovedal ukinitev aplikacije Sora, kljub temu da je generativni video trenutno ena najbolj opevanih tehnologij. V ozadju denarni tokovi ne pojenjajo: ustanovitelja konkurenčnih napovednih platform Kalshi in Polymarket sodelujeta pri 35‑milijonskem skladu, Kleiner Perkins pa je zbral 3,5 milijarde dolarjev, pri čemer je AI osrednja tema.
Voditelji izpostavijo tudi drone in robotska podjetja, kot so Zipline, Lucid Bots in Brinc, ki beležijo resen tržni oprijem, ter dva sodna poraza Mete v istem tednu, ki bi lahko pomenila prelomnico za družbena omrežja.
3. Zakaj je to pomembno: trk evforije z realnostjo
AI je v neprijetni adolescenci: pričakovanja so astronomska, poslovni in družbeni temelji pa še vedno precej krhki.
Ukinitev Sore je simptom. Če si lahko tehnološki velikan z najmočnejšimi modeli in ogromnim kapitalom privošči, da v času AI‑manije zapre paradni produkt, to nakazuje vsaj dvoje:
- Ekonomika potrošniškega AI‑videa je neizprosna. Generiranje kakovostnega videa je izjemno drago. Če rast uporabnikov ne prinese takojšnjih prihodkov, so marže porazne – še posebej v trenutku, ko podjetje hkrati vlaga milijarde v lastne čipe in podatkovne centre.
- Regulativno in ugledno tveganje narašča. Hiperrealistična video‑sinteza v volilnem letu in okolju, obsedenem z dezinformacijami, je pravna minska polja. Deepfake posnetki, avtorske pravice, zaščita otrok – vsak video se lahko nekoč znajde kot dokazni material.
V tem okviru ukinitev Sore verjetno pomeni konsolidacijo fokusov: manj samostojnih aplikacij, več integracije z obstoječimi produkti in več pozornosti na varnost ter monetizacijo.
Na drugi strani je obnašanje VC‑jev: Kleiner Perkins zbere 3,5 milijarde, nov 35‑milijonski sklad vodi dvojec iz Kalshi in Polymarketa. Sporočilo je jasno – dolgoročna stava na AI ostaja. Kratkoročni zmagovalci so:
- ponudniki oblaka in čipov, ki prodajajo »kramp in lopate« za učenje in poganjanje modelov,
- specializirani startupi v robotiki, logistiki in vertikalnem SaaS, ki dokažejo konkreten donos.
Kdo izgublja?
- »Me too« modelni startupi, brez svoje infrastrukture in distribucije, ki jih stisnejo veliki igralci in odprtokodni modeli;
- družbena omrežja, ki se prvič resno soočajo s pravno odgovornostjo za škodo, ki jo povzročijo njihovi algoritmi.
Lekcija: denar še vedno teče, a je bolj izbirčen. »Imamo model« ni več dovolj; pokazati je treba posel – in načrt za upravljanje tveganj.
4. Širša slika: iz oblaka v fizični svet
Zgodba iz Kentuckyja dobro povzema naslednje poglavje: AI se iz čiste programske opreme seli v fizično, politično in okoljsko občutljiv svet infrastrukture.
Podobno smo že videli pri kriptorudarjenju – eksplozija porabe elektrike in odpor lokalnih skupnosti – ter pri prvem valu hiperskalnih podatkovnih centrov, ki so sprožali razprave o porabi vode, zemlji in elektriki. AI zdaj sledi istemu scenariju, le da v večjem obsegu in z več regulatornega žarometa.
Vzporedno pa droni in roboti – od Zipline do Lucid Bots in Brinc – predstavljajo nasprotno smer: AI zapušča podatkovni center in začne opravljati konkretna opravila:
- droni za dostavo obljubljajo hitrejšo in čistejšo logistiko,
- čistilni in inšpekcijski roboti avtomatizirajo nevarna ali monotona dela,
- droni za varnost in nujne službe pomagajo pri odzivu na nesreče.
To niso več le »cool demoti«, ampak projekti, ki se pojavijo v realnih proračunih podjetij. Tu se AI‑hype prevede v trajne prihodke.
Na finančni strani veliki skladi, kot je 3,5‑milijardni sklad Kleinerja, pomenijo, da se industrija dolgoročno zaklepa v AI‑strategijo. Tudi če pride do kratkoročnega »ohladitve«, ta denar mora v nekaj letih v podjetja. Ciljne smeri bodo:
- infrastruktura (čipi, podatkovni centri, omrežja, razvojne platforme),
- vertikalne aplikacije (zdravstvo, finance, proizvodnja, logistika),
- sistemi, ki povezujejo programsko opremo in avtomatizacijo v fizičnem svetu.
Nad vsem tem visijo sodni primeri proti Meti, ki jih Equity opiše kot možen »tobačni trenutek«. Če bodo sodišča bolj sistematično priznavala škodo zaradi algoritmov in oblikovanja platform, se bo spremenil način, kako gradimo potrošniške AI‑produkte – posebej tiste, ki vplivajo na otroke, volitve in duševno zdravje.
Skupna slika: industrija hkrati agresivno širi obseg in prvič resno trči ob varovalke.
5. Evropski vidik: regulacija kot konkurenčna prednost
Za evropske uporabnike in podjetja je ta trenutek skoraj domač. EU že leta velja za celino »kljukic in piškotnih pasic«, a svet se ji po tihem približuje.
Odpornost do podatkovnih centrov v Kentuckyju močno spominja na evropske razprave – od severa, kjer skrbijo za obremenitev omrežij in energije, do juga, kjer so kritični do porabe vode in pozidave kmetijskih zemljišč. Lokalne skupnosti so se iz preteklih izkušenj naučile: če že prinesete ogromno infrastrukturo, mora to prinesti tudi dolgoročne službe in izboljšanje lokalne infrastrukture.
Regulativno je EU v prednosti. GDPR že omejuje, kako lahko podjetja zbirajo in uporabljajo podatke za učenje modelov. DSA in DMA začrtujeta odgovornost platform in moč velikih posrednikov – neposredno relevantno za primere, kot so tožbe proti Meti. Akt o umetni inteligenci pa prinaša dodatne obveznosti za visokorizične sisteme in za razvijalce temeljnih modelov.
Za slovenske in širše evropske startupe je to dvorezen meč:
- strošek, ker zahteva resne pravne in varnostne kompetence že v zgodnji fazi;
- priložnost, ker »by‑design skladnost z EU« postaja konkurenčna prednost pri prodaji večjim evropskim korporacijam in javnemu sektorju.
Če se bodo ameriška sodišča res začela približevati »tobačnemu scenariju« za družbena omrežja in, širše, za škodljive AI‑sisteme, bo evropski »počasni« pristop morda videti manj birokratski in bolj previdno pameten.
6. Pogled naprej: kaj spremljati v naslednjih dveh letih
Tri prelome velja podrobneje spremljati.
1. Produkcijska selekcija v potrošniškem AI
Sora ne bo zadnji odmeven izdelek, ki bo izginil. Pričakujte val konsolidacij in tihih zaprtij, ko bodo:
- generativni video in slike trčili ob avtorske pravice, volilno zakonodajo in pravila zaščite otrok,
- visoki stroški inferenc predragi za aplikacije brez jasnega poslovnega modela,
- veliki igralci združevali funkcionalnosti v večje platforme z boljšimi maržami.
Spremljajte, kako OpenAI, Google, Anthropic in Meta pozicionirajo svoje video in multimodalne storitve: verjetno bomo videli manj samostojnih aplikacij in več integriranih »AI‑paketov«.
2. Politika AI‑infrastrukture
Primer Kentucky je napoved, ne anomalija. Velikopotezni AI zahteva:
- ogromno elektrike, po možnosti nizkoogljične,
- zemljišča blizu omrežja in hrbteničnih povezav,
- pogosto tudi veliko vode za hlajenje.
Občine – od Slovenije do ZDA – bodo zahtevale več transparentnosti in boljše pogoje. Videli bomo moratorije, referendume in strožje prostorske načrte. To lahko upočasni gradnjo, hkrati pa spodbuja učinkovitejše arhitekture in bolj razpršeno, robno računalništvo.
3. Pravni pritisk na platforme in priporočilne sisteme
Če bodo sveže sodbe proti Meti prestale pritožbe in jih bodo sledile nove, se utegne oblikovanje platform spremeniti iz PR‑vprašanja v pravno tveganje na ravni upravnih odborov. Vsak AI‑izdelek, ki:
- množično kurira vsebine,
- cilja mladoletnike,
- vpliva na politične informacije,
…bo pod drobnogledom regulatorjev in nevladnih organizacij. Razvojni, pravni in produktni oddelki bodo morali sodelovati od začetka, ne v zadnjem trenutku pred lansiranjem.
Za slovenske ustanovitelje in investitorje sporočilo ni »ne gradite AI«, ampak »gradite z zavestjo, da boste morali svoje odločitve razložiti – regulatorjem, sodiščem, sosedom in uporabnikom«.
7. Spodnja črta
AI se ne sesuva – trči ob resničnost. OpenAI lahko ukine Soro, ker ima druge prioritete in dovolj kapitala, da prenese napake. VC‑skladi lahko vlagajo milijarde, ker igrajo desetletno igro. Manj manevrskega prostora imajo skupnosti, ki gostijo podatkovne centre, uporabniki v objemu algoritmov in startupi, ujete med mega‑laboratorije in regulatorje.
Ključno vprašanje naslednjega vala ne bo »Kako zmogljivi so modeli?«, ampak »Kdo nosi stroške in tveganja?«. Odgovor na to vprašanje bi morali v Evropi – in v Sloveniji – začeti postavljati zdaj, dokler imamo še vpliv na oblikovanje pravil igre.



