Na marginama rasprave koja se rasplamsava oko naglog razvoja tzv. veštačke inteligencije, izbila je relativno opskurna čarka zbog reči „halucinirati“.

Taj izraz koriste arhitekte i pristalice generativne AI da bi opisali potpuno izmišljene ili pogrešne odgovore četbotova. Na primer, kad tražite od bota da vam definiše nešto što ne postoji, a on vam, prilično ubedljivo, smesta odgovori sve sa izmišljenim fusnotama. „Niko na terenu još nije rešio problem halucinacija“, rekao je nedavno Sundar Pačaj, izvršni direktor Gugla i Alfabeta.

To je tačno – ali zašto se greške nazivaju halucinacijama? Zašto ne algoritamsko smeće? Ili kvar? Halucinacija se odnosi na misterioznu sposobnost ljudskog mozga da opaža pojave kojih nema, bar ne u konvencionalnom, materijalnom smislu. Aproprijacijom reči iz oblasti psihologije, psihodelika i raznih vrsta misticizma, pristalice veštačke inteligencije, dok priznaju pogrešivost svojih mašina, istovremeno podstiču najvažniji sektorski mit: da su u izgradnji velikih jezičkih modela, njihovim treniranjem na svemu što su ljudi ikada napisali, izgovorili i vizuelno predstavili, stigli na prag da izazovu evolutivni skok naše vrste. Kako bi inače botovi kao što su Bing i Bard mogli da tripuju?

Međutim, uvrnute halucinacije se zaista dešavaju u svetu veštačke inteligencije – samo što ne haluciniraju botovi. Žrtve sumanutih halucinacija su izvršni direktori tehnoloških kompanija, zajedno sa falangama svojih fanova, i pojedinačno i kolektivno. Halucinacije ovde razumem ne u mističnom ili psihodeličnom smislu, kao stanja izmenjene svesti koja zaista mogu da omoguće pristup dubokim, ranije neopaženim istinama. Ne. Ovi ljudi samo tripuju: vide, ili barem tvrde da vide, dokaze kojih uopšte nema, čak izmišljaju čitave svetove u kojima će njihovi proizvodi doprineti našem sveopštem uzdizanju i obrazovanju.

Govore nam da će generativna AI ukinuti siromaštvo. Izlečiće sve bolesti. Rešiće problem klimatskih promena. Udahnuće našim poslovima više smisla i uzbuđenja. Oslobodiće nam živote za dokolicu i kontemplaciju i pomoći nam da povratimo ljudskost koju smo izgubili u mehanicizmu kasnog kapitalizma. Ukinuće usamljenost. Pretvoriće naše vlade u racionalne i odgovorne. Bojim se da su ovo prave AI halucinacije, a slušamo ih neprestano otkako je Chat GPT lansiran krajem prošle godine.

Postoji svet u kom bi generativna veštačka inteligencija, kao moćan prediktivni alat i izvršilac monotonih zadataka, zaista mogla da se upregne u korist čovečanstva, drugih vrsta i našeg zajedničkog doma. Ali da bi se to ostvarilo, nužno je da se ove tehnologije rasporede unutar znatno drugačijeg ekonomskog i društvenog poretka od našeg, koji bi za svrhu imao ispunjavanje ljudskih potreba i zaštitu životnih sistema na planeti.

Mi koji ne tripujemo, dobro znamo da naš aktuelni poredak nije ni nalik tome. Naprotiv, izgrađen je da maksimizuje izvlačenje bogatstva i profita – i od ljudi i od prirodnog sveta – što je stvarnost koja nas je dovela do tehno-nekro stadijuma kapitalizma. U takvoj stvarnosti hiper-koncentrisane moći i bogatstva, ne samo da je veštačka inteligencija daleko od tih utopijskih halucinacija, već je mnogo veća verovatnoća da će postati zastrašujuće sredstvo za dalju otimačinu i pustošenje.

Za početak, korisno je razmisliti o svrsi kojoj služe utopijske halucinacije o AI. Kakav posao u kulturi rade ove priče o benevolenciji dok se upoznajemo s tim čudnim novim alatima? Evo jedne hipoteze: moćnim i zavodljivim pričama pokriva se nešto što se može ispostaviti kao najveća i najznačajnija krađa u ljudskoj istoriji. Svedoci smo da najbogatije kompanije u istoriji (Majkrosoft, Epl, Gugl, Meta, Amazon itd) jednostrano preuzimaju ukupnu sumu ljudskog znanja koje postoji u digitalnom obliku i ugrađuju ga u zaštićene vlasničke proizvode, od kojih će mnogi direktno nišaniti ljude na čijem su životnom delu trenirani bez dozvole ili pristanka.

To ne bi trebalo da je legalno. U slučaju materijala zaštićenih autorskim pravima, za koje sada znamo da su korišćeni za trening AI modela (uključujući i sadržaje medija za koji ovo pišem), podnete su razne tužbe zasnovane na tvrdnji da je to očigledno nezakonito. Zašto bi se, na primer, nekoj profitnoj kompaniji dozvolilo da ubacuje slike, crteže i fotografije živih umetnika u programe kao što su Stable Diffusion ili Dall-E 2 – da bi ih onda koristila za generisanje udvojenih verzija radova umetnika, od čega koristi imaju svi osim samih umetnika?

Zajedno sa kolegama, slikarka i ilustratorka Moli Krabapl stala je na čelo pokreta umetnika koji se bore protiv ove krađe: „AI generatori umetnosti trenirani su na ogromnim skupovima podataka, koji sadrže milione slika zaštićenih autorskim pravima, prikupljenih bez znanja autora, a kamoli nadoknade ili saglasnosti. To je praktično najveća pljačka umetničkih dela u istoriji. Krađu vrše ugledni korporativni entiteti, uz podršku rizičnog kapitala iz Silicijumske doline. To je neskrivena pljačka“, navodi se u njihovom otvorenom pismu.

Trik je, naravno, u tome što Silicijumska dolina krađu rutinski naziva „disrupcijom“ – i prečesto joj uspeva da se izvuče s tim opravdanjem. Poznata nam je ta finta: krenu u juriš na zakonom još neuređenu teritoriju; proglase da stara pravila ne važe za njihovu novu tehnologiju; kukaju da bi regulisanje pomoglo samo Kini – dok za to vreme neometano rade šta su naumili. Do trenutka kad se svi naviknu na nove igračke i počnu da se bave njihovim društvenim, političkim i ekonomskim posledicama, tehnologija je već toliko sveprisutna da sudovima i političarima preostaje samo da naprosto dignu ruke.

Videli smo to sa Guglovim skeniranjem knjiga i umetničkih dela. Sa Maskovom kolonizacijom svemira. Sa Uberovim desantom na taksi industriju. Sa napadom koji je Airbnb preduzeo na rentijersko tržište. U promiskuitetnom ponašanju Fejsbuka s našim podacima. Ne tražite saglasnost, vole da kažu disruptori, tražite oproštaj. (I podmažite molbe velikodušnim prilozima za kampanju.)

U knjizi Doba nadzornog kapitalizma (The Age of Surveillance Capitalism) Šošana Zubof detaljno opisuje kako su Guglove Street View mape pregazile utvrđene norme privatnosti kada su njihovi automobili sa kamerama snimali naše javne puteve i spoljašnjost naših domova. Do pokretanja prvih tužbi za zaštitu prava na privatnost, Street View aplikacija je već bila toliko sveprisutna na našim uređajima (i tako kul, tako podesna) da je malo sudova van Nemačke bilo spremno da interveniše.

Isto ono što se desilo eksterijeru naših domova, sada se dešava našim rečima, našim slikama, našim pesmama, čitavim našim digitalnim životima. Sve to se trenutno preuzima i koristi u treniranju mašina za simulaciju razmišljanja i kreativnosti. Te kompanije sigurno znaju da učestvuju u krađi, ili bar da se to može dokazati. Samo se nadaju da će stara strategija još jednom da upali – da su razmere pljačke već tako velike i da se odvijaju takvom brzinom, da će sudovi i političari i ovog puta dići ruke jer je sve to navodno neizbežno.

Zato su im toliko važne halucinacije o svim divnim stvarima koje će AI učiniti za čovečanstvo. Te nadmene tvrdnje lažno prikazuju masovnu krađu kao poklon, dok u isto vreme racionalizuju neosporne rizike veštačke inteligencije.

Mnogi od nas su već čuli za anketu u kojoj je od istraživača i programera AI traženo da procene verovatnoću da će napredni sistemi veštačke inteligencije izazvati „ljudsko izumiranje ili slično trajno i ozbiljno slabljenje ljudske vrste“. Zastrašujuće, medijana odgovora bila je da je šansa za to 10%.

Kako racionalizovati rad na izgradnji i promociji alata koji nose takve egzistencijalne rizike? Često se navodi da ovi sistemi imaju ogromne potencijalne pozitivne strane – osim što su te prednosti, uglavnom, halucinacije. Pogledajmo neke od najluđih.

Halucinacija #1: AI će rešiti klimatsku krizu

Gotovo po pravilu, na vrhu liste prednosti veštačke inteligencije nalazi se tvrdnja da će ovi sistemi nekako rešiti klimatsku krizu. Čuli smo to od Svetskog ekonomskog foruma, Saveta za spoljne odnose i Bostonske konsalting grupe, koja objašnjava da se veštačka inteligencija „može koristiti kao podrška svim zainteresovanim stranama da zauzmu bolje informisan pristup, zasnovan na podacima, u borbi protiv emisija ugljenika, kao i u izgradnji zelenijeg društva. Takođe može služiti za reorganizaciju tereta globalnih klimatskih napora u korist najugroženijih regiona“. Bivši izvršni direktor Gugla, Erik Šmit, sažeo je poentu kada je rekao da rizike veštačke inteligencije vredi preuzeti, jer „ako pomislite na najveće probleme na svetu, svi su oni zaista teški – klimatske promene, ljudske organizacije i tako dalje. Dakle, uvek želim da ljudi budu pametniji“.

Prema ovoj logici, neuspeh u „rešavanju“ velikih problema poput klimatskih promena posledica je manjka pameti. Nema veze što pametni ljudi sa doktoratima i Nobelovim nagradama decenijama govore našim vladama šta treba da se desi da bismo se izvukli iz ove nevolje: drastično smanjiti emisije, ne vaditi ugljenik iz zemlje, pozabaviti se prekomernom potrošnjom bogatih i nedovoljnom potrošnjom siromašnih jer nijedan izvor energije nije lišen ekološke cene.

Ovi vrlo pametni saveti su ignorisani ne zato što imamo problem s razumevanjem pročitanog, niti zato što su nam na neki način potrebne mašine da razmišljaju umesto nas. Naprosto, postupci koje klimatska kriza zahteva značili bi napuštanje infrastrukture za fosilna goriva, vredne na bilione dolara, i osporavanje modela rasta zasnovanog na potrošnji, koji se nalazi u središtu naših međusobno povezanih ekonomija. Klimatska kriza, zapravo, nije misterija ni zagonetka koju još nismo rešili zbog nedovoljno solidnih podataka. Znamo šta je potrebno, ali to ne bi bilo brzo rešenje – već promena paradigme. Čekati da mašine izbace prijatnije i/ili profitabilnije rešenje nije lek za ovu krizu, već još jedan njen simptom.

Zanemarite halucinacije i pokazaće se da je daleko izglednije da način na koji se AI uključuje na tržište u stvari aktivno produbljuje klimatsku krizu. Prvo, džinovski serveri koji omogućavaju instant eseje i umetnička dela od četbotova, jesu ogroman i rastući izvor ugljeničnih emisija. Drugo, kako kompanije kao što je Coca-Cola kreću u ogromne investicije u primenu generativne AI za veću prodaju, sve je jasnije da će se ova nova tehnologija koristiti na isti način kako se koristila poslednja generacija digitalnih alata: da ono što počinje sa nadmenim obećanjima o širenju slobode i demokratije, završava na mikrociljanim oglasima samo da bismo kupovali još beskorisnih, a zagađujućih stvari.

Postoji i treći faktor, koji je malo teže odrediti. Što su nam medijski kanali više preplavljeni tzv. dubokim lažnjacima1 i klonovima raznih vrsta, sve nam je jači utisak da tonemo u informativni živi pesak. To dobro razume Džefri Hinton, koga često nazivaju „kumom veštačke inteligencije“ jer se neuronska mreža koju je razvio pre više od decenije nalazi u temeljima današnjih velikih jezičkih modela. Hinton je upravo napustio visoku poziciju u Guglu kako bi mogao slobodno da govori o rizicima tehnologije u čijem je stvaranju učestvovao, uključujući, kako je rekao, rizik da ljudi „više nisu u stanju da znaju šta je istina“.

To je značajna perspektiva naspram tvrdnje da će AI pomoći u borbi protiv klimatske krize. Jer kada nemamo poverenja u ono što čitamo i gledamo u našem sve jezivijem medijskom okruženju, nismo u stanju da rešavamo urgentne zajedničke probleme. Naravno, kriza poverenja starija je od bota ChatGPT, ali nema sumnje da će proliferaciju dubokih lažnjaka pratiti eksponencijalni rast već razbuktalih kultura zavere. Da li će tehnološka i naučna otkrića biti prihvatljivija ako do njih dođe AI? Kada se razbije zajednička stvarnost, nećemo moći da damo nikakvo logično rešenje problema.

Halucinacija #2: AI će omogućiti mudro upravljanje

Ova halucinacija priziva blisku budućnost u kojoj su političari i birokrate, oslanjajući se na ogromnu agregiranu pamet AI sistema, u stanju da „uoče obrasce potreba i razviju planove zasnovane na dokazima“ od kojih će građani imati veće koristi. Tvrdnja potiče iz dokumenta koji je objavila fondacija Boston konsalting grupe, a prepisuju je mnogi istraživački centri i savetnici za menadžment. Nije čudno da su upravo firme angažovane za identifikaciju ušteda u troškovima vlada i korporacija, često kroz otpuštanje velikog broja radnika, najbrže uskočile u AI voz. Globalna mreža za ovu vrstu usluga PwC (ranije PricewaterhouseCoopers) nedavno je najavila investiciju od milijardu dolara, dok su srodne kompanije Bain & Company i Deloitte oduševljene primenom ovih alata za veću „efikasnost“ njihovih klijenata.

Kao i kod tvrdnji o klimatskim promenama, treba se zapitati da li političari nameću okrutne i neefikasne politike zato što pate od nedostatka dokaza? Ili od nesposobnosti da „uoče obrasce“? Zar sami nisu u stanju da shvate ljudsku cenu stroge štednje u javnom zdravstvu usred pandemije, ili odsustva ulaganja u netržišne stanove dok se naši gradski parkovi pune šatorima, ili odobravanja izgradnje nove infrastrukture za fosilna goriva dok temperature rastu? Da li im treba veštačka inteligencija da bi postali „pametniji“ – ili su dovoljno pametni da znaju ko će im finansirati sledeću kampanju ili se prikloniti rivalima, ako zastrane?

Baš bi bilo fino kad bi veštačka inteligencija mogla da prekine vezu između korporativnog novca i nepromišljenih političkih odluka – ali ta veza objašnjava zašto je kompanijama poput Gugla i Majkrosofta uopšte bilo dozvoljeno da puste svoje četbotove u javnost, uprkos lavini upozorenja i poznatim rizicima. Šmit i ostali vode višegodišnje kampanje lobiranja obe strane u Vašingtonu, kojima govore da će Kina prestići zapadne sile, ako ih ne puste da slobodno napreduju u razvoju generativne AI, neopterećeni ozbiljnom regulativom. Prošle godine, najveće tehnološke kompanije potrošile su rekordnih 70 miliona dolara na lobiranje u Vašingtonu – više od naftnog sektora – a u tu sumu nisu uračunati milioni potrošeni „na širok spektar njihovih trgovinskih grupa, neprofitnih organizacija i savetničkih firmi“.

Pa ipak, uprkos znanju o tome kako tačno novac oblikuje politiku u našim nacionalnim prestonicama, sve se to zaboravi dok Sem Altman, izvršni direktor kompanije OpenAI – proizvođača modela ChatGPT –govori o najboljim scenarijima za svoje proizvode. Naprotiv, čini se da mu se priviđa svet potpuno drugačiji od našeg, u kom političari i industrija donose odluke na osnovu najboljih podataka i nikada ne bi ugrozili bezbrojne živote radi profita i geopolitičke prednosti. Što nas dovodi do još jedne halucinacije.

Halucinacija #3: možemo verovati tehnološkim gigantima da neće pokvariti svet

Upitan da li je zabrinut zbog mahnite zlatne groznice koju je ChatGPT već pokrenuo, Altman je rekao da jeste, ali je optimistično dodao: „Nadam se da će sve ispasti kako treba.“ O kolegama izvršnim direktorima drugih tehnoloških kompanija – onima koji žure da što pre izbace svoje četbotove – rekao je: „Mislim da će bolji anđeli pobediti.“

Bolji anđeli? U Guglu? Prilično sam sigurna da je kompanija većinu otpustila jer su objavljivali kritičke radove o veštačkoj inteligenciji ili prozivali kompaniju zbog rasizma i seksualnog uznemiravanja na radnom mestu. Više „boljih anđela“ je dalo otkaz krajnje uznemireni, kao Hinton. Za razliku od scenarija u halucinacijama ljudi koji najviše profitiraju od veštačke inteligencije, Gugl ne donosi odluke na osnovu onoga što je najbolje za svet – već na osnovu onoga što je najbolje za akcionare korporacije, koji ne žele da propuste najnoviji trend u trenutku kada su Majkrosoft, Meta i Epl već uveliko u poslu.

Halucinacija #4: AI će nas osloboditi monotonog kulučenja

Ako benevolentne halucinacije Silicijumske doline nekome zvuče moguće, postoji jednostavan razlog za to. Generativna AI trenutno je u stadijumu kvazi-socijalizma. To je već dobro poznat strateški korak Silicijumske doline. Prvo se napravi atraktivan proizvod (pretraživač, alat za mapiranje, društvena mreža, video ili platforma za zajedničku vožnju), koji se onda da javnosti da ga besplatno ili skoro besplatno koristi nekoliko godina, bez vidljivog održivog poslovnog modela („Igrajte se sa botovima“, kažu nam, „otkrijte šta sve možete da kreirate!“). Za to vreme, pričajte kako to radite samo iz želje da stvorite „javni forum“ ili „informaciono zajedničko dobro“ ili da „povezujete ljude“, dok širite slobodu i demokratiju (a niste „zli“). Pustite da se ljudi navuku na ove besplatne alate, a vaši konkurenti proglase bankrot. Kad se polje raščisti, vreme je za ciljane oglase, stalni nadzor, ugovore sa policijom i vojskom, prodaju podataka iz crne kutije i naplatu korisničkih usluga.

Mnogi životi i sektori su desetkovani ranijim iteracijama ove strategije, od taksi prevoza, preko rentijerskog tržišta do lokalnih medija. To bi uskoro moglo da nam zvuči kao sitan gubitak, jer se u revoluciji veštačke inteligencije sa perspektivom zamene prihoda kvarljivim softverom sada suočavaju nastavnici, programeri, vizuelni umetnici, novinari, prevodioci, muzičari, zdravstveni radnici i mnogi drugi.

Ne brinite, haluciniraju entuzijasti AI, biće divno. Ko uopšte voli da radi? Govore nam da generativna veštačka inteligencija neće značiti kraj zaposlenja, već samo kraj „dosadnih poslova“ – gde će četbotovi uslužno obavljati sve one monotone zadatke koji ubijaju u pojam, a ljudi će ih samo nadgledati. Altman, sa svoje strane, vidi budućnost u kojoj rad „može biti širi koncept, ne nešto što morate da uradite da biste mogli da jedete, već nešto što je vaš kreativni izraz i način da pronađete ispunjenje i sreću“.

To je uzbudljiva vizija lepšeg, ležernijeg života, koju dele mnogi levičari (uključujući zeta Karla Marksa, Pola Lafarga, koji je napisao manifest pod nazivom Pravo na lenjost). Ali mi levičari takođe znamo da ako zarađivanje novca više ne bude životni imperativ, onda mora biti drugih načina da zadovoljimo svoje potrebe za skloništem i hranom. Svet bez mučnih poslova znači da kirija mora biti besplatna, zdravstvena zaštita mora biti besplatna, a svaka osoba mora imati neotuđiva ekonomska prava. I onda odjednom uopšte više ne govorimo o veštačkoj inteligenciji – govorimo o socijalizmu.

Jer ne živimo u racionalnom, humanističkom svetu inspirisanom Zvezdanim stazama, koji se izgleda priviđa Altmanu. Živimo u kapitalizmu, a u tom sistemu posledice zatrpavanja tržišta tehnologijama koje mogu da obavljaju ekonomske zadatke umesto nebrojnih radnika, neće značiti da će ti ljudi odjednom biti slobodni da filozofiraju i komponuju muziku. Značiće da će ti ljudi biti na ivici ambisa – dok će umetnici pasti među prvima.

To je i poruka otvorenog pisma Moli Krabapl, u kom se pozivaju „umetnici, izdavači, novinari, urednici i čelnici novinarskih sindikata da se založe za ljudske vrednosti protiv upotrebe generativnih slika veštačke inteligencije […] i da se posvete podršci umetnosti u uredničkim medijima koju stvaraju ljudi, a ne farme servera“. U pismu, koje su do sada potpisale na stotine umetnika, novinara i drugih, navodi se da je svačiji rad, osim najelitnijih umetnika, „u opasnosti od izumiranja“. A prema Hintonu, „kumu veštačke inteligencije“, nema razloga da verujemo da se pretnja neće proširiti. Četbotovi možda ukidaju „mučne poslove“, ali „bi nam mogli oduzeti i više od toga“.

Krabapl i njeni koautori pišu: „Generativna AI umetnost je vampirska, gosti se umetničkim delima prošlih generacija i zaliva krvlju živih umetnika.“ Međutim, ima načina da se odupremo: možemo odbiti da koristimo ove proizvode i organizovati se da zahtevamo da ih odbiju i naši poslodavci i vlade. U pismu istaknutih stručnjaka za etiku veštačke inteligencije (među kojima je i Timnit Gebru, koju je Gugl otpustio 2020. jer se usprotivila diskriminaciji na radnom mestu) navode se neki od regulatornih alata koje vlade mogu odmah da uvedu – uključujući potpunu transparentnost o skupovima podataka koji se koriste za treniranje AI modela. Potpisnici ističu: „Ne samo da bi uvek trebalo da nam bude jasno šta gledamo kada gledamo sintetičke medije, već bi od organizacija koje grade ove sisteme trebalo zahtevati i da dokumentuju i obelodane podatke o treningu i arhitekturi modela… Trebalo bi da gradimo mašine koje rade za nas, umesto da ‘adaptiramo’ društvo da bude mašinski čitljivo i opisivo.“

Mada tehnološke kompanije žele da verujemo da je već prekasno za povlačenje proizvoda koji zamenjuje i oponaša ljude, postoje relevantni pravni i regulatorni presedani koji se mogu primeniti. Tako je, na primer, američka Federalna trgovinska komisija (FTC) primorala kompaniju Cambridge Analytica, kao i Everalbum, vlasnika foto aplikacije, da unište čitave algoritme za koje je utvrđeno da su trenirani na nezakonito preuzetim podacima i fotografijama. U svojim ranim danima, Bajdenova administracija je iznosila mnoge smele tvrdnje o regulisanju krupnog tehnološkog biznisa, uključujući suzbijanje krađe ličnih podataka za izradu vlasničkih algoritama. Kako se bliže predsednički izbori, pravi je trenutak da se ta obećanja ispune – da se spreči sledeći talas masovnih otpuštanja.

Svet dubokih lažnjaka, mimikrijskih petlji i sve veće nejednakosti nije neizbežan. To je skup političkih izbora. Imamo mogućnost da regulišemo trenutni oblik vampirskih četbotova – i da počnemo da gradimo svet u kome bi najuzbudljivija obećanja veštačke inteligencije bila nešto više i drugačije od halucinacija Silicijumske doline.

Zato što smo mi trenirali mašine. Svi mi. Ali za to nikada nismo dali saglasnost. Mašine su se hranile kolektivnom ljudskom genijalnošću, inspiracijom i otkrićima (uz pokoji zalogaj nekih naših loših osobina). Postale su modeli za opkoljavanje i prisvajanje, koji proždiru i privatizuju naše individualne živote, kao i naše kolektivno intelektualno i umetničko nasleđe. Cilj im nikada nije bio da reše klimatske promene ili da učine naše vlade odgovornijim, a naš svakodnevni život ležernijim. Na masovnom siromašenju uvek treba da se profitira, što je u kapitalizmu očigledna i logična posledica zamene ljudskih funkcija botovima.

Da li sve to zvuči suviše dramatično? Staromodan i nepromišljen otpor uzbudljivim inovacijama? Čemu zle slutnje? Altman nas uverava: „Niko ne želi da uništi svet.“ Možda je tako. Ali kako nam svakodnevno pokazuju sve dublja klimatska i kriza izumiranja, izgleda da je mnogo moćnih ljudi i institucija sasvim u miru sa svešću da pomažu u uništavanju stabilnosti planetarnih životnih sistema, sve dok mogu da prave rekordne profite, uvereni da će novac zaštititi i njih i njihove porodice od najgorih posledica. Kao i mnoga stvorenja Silicijumske doline, i sam Altman je vernik katastrofe za koju se priprema; još 2016. se hvalio: „Imam oružje, zlato, kalijum jodid, antibiotike, baterije, vodu, gas-maske izraelskih odbrambenih snaga i veliki komad zemlje u Big Suru gde mogu da se sklonim.“

Prilično sam sigurna da te činjenice govore mnogo više o tome šta Altman zapravo veruje o budućnosti kojoj doprinosi, od bilo kakvih raspevanih halucinacija koje nam javno prepričava.

The Guardian, 08.05.2023.

Prevela Milica Jovanović

Peščanik.net, 01.06.2023.

NOVE TEHNOLOGIJE

________________

  1. Deep fake, sintetički video i audio sadržaj. Snimak obraćanja Morgana Frimena iz jula 2021. pokazao je nove kapacitete AI tehnologije – glas je pozajmio dobar imitator, ali su odgovarajuće micanje usta i facijalnu ekspresiju izvele mašine; prim.prev.