Prema Jannu Tallinnu, neprincipijelna umjetna inteligencija predstavlja veću opasnost od klimatske krize.       Foto: Alastair Grant / AP

OpenAI-jev ChatGPT velikih jezičkih modela (LLMs), pokrenut u novembru 2022. godine, i njegov nasljednik GPT-4, objavljen u martu 2023, privukli su veliku pažnju šire javnosti, izazivajući i obećanja i zabrinutost.

S obzirom na ovakav razvoj događaja, Institut za budućnost života je 28. marta objavio otvoreno pismo za „pauziranje gigantskog AI eksperimenta“.

Autori pisma pozivaju na odgađanje obuke velikih jezičkih modela na šest mjeseci, predstavljajući scenarij “superinteligencije” koji vodi do izumiranja čovječanstva – također poznat kao egzistencijalni rizik ili x-rizik.

Prema suosnivaču Instituta za budućnost života Jannu Tallinnu, neprincipijelna umjetna inteligencija predstavlja veću opasnost od klimatske krize.

U pismu se navodi: “Trebamo li dozvoliti mašinama da preplave naše informativne kanale propagandom i neistinom? Trebamo li automatizirati sve poslove, uključujući i one koji nas ispunjavaju? Trebamo li razviti neljudske umove koji bi nas na kraju mogli nadmašiti, nadmudriti, zastariti i zamijeniti? Trebamo li rizikovati gubitak kontrole nad našom civilizacijom?“

Bilo je mnogo kritika i neslaganja s pismom, posebno od Instituta za istraživanje distribuirane umjetne inteligencije (DAIR), čiji je osnivač Timnit Gebru.

To je zato što naracija pisma ima za cilj da uplaši ljude dok reklamira “previše moćne alate“ koje treba ukrotiti, što sveukupno podstiče AI promociju.

Ideologija u čijoj je osnovi zabrinutost koju je izrazio Institut za budućnost života je takozvana dugotrajnost.

Njen cilj je maksimizirati ljudsko blagostanje u decenijama, ako ne i vijekovima ili milenijima koji dolaze, na štetu sadašnjosti.

Poznati zagovornici dugotrajnosti sada su osramoćeni izvršni direktor FTX-a Sam Bankman-Fried, izvršni direktor Twittera i SpaceX-a Elon Musk, kontroverzni poduzetnik Peter Thiel i transhumanistički filozof Nick Bostrom, koji primjećuje: „Očekivana vrijednost smanjenja egzistencijalnog rizika za samo milioniti dio procenta je najmanje deset puta veća od milijardu ljudskih života”.

Rasistička pozadina dugotrajnosti poprima oblik onoga što Abeba Birhane naziva “digitalnim kolonijalizmom“, koji ponavlja vijekove ugnjetavanja u korist vizije elite tehnoloških milijardera o “dobru za čovječanstvo“, što uključuje kolonizaciju svemira ili transcendiranje naše smrtnosti.

Međutim, ovaj tehnoutopizam, za koji je „sigurna umjetna inteligencija“ neophodna za tako željenu singularnost, odvlači pažnju od hitnih aktuelnih pitanja.

Skriveni troškovi “superinteligencije“

Iako se čini da su ovi sistemi “autonomni” i “inteligentni”, oni se i dalje oslanjaju na veliku ljudsku radnu snagu.

Kao što pokazuje Kate Crawford, ovo počinje vađenjem minerala i proizvodnjom hardvera.

Zatim, podaci, koji se često brišu bez ikakvog pristanka, kao i uvredljivi, seksualni ili nasilni sadržaji moraju biti označeni kako bi im se dalo značenje.

Ovaj eksploatatorski, psihički uznemirujući i nedovoljno plaćen rad odvija se nevidljivo u pozadini.

Dakle, umjesto „automatizacije svih poslova“, rezultat je pogoršanje društvenih nejednakosti i centralizacija moći.

Drugi problem s idejom „superinteligencije“ je taj što ona ostavlja lažni utisak da LLM entiteti razumiju i možda čak imaju osjećanja ili empatiju.

Kao rezultat toga, ljudi se previše oslanjaju na rezultate LLM-a, kao u tragičnom slučaju koji je doveo čovjeka do samoubistva nakon interakcije s chatbotom nekoliko sedmica.

Još jedan medicinski chatbot koji koristi GPT-3 također je predložio izvršenje samoubistva ili početak recikliranja kako bi se prevladala tuga.

Ovo posljednje zvuči besmisleno. Ali LLM samo spaja riječi koje zvuče uvjerljivo, što može rezultirati apsurdnim, netačnim, štetnim i obmanjujućim rezultatom, kao što je članak u kojem se spominju prednosti konzumiranja smrvljenog stakla.

S obzirom na ovo, moglo bi se postaviti pitanje šta opravdava upotrebu GPT-a.

Koji problem LLM pokušava riješiti? Također, uzmite u obzir da oni troše ogromnu količinu energije – procjenjuje se da samo obučavanje jednog modela kao što je GPT-3 troši toliko električne energije kao 120 američkih domaćinstava godišnje i proizvodi emisije ugljendioksida ekvivalentne emisijama 110 automobila godišnje.

Potreba za transparentnošću i odgovornošću

Dakle, osnovna ideja da se zaustavi dalja obuka LLM-a za upravljanje čini se povoljnom.

U otvorenom pismu se, međutim, ne navodi na koga bi ova pauza mogla utjecati i kako je sprovesti ili osigurati.

Naivno je misliti da će svaka kompanija, univerzitet, istraživački institut ili bilo koji pojedinac koji koristi različite alternative otvorenih izvora jednostavno prestati.

U isto vrijeme, LLM-ovi koji su trenutno u upotrebi će nastaviti sa svojim implikacijama.

Pa ipak, Microsoft, koji je uložio više milijardi u OpenAI, i izvršni direktor Twittera Elon Musk koji je donirao 10 miliona dolara Institutu za budućnost života i koji je član njihovog odbora, otpustili su svoje etičke timove.

Kao prvi odgovor, Italija je prije nekoliko dana zabranila ChatGPT, a druge evropske zemlje razmatraju da učine isto. Ipak, nejasno je kako će ova zabrana utjecati na druge aplikacije koje koriste LLM kao što su ChatGPT ili GPT-4.

S obzirom na različite negativne efekte, nejasni i apokaliptični scenariji koji sežu daleko u budućnost, kako ih prikazuje Institut za budućnost života, ne dovode do konkretnih političkih mjera i propisa koji su trenutno potrebni – posebno ne u predloženom vremenskom okviru od šest mjeseci.

Umjesto toga, ako je politička agenda vođena idejom o “superinteligenciji“ koja kontroliše čovječanstvo, postoji opasnost da se trenutni rizici, kao i trenutna rješenja ignorišu. Iako LLM ne predstavlja egzistencijalni rizik za “našu” civilizaciju,

ipak je dovoljno veliki rizik za njen marginalizovani dio. Čak i ako želimo održati ideju “superinteligencije”, to ne bi trebao biti dominantni narativ na koji se sada fokusira.

Jer ako ove modele prikažete kao previše moćne i pripišete im neku vrstu djelovanja, sklanjate odgovornost s kompanija koje razvijaju ove sisteme. Da bi kompanije bile odgovorne, potrebna je transparentnost o tome kako su ovi LLM razvijeni i s kojim podacima su obučeni.

Ali umjesto toga, OpenAI, koji je, suprotno svom nazivu, sada je zatvorenog koda, navodi u svom takozvanom “tehničkom izvještaju“ o GPT-4 da “ovaj izvještaj ne sadrži dodatne detalje o arhitekturi (uključujući veličinu modela), hardveru, obuci izračunavanja, konstrukciji skupih podataka, metoda obuke ili slično”.

Ova tajnovitost ometa demokratske odluke, a time i propise o uslovima pod kojima LLM treba da se razvija i primjenjuje.

Ne postoji nešto kao što je “dobra umjetna inteligencija”; stoga ne bismo trebali vjerovati relativno maloj i privilegovanoj grupi ljudi koja vjeruje da je „superinteligencija“ neizbježna, što nije slučaj sa izgradnjom „sigurne“ umjetne inteligencije.

Umjesto toga, moramo početi uključivanjem različitih ljudi u razgovor, posebno onih koje je umjetna inteligencija oštetila, kako bismo promijenili narativ i odnose moći.

Napomena: Mišljenja izražena u ovom članku su autorova i ne odražavaju nužno uređivačku politiku TRT Balkan.

Napomena: Mišljenja izražena u ovom članku su autorova i ne odražavaju nužno uređivačku politiku TRT Balkan.

TRT Balkan