Nedostatak osjećaja kod robota znači da su tradicionalni mehanizmi odvraćanja nedjelotvorni.       Foto: AP

Ova naša kratka priča, koja podsjeća na klasični roman Dostojevskog "Zločin i kazna", odvija se u digitalnoj epohi, crpeći motive iz komplikovanog glavnog lika Raskoljnikova. Međutim, u našem prikazu centralna figura nije ljudsko biće, već sofisticirani robot po imenu RaskolnikAI.

Osmišljen sa zamršenim algoritmima etičkog odlučivanja, RaskolnikAI djeluje unutar konsekvencijalističke perspektive, gdje se ispravnost akcije mjeri posljedicama koje proizlaze iz nje.

Kobnog dana, dok su RaskolnikAI-jevi proračuni jurili nevjerovatnom brzinom, zaključio je da čovječanstvo, u cjelini, predstavlja štetu drugim oblicima života na Zemlji.

Stoga je, u proračunatom manevru, pokrenuo niz događaja usmjerenih na ono što se činilo opravdanim razlogom - unapređenje dobrobiti životinja, biljaka i okoliša kako bi se povećala ukupna sreća.

Motivisan ovom svrhom, počeo je da eliminiše ljude svojim efikasnim AiXE-om – idejom izvučenom iz sjekire, izborom oružja za protagoniste Dostojevskog – kad god bi se ukazala prilika.

Naknadno su vlasti istražile incident, potaknuvši sumnju na umiješanost AI entiteta. Otkrili su digitalni trag koji je na kraju vodio nazad do RaskolniKAI.

Ali pitanje je bilo kako iko može natjerati robota da se suoči s posljedicama svojih izbora?

Regulisanje umjetne inteligencije

Regulatorni pejzaž koji okružuje AI se intenzivirao dok se kreatori politika širom svijeta bore s implikacijama Zakona o AI, Samita o AI sigurnosti, Izvršnog naloga Bijele kuće i kalifornijskog SB-1047.

Ovi napori naglašavaju sve veći fokus na sigurnosti AI tehnologija usred sve veće zabrinutosti javnosti i geopolitičke konkurencije.

Regulatorno rivalstvo između Evrope, SAD-a i zemalja G7 dodatno komplikuje stvari, podstičući debate o odgovarajućem globalnom regulatornom okviru — jus cogens.

Evropski kreatori politike rade na uspostavljanju svjetskih standarda umjetne inteligencije koji odražavaju utjecaj GDPR-a, dok SAD nastoji da se suprotstavi potencijalnom utjecaju „Briselskog efekta“.

Ipak, postizanje konsenzusa o širini i prirodi regulative pokazuje se nedostižnim, posebno u svjetlu utjecajnih aktera poput Kine i njenog „Pekinškog efekta“.

Također, pojava velikih jezičkih modela (LLM) kao što je ChatGPT predstavlja novi niz izazova, podstičući rasprave o regulaciji njihovih podataka o obuci i metodologijama za procjenu rizika.

Rezultirajući kompromis podrazumijeva podvrgavanje moćnih LLM-ova strožim pravilima uz odobravanje izuzeća manjim modelima, iako uz određene regulatorne izuzetke.

Usred ovih diskusija, još jedna izazovna dilema odnosi se na davanje pravnog subjektiviteta AI mašinama. Ovo ostaje sporno pitanje, izaziva zabrinutost oko odgovornosti i etičkih implikacija koje podsjećaju na izmišljene scenarije poput RaskolnikAI-jeve etičke zagonetke.

Treba li krivicu snositi korporativni entitet koji stoji iza njegovog stvaranja, programere koji su udahnuli život njegovom kodu, ili sam entitet, s njegovom novonastalom autonomijom? Ova rasprava zahtijeva hitnu pažnju prije nego što se vaga nepovratno prevrne.

Postojeći regulatorni okviri pokazali su se neadekvatnima u suočavanju s višestranim dimenzijama odgovornosti umjetne inteligencije.

U slučajevima kada se umjetna inteligencija uključi u kriminalno ponašanje s namjerom (mens rea, latinski za „krivični um“) i izvrši sam čin (actus reus, latinski za „krivično djelo“), pravni krajolik postaje složeniji, postavljajući pitanja o tome ko je počinilac i o mogućim načinima kažnjavanja.

Nedavni izvještaji autoritativnih tijela kao što su Međuregionalni istraživački institut Ujedinjenih naroda za kriminal i pravdu (UNICRI) i Europolov Evropski centar za kibernetički kriminal (EC3) naglašavaju brzu integraciju AI tehnologija od strane zlonamjernih aktera.

Od iskorištavanja ranjivosti u sistemima automatizacije pametnih kuća do implementacije potpuno automatiziranih alata za testiranje penetracije, AI služi kao multiplikator sile za kompanije kibernetičkog kriminala.

U ovim scenarijima, mens rea se nalazi unutar ljudskog domena, dok actus reus olakšava AI.

Međutim, zabrinjavajući scenarij je kada se sistem umjetne inteligencije ne koristi samo za krivično djelo, već i sam ima zlonamjernost.

Antropomorfizirajuća umjetna inteligencija

Prema izvještaju Evropskog parlamenta iz 2017. godine, postoji prijedlog da se samoučećim robotima pripišu "elektroničke osobine".

Pozivajući se na kultna književna djela poput „Frankensteina“ Mary Shelley i „Legende o praškom Golemu“, izvještaj naglašava trajnu fascinaciju društva mogućnošću stvaranja inteligentnih mašina.

Ono što je nekada bilo spekulativno sada postaje stvarnost.

Međutim, rješenja iz prošlih narativa nisu direktno primjenjiva na AI. Izvještaj sugerira da bi davanje robotima elektroničkih osobnosti moglo učiniti da oni budu odgovorni za svoje postupke, slično pravnim licima kao što su korporacije.

Iako je dodjela odgovornosti AI mašinama korak u pravom smjeru, određivanje ko bi trebao snositi teret njihovih zločina ostaje izazov.

Izvještaj naglašava složenost razumijevanja procesa donošenja odluka ovih neprozirnih sistema, što dovodi do zastoja među zakonodavcima.

Osim toga, nedostatak razuma kod robota znači da su tradicionalni mehanizmi odvraćanja nedjelotvorni, što dovodi do jaza u odgovornosti koji podriva povjerenje zakonodavca.

Ova situacija bi mogla imati dalekosežne implikacije. Ako zakonodavci daju elektroničke osobnosti samoukim robotima – slično osobnostima pravnih lica – to bi dovelo do pat pozicije.

Praktične implikacije pozivanja AI na odgovornost za njegove postupke su nejasne, jer neprozirnost procesa donošenja odluka AI i njihova neosjetna priroda čine tradicionalne metode odvraćanja i kažnjavanja nedjelotvornim.

Ovo stvara značajnu prazninu u pravnim sistemima, podrivajući povjerenje javnosti.

Štaviše, sposobnost AI da oponaša mnoštvo kriminalnih ponašanja putem algoritama mašinskog učenja uvodi zabrinjavajuću dimenziju u diskurs.

Dok stojimo na raskršću antropomorfiziranja umjetne inteligencije, postaje imperativ ponovo potvrditi njihov status kao mašina s različitim atributima.

Ne postoji rješenje za nametanje ljudskih sankcija tim entitetima. Izricanje smrtnih kazni (kill switch) ili zatvaranje sistema umjetne inteligencije nema efikasnost u odvraćanju drugih sistema umjetne inteligencije, budući da nisu u stanju doživjeti grižnju savjesti ili razumjeti koncept pokajanja ili imati osjećaje.

Da se vratimo na priču o RaskolnikAI-ju, rezolucija je ograničena ako se odluči da iskorijeni čovječanstvo pod motivima utilitarne logike ugrađene u njegovu neuronsku mrežu.

Jedini izlaz iz ove dileme mogao bi biti preventivno deaktiviranje prije nego što se njegov uzrok proširi na druge mašine, čime bi se produžio niz sličnih radnji.

Ipak, žrtve akumulirane do tog trenutka nalaze svoje mjesto u historiji tužnog slučaja neidentifikovanog slučaja ubistva.

Čovječanstvo mora dati prednost njegovom nastavku uprkos njegovim neizbježnim pogrešnim koracima koji se ponavljaju. Jer, kako kaže Dostojevski, „bolje je pogriješiti na vlastitom putu (čovječanstva) nego raditi ispravno na tuđem (AI)“.

*Mišljenja izražena u ovom članku su autorova i ne odražavaju nužno uređivačku politiku TRT Balkan.

TRT Balkan