Umjetna inteligencija: Kako zloupotreba može naštetiti nauci

Umjetna inteligencija, viđena kao prednost za nauku, sve se češće zloupotrebljava.

By
ARHIVSKA FOTOGRAFIJA: Ilustracija prikazuje logo Googlea uz natpis „AI – umjetna inteligencija“. / Reuters

Lažne informacije i deepfakeovi sve su brojniji i realističniji, do te mjere da neki od njih narušavaju javni red. U Keniji je, naprimjer, video generisan umjetnom inteligencijom, koji je prikazivao predsjednika kao bolesnog, a potom mrtvog, izazvao ozbiljnu zabunu. Suočeni s ovim trendom, pojedini naučnici strahuju da bi zloupotreba umjetne inteligencije mogla potkopati same temelje nauke.

„Nauka bez savjesti samo je propast duše“, kako glasi poznata izreka francuskog pisca Francoisa Rabelaisa. Ove riječi danas dobivaju posebno značenje kada se pažljivije sagledaju pojedine savremene upotrebe umjetne inteligencije.

Iako se umjetna inteligencija (AI) često predstavlja kao alat koji olakšava ljudski život u brojnim oblastima, naročito u tehnologiji, sve je očiglednije da je sve veći broj ljudi koristi za ostvarivanje ciljeva koji šire zabunu i dezinformacije u javnom prostoru i šire.

Petog januara, naprimjer, Harrison Mumia, predsjednik Kenya Atheists Societyja, osuđen je zbog objavljivanja „lažnih informacija“.

Objavio je slike predsjednika Williama Ruta generisane pomoću umjetne inteligencije, a iz pritvora je pušten tek nakon što je platio kauciju od 500.000 kenijskih šilinga.

U političkim krugovima, jedna anegdota koja prije nekoliko sedmica nije promakla javnosti odnosila se na izjavu francuskog predsjednika da ga je jedan afrički kolega obavijestio o navodnom državnom udaru u Francuskoj.

Veoma realističan video, koji je izazvao paniku među afričkim liderima čiji identiteti nisu otkriveni, generisala je umjetna inteligencija. U njemu su francuski novinari „objavljivali“ lažni državni udar u Parizu.

Prije nego što je, nakon dugih pregovora, uklonjen s interneta, video je pogledan najmanje 12 miliona puta, što je bez sumnje doprinijelo širenju dezinformacija.

Jedan od ključnih problema u vezi s dezinformacijama jeste to što demantiji ne dopru nužno do svih koji su bili izloženi prvobitnoj, lažnoj informaciji.

Ova dva slučaja, među najpoznatijima do sada, samo su vrh ledenog brijega koji bi mogao imati još ozbiljnije posljedice.

Naučnici i teoretičari upozoravaju na mogućnost da se neutralan alat iskoristi u kriminalne ili destruktivne svrhe. U digitalnom svijetu, za neke su broj pregleda, komentara i dijeljenja postali važniji od istine i relevantnosti.

Vratimo se zloupotrebi same umjetne inteligencije. Zamislimo „pametni“ automobil kojim upravlja AI, a koji bi mogao biti korišten za namjerno ugrožavanje ljudi na ulici. Iako zvuči kao naučna fantastika, riječ je o realnoj mogućnosti koju su razmatrali stručnjaci za borbu protiv terorizma. Upravo takvi scenariji izazivaju zabrinutost brojnih društvenih aktera i otvaraju pitanje potrebe za pažljivim i odgovornim upravljanjem ovim alatom.

Jadys Lola Nzengue, voditelj projekata za podatke u Parizu, specijalista za digitalne tehnologije i umjetnu inteligenciju, smatra da u rukama nezrelih ili zlonamjernih pojedinaca AI može nanijeti ozbiljnu štetu društvu.

„Umjetna inteligencija olakšava manipulaciju slikama, podacima i rezultatima. Bez jasnih pravila, granica između tehničkog poboljšanja i falsifikata postaje mutna, čineći prevaru teško uočljivom. Ovaj problem prevazilazi okvire istraživanja. Nauka je ključna za donošenje javnih odluka, bilo u zdravstvu ili u oblasti klime. Ako joj padne kredibilitet, povjerenje javnosti u znanje bit će narušeno“, rekao je Jadys Lola Nzengue za TRT Afrika.

Zbog toga naučnici smatraju da je od ključne važnosti uspostaviti etička i odgovorna pravila za korištenje umjetne inteligencije.

Osim lažnih sadržaja, sve su rasprostranjeniji i materijali koji podstiču mržnju i rasizam, naročito na društvenim mrežama.

Burkinski sociolog Rodrigue Hilou veoma je aktivan na društvenim mrežama, gdje povremeno raspravlja o naučnim pitanjima ili komunicira s prijateljima i poznanicima. Njegovo prisustvo na internetu pruža mu jasan uvid u brojne zloupotrebe povezane s rastućom upotrebom umjetne inteligencije.

„Prva opasnost, po mom mišljenju, leži u kontaminaciji znanja lažima. Generišući umjetne sadržaje u velikom obimu, AI prijeti da preplavi naše baze podataka površnim, približnim ili netačnim rezultatima. Bojim se da ćemo se, ako se na te materijale oslanjamo bez potpune budnosti, naći u začaranom krugu u kojem svaki alat reproducira greške nastale drugim alatima, što vodi postupnom urušavanju pouzdanosti našeg znanja“, upozorava Hilou.

Sve češće, izmišljeni sadržaji koje generiše umjetna inteligencija djeluju realnije od same stvarnosti. Postaje sve teže, čak i stručnjacima iz audiovizuelne oblasti, razlikovati šta je autentično, a šta lažno. Deepfakeovi su sve uvjerljiviji, do te mjere da su se pojavile nove discipline, poput provjere činjenica, koje često djeluju tek naknadno.

„Nauka, onakva kakvu ja prakticiram u sociologiji, zasniva se na transparentnosti i mogućnosti provjere svake faze dokazivanja. Još važnije, terenski rad je u mojoj disciplini gotovo svet. Međutim, ako analitički rad i raspravu prepustim algoritmima čija mi unutrašnja logika nije dostupna, naučni dokaz zamjenjujem pukom predikcijom. Time klizimo prema svojevrsnoj ‘magiji’, u kojoj rezultat dolazi prije razuma, čineći provjeru gotovo nemogućom.“

Zapažanja oba stručnjaka daleko prevazilaze pitanje audiovizuelnog sadržaja i odnose se na širi domen nauke i istraživanja.

Iako su dosadašnje projekcije umjetnu inteligenciju predstavljale kao revolucionarnu tehnologiju s pretežno pozitivnim efektima, pitanje metodologije ostaje otvoreno.

„Prepuštanjem zadataka pisanja, sažimanja ili evaluacije radova algoritmima, nauci oduzimamo njenu suštinu, koja počiva na činjenicama, intuiciji, kritičkom razmišljanju i ljudskoj kreativnosti. Istraživači rizikuju da postanu puki tehnički operateri, nesposobni da propituju modele koji recikliraju postojeće sadržaje. Još gore, ta dehumanizacija nauke podstiče širenje lažnih istraživanja i zamagljuje granicu između autentičnog znanja i pseudonauke“, zaključuje burkinski sociolog.

U oblasti telemedicine, danas je moguće izvoditi operacije s većom stopom uspješnosti nego ikada ranije. Robotska hirurgija se sve češće primjenjuje u pojedinim zemljama, uz rezultate koji zadovoljavaju i pacijente i ljekare.

Prije nekoliko sedmica, medicinski tim iz Evrope uspio je operisati pacijenta koji se nalazio gotovo 8.000 kilometara dalje, u Pekingu.

Operacija je izvedena uz pomoć umjetne inteligencije i robotskih hirurških sistema, pri čemu je pacijentu ugrađen MitraClip zbog mitralne insuficijencije.

U tom kontekstu, Svjetska zdravstvena organizacija procjenjuje da bi primjena umjetne inteligencije u telemedicini do 2030. godine mogla poboljšati pristup zdravstvenoj zaštiti za oko 1,5 milijardi ljudi širom svijeta.

Istovremeno, zabilježeni su i slučajevi samoubistava i drugih ubistava koja su, prema navodima, počinjena na osnovu preporuka AI sistema. Slučaj Adama Rainea, šesnaestogodišnjaka iz Sjedinjenih Američkih Država, jedan je od takvih primjera. Tinejdžer je ChatGPT doživljavao kao povjerljivca i savjetnika te je, prema izvještajima, bio ohrabrivan na samoubistvo kako bi okončao svoje patnje.

Tinejdžer se objesio 11. aprila 2025. godine.

Zbog ovakvih dramatičnih scenarija koje stvara umjetna inteligencija, Jadys Lola Nzengue također poziva na veću opreznost. „Sve više laboratorija koristi AI za identifikovanje veza, kreiranje prediktivnih modela, pa čak i pisanje članaka. Problem nije u alatu, nego u iskušenju da algoritmi zamijene ljudsku analizu, a oni se često prihvataju bez kritičkog propitivanja. Studije su pokazale statistički čvrste, ali naučno neutemeljene veze objavljene zbog nedostatka provjere. U takvim slučajevima, nauka može zamijeniti matematičku performansu za istinsko razumijevanje.“

Suočeni s ovim prijetnjama, mnogi traže snažniji ljudski nadzor nad mašinama i stroža pravila korištenja, kako bi se osigurali red i napredak. „AI mora ostati alat za pomoć, a ne zamjena“, poručuju stručnjaci.