Ilustracija prikazuje logotip Googlea i riječi umjetne inteligencije.      Foto: Reuters

Google se izvinio zbog neispravnog uvođenja novog generatora slika umjetne inteligencije, priznajući da je u nekim slučajevima alat "prekompenzirao" traženje raznolikog spektra ljudi čak i kada takav raspon nije imao smisla.

Djelimično objašnjenje u petak zašto njegove slike stavljaju ljude u boji u historijska okruženja gdje ih inače ne bi mogli pronaći došlo je dan nakon što je Google rekao da privremeno zaustavlja svog Gemini chatbota da generiše bilo kakve slike s ljudima na njima.

To je bio odgovor na negodovanje nekih korisnika društvenih mreža koji su tvrdili da alat ima “antibijelu” pristrasnost u načinu na koji je generirao rasno raznolik skup slika kao odgovor na pisane upite.

„Jasno je da je ova funkcija promašila cilj“, rekao je u petak na blogu Prabhakar Raghavan, viši potpredsjednik koji vodi Googleov pretraživač i druge kompanije. “Neke od generiranih slika su netačne ili čak uvredljive.

Zahvalni smo na povratnim informacijama korisnika i žao nam je što ova funkcija nije dobro funkcionirala.”

Raghavan nije spomenuo konkretne primjere, ali među onima koje su privukle pažnju na društvenim mrežama ove sedmice bile su slike koje prikazuju crnca kao oca osnivača SAD-a i prikazuju crnce i azijate kao njemačke vojnike iz nacističke ere.

Associated Press nije bio u mogućnosti da nezavisno provjeri koji su upiti korišteni za generiranje tih slika.

Zabrinutost zbog pristranosti u AI generatorima slika

Google je dodao novu funkciju za generisanje slika svom Gemini chatbotu, ranije poznatom kao Bard, prije otprilike tri sedmice.

Izgrađen je na temelju ranijeg Google istraživačkog eksperimenta pod nazivom Imagen 2. Google već neko vrijeme zna da takvi alati mogu biti nezgrapni.

U tehničkom radu iz 2022. godine, istraživači koji su razvili Imagen upozorili su da se generativni alati umjetne inteligencije mogu koristiti za uznemiravanje ili širenje dezinformacija „i izazivaju mnoge zabrinutosti u vezi s društvenom i kulturnom isključenošću i pristrasnošću“.

Ta razmišljanja su dovela do odluke Googlea da ne objavi "javni demo" Imagena ili njegovog osnovnog koda, dodali su istraživači u to vrijeme.

Od tada je pritisak da se javno objave generativni proizvodi umjetne inteligencije porastao zbog konkurentske utrke između tehnoloških kompanija koje pokušavaju kapitalizirati interes za tehnologiju u nastajanju potaknutu pojavom OpenAI-jevog chatbota ChatGPT.

Problemi s aplikacijom Gemini nisu prvi koji su nedavno utjecali na generator slika. Microsoft je prije nekoliko sedmica morao prilagoditi vlastiti alat Designer nakon što su ga neki koristili za kreiranje lažnih pornografskih slika Taylor Swift i drugih poznatih ličnosti.

Studije su također pokazale da AI generatori slika mogu pojačati rasne i rodne stereotipe pronađene u njihovim podacima o obuci, a bez filtera je vjerovatnije da će prikazati muškarce svjetlije puti kada se od njih traži da generiraju osobu u različitim kontekstima.

“Kada smo izgradili ovu funkciju u Geminiju, podesili smo je kako bismo osigurali da ne upadne u neke od zamki koje smo vidjeli u prošlosti s tehnologijom generiranja slika – kao što je stvaranje nasilnih ili seksualno eksplicitnih slika ili prikaza stvarnih ljudi “, rekao je Raghavan u petak.

“I pošto naši korisnici dolaze iz cijelog svijeta, želimo da dobro funkcionira za sve.” Rekao je da bi mnogi ljudi mogli "željeti da prime niz ljudi" kada traže sliku fudbalera ili nekoga ko šeta psa.

Ali korisnici koji traže nekoga određene rase ili etničke pripadnosti ili u određenim kulturnim kontekstima „trebalo bi dobiti odgovor koji tačno odražava ono što tražite“.

Kritike Elona Muska o rezultatima aplikacije Gemini

U jednom slučaju, chatbot je rekao da ne želi doprinijeti širenju dezinformacija ili "banalizaciji osjetljivih tema".

Veliki dio ovosedmičnog bijesa zbog rezultata Geminija pojavio se na X-u, nekadašnjem Twitteru, a pojačao ga je vlasnik platforme društvenih mreža Elon Musk koji je osudio Google zbog, kako je opisao, "ludih rasističkih, anticivilizacijskih programa".

Musk, koji ima vlastiti AI start-up, često je kritikovao rivalske AI programere, kao i Hollywood zbog navodne liberalne pristranosti.

Raghavan je rekao da će Google obaviti “opsežna testiranja” prije nego što ponovo uključi mogućnost chatbota da pokaže ljudima. Istraživač s Univerziteta Washington, Sourojit Ghosh, koji je proučavao pristrasnost u AI generatorima slika, rekao je u petak da je razočaran što je Raghavanova poruka završila odricanjem od odgovornosti da izvršni direktor Googlea „ne može obećati da Gemini neće povremeno stvarati neugodne, netačne ili uvredljive rezultate.”

Za kompaniju koja je usavršila algoritme pretraživanja i koja ima „jednu od najvećih riznica podataka na svijetu, generiranje tačnih ili neuvredljivih rezultata trebalo bi da bude prilično niska granica za koju je možemo smatrati odgovornom“, zaključio je Ghosh.

TRT Balkan / agencije