STIŽU RIZICI

Stiglo je vrijeme za pojačani nadzor jer umjetna inteligencija sve je bliže ljudskoj

Stiglo je vrijeme za pojačani nadzor jer umjetna inteligencija sve je bliže ljudskoj
Depositphotos

Američki predsjednik Joe Biden sastao se sa skupinom stručnjaka za umjetnu inteligenciju krajem lipnja kako bi razgovarali o upravljanju riziku, kad je riječ o njoj.

Samo nekoliko dana ranije, Europski parlament odobrio je Zakon o umjetnoj inteligenciji, prvi svjetski dio regulacije umjetne inteligencije temeljene na riziku. I, iako u nešto manjem opsegu, propisi New Yorka o korištenju umjetne inteligencije pri donošenju odluka o zapošljavanju trebali bi uskoro stupiti na snagu.

Unatoč ovim ranim oblicima regulative i unatoč njegovim redovitim pozivima na veći nadzor, Sam Altman, izvršni direktor (CEO) OpenAI-ja, i dalje se priprema učiniti ChatGPT još moćnijim. Najavio je cijeli niz poboljšanja.

"U jednom ćemo trenutku tamo dobiti fotografije, audio i video, a modeli će postati pametniji", rekao je.

Ljudska inteligencija je višestruka, ChatGPT trenutno je ipak isključivo veliki jezični model (LLM). Ali, kako raste i počinje obrađivati video, slikovne i zvučne podatke, dobit će više aspekata onih stvari koje čine ljudsku inteligenciju.

A to je, prema stručnjaku za umjetnu inteligenciju Garyju Marcusu, opasno, iako ne nužno zbog egzistencijalnog rizika. Marcusov strah manje se temelji na mogućim prijetnjama, već se usredotočuje na trenutne štete i načine na koje bi poboljšanja ovih modela mogla pogoršati te štete.

Navodeći rizike od dezinformacija i pojačane online prijevare, uz gubitak posla, Marcus je rekao:

"Moramo se prestati brinuti o Skynetu i robotima koji preuzimaju svijet te puno više razmišljati o tome što bi kriminalci, uključujući teroriste, mogli učiniti s LLM-ima i što bismo, ako išta, mogli učiniti da ih zaustavimo."

Tamo gdje se propisi Europske unije o umjetnoj inteligenciji usredotočuju na rizik, dijeleći potencijalne modele umjetne inteligencije u četiri klasifikacije - neprihvatljivi rizik, visoki rizik, ograničeni rizik i minimalni rizik - dio zakona "na čekanju" o umjetnoj inteligenciji u New Yorku usredotočen je na jednu značajnu posljedicu tehnologije - radna mjesta. Ili njihov gubitak, konkretnije...

To znači, ako prođe, da će zakon zahtijevati od svake kompanije koja koristi umjetnu inteligenciju kad donosi odluke o zapošljavanju da prvo obavijeste kandidate o njihovoj automatiziranoj metodologiji, a drugo, podvrgnu se godišnjoj reviziji pristranosti. Vjeruje se da će ovako nešto u odrešenom obliku primijeniti i gradovi, odnosno, države diljem svijeta.

Usred tih ranih faza regulacije, Altman, koji tjednima javno poziva na državni nadzor, privatno je lobirao u EU da "razvodni" Zakon o umjetnoj inteligenciji. Zatražio je od regulatora da promijene tekst zakona tako da se sustavi umjetne inteligencije opće namjene, poput ChatGPT-a, ne bi smatrali visokorizičnima, što je klasifikacija koja bi zahtijevala mnogo stroži nadzor.

"Sam po sebi, GPT-3 nije visokorizičan sustav, ali posjeduje mogućnosti koje se potencijalno mogu koristiti u visokorizičnim slučajevima upotrebe", stoji u dokumentu.

Ali, kako tvrdi Marcus, trenutni sustavi nisu transparentni, ne štite našu privatnost i nastavljaju održavati pristranost. Čak ni njihovi tvorci ne razumiju u potpunosti kako funkcioniraju. Najviše od svega, ne može se ni izdaleka jamčiti da su sigurni.