Sanjaju li europarlamentarci električne ovce?

Sanjaju li europarlamentarci električne ovce?

Nedavno je povjerenstvo za pravna pitanja Europskog parlamenta pripremilo izvješće koje sadrži preporuke vezane uz Zakon o robotici. Odmah potom je skupina od 38 parlamentaraca podnjela prigovor izvješću, tražeći da se iz njega brišu neke stavke, koje umjetnu inteligenciju priznaju kao odgovorno biće.

U spomenutoj skupini prigovarača bila je i jedna naša europarlamentarka, inače često u fokusu medija zbog svojih konzervativnih stavova, pa je njen istup podigao popriličnu buru u hrvatskoj javnosti. I mediji i društvene mreže odmah su se polarizirali. Kako to obično biva, u cijeloj gunguli čini se da niti je tko pročitao spomenuto izvješće, niti itko uopće razumije argumentaciju za ili protiv.

Pa hajde da pokušamo unijeti malo razuma u čitavu tu situaciju.

Prvo pitanje koje se nameće je zašto Europski parlament troši novac poreznih obveznika na rasprave o temama iz znanstvene fantastike? Naime, danas apsolutno sigurno znamo da ne postoji niti jedan robot ili računalo koje bi bilo takve razine sofisticiranosti da bismo se uopće upitali je li u pitanju osoba, ima li svijest, te može li snositi odgovornost za svoja djela. Čemu onda?

Autori izvještaja sami odgovaraju na to pitanje u početnom dijelu dokumenta. Napredak tehnologije je takav da robotika i umjetna inteligencija uzima sve više maha, ne samo u svom razvoju, nego i u našim životima. Vrlo skoro, unutar idućih 10 godina, naći ćemo se u situaciji da će pametni uređaji donositi odluke za nas. Od robota njegovatelja nemoćnih, nadalje.

Jedan od najpoznatijih primjera koji se uz ovu temu obično diskutira je onaj o autonomnom automobilu koji se nađe u situaciji da ne može u potpunosti izbjeći sudar. Tada mu predstoji odluka da skrene na autobusnu stanicu i potencijalno ubije desetero putnika, ali spasi vlasnika, ili da skrene pod kamion, spasi ljude, ali ubije putnika.

U ispitivanjima mišljenja svi su se izjasnili da je ispravna odluka ona po kojoj automobil ubija vlasnika i spašava ljude. Ali su se svi izjasnili i da bi oni sami za sebe kupili automobil koji bi na prvom mjestu spašavao njih, bez obzira na cijenu. Dakle, po običaju, ljudi nisu principijelni kad je njihova rit u pitanju.

Netko bi mogao reći, koja god odluka donesena u ovoj situaciji, na kraju odgovornost ne može biti na samom automobilu. On ne odlučuje sam, nego postupa po programu koji su za njega načinili ljudi. Taj hipotetski netko uopće ne razumije kako funkcionira umjetna inteligencija.

Sustavi umjetne inteligencije se ne programiraju na tradicionalan način. Oni uče, na vrlo sličan način kao što uče ljudi. Neuronske mreže, mozgovi umjetnih inteligencija, sastoje se od programskih objekata koji se ponašaju vrlo slično umreženim neuronima i na taj način simuliraju rad ljudskog mozga. Toj mreži se daje skup ulaznih vrijednosti, ona donosi neku odluku, a potom joj se daje povratna informacija u smislu nagrade ili kazne. Tada umjetna inteligencija, po određenom algoritmu, preslaguje veze među svojim neuronima i na taj način uči - dok ne usvoji određeni obrazac odlučivanja.

U tom smislu, prednost neuronskih mreža pred tradicionalnim programima je u tome što one ne uče postupke, poput kuharice, nego uče logiku. I zato se mogu primjenjivati i u onim situacijama koje do sada nisu viđene, poznate i u kojima je do sada samo čovjek mogao donositi odluke.

Primjerice, bez obzira ima li stolac naslon, jastučić, ispunjenu ili prozračnu konstrukciju, svaki čovjek će prepoznati da je u pitanju stolac. Čak iako ga nikad prije nije vidio u tom obliku. To uzimamo zdravo za gotovo. No tradicionalni programi to ne bi mogli. Ali umjetne inteligencije mogu.

Vratimo se sada na pitanje automobila i njegove odluke. Primijenivši ovu logiku i znanje od maloprije, sasvim je sigurno da će se nekad desiti situacija u kojoj će automobil odlučivati o životu i smrti ljudi, a da je to za njega stvarno situacija za koju nije nikad programiran. Pretpostavljam da svi mogu shvatiti kako u ovoj situaciji postoji vrlo širok moment slobodne volje spomenutog vozila, to jest njegove umjetne inteligencije.

Podnosioci izvješća su toga itekako svjesni. I zato svoje mišljenje iznose sada, prije nego što su se ovakve situacije počele dešavati. Dobra je praksa imati zakonodavstvo koje regulira pojedine pojave PRIJE nego se one počnu dešavati. Koliko god nama u Hrvatskoj to bilo neobično. I zato ovaj prijedlog dolazi baš u pravom trenutku.

Sam dokument je izuzetno kvalitetan. Obuhvaća cijelu bitnu kulturnu i istraživačku stečevinu čovječanstva na tu temu. Primjerice, dotiče se i zakona robotike koje Isaac Asimov ustanovio još 1942. godine i kojima do danas nitko nije našao ozbiljnog prigovora. Ne bih htio ulaziti u ispravnost stavljenih preporuka, niti u pravne aspekte dokumenta, ali mogu reći da je vidljivo da iza dokumenta stoji ozbiljan rad i velika količina znanja te da mu je teško naći logičku grešku.

Kada govorimo o skupini koja je uložila prigovor, oni na problem gledaju iz sasvim nevažnog rakursa. Oni svoj prigovor ne baziraju na praktičnm problemima, poput onih koje sam ja diskutirao u tekstu gore, nego su fokusirani na svjetonazorska pitanja. Njih brine razlikovanje između čovjeka i stroja na razini duše.

Vjerske slobode su zagarantirane. Apsolutno je nebitno vjeruje li tko u besmrtnu dušu ili ne, to je njegovo pravo. Ali neosporno je da bića koja nisu ljudi, a što uključuje životinje i robote, mogu donositi odluke. Postoji zakonska regulativa koja govori o tome što se dešava sa psom koji napadne čovjeka i teško ga ozlijedi. Možemo raspravljati o tome imaju li životinje dušu na način na koji se ona pripisuju čovjeku ili ne, ali svatko uviđa potrebu za time da agresivan pas bude zakonski reguliran. Što uključuje i dozu njegove odgovornosti, osim odgovornosti vlasnika. U konačnici, takvi psi snose konačnu odgovornost, nažalost najčešće u obliku eutanazije.

Vrlo skoro ćemo imati robote sa puno većom razinom sposobnosti odlučivanja i puno većim odgovornostima nego što ih danas ima pas. Na stranu diskusija o svjesnosti takvih robota, njihovim eventualnim emocijama ili osobnostima. Za potrebe očuvanja sigurnosti ljudi nužno je dio odgovornosti za odluke prebaciti i na samu umjetnu inteligenciju. Što ta inteligencija biva potentnija i samostalnija, to se veća odgovornost na nju može staviti. Može i mora.

To je ono što autori prijedloga razumiju dobro, a autori prigovora nimalo.

Za one koji žele znati više, ili se uvjeriti da sam ja u krivu, cjelokupni prijedlog se nalazi na ovom linku.