IBM promovira odgovorno korištenje umjetne inteligencije

IBM promovira odgovorno korištenje umjetne inteligencije
DepositPhotos

Kada govorimo o umjetnoj inteligenciji njezina upotreba mora biti prije svega odgovorna, odustaje se od prepoznavanja i praćenja ljudi bez kontrole, onemogućuju se rješenja koja se mogu koristiti za narušavanje privatnosti i osobnosti.

Kako bi odgovorio na sve ove izazove, ali i one kojih još uvijek nismo svjesni IBM je priredio online okrugli stol s medijima na temu „Odgovorno korištenje umjetne inteligencije (AI)“ s IBM Fellow  i znanstvenicom Aleksandrom Mojsilović. Njezino se izlaganje usredotočilo na ranjivosti AI-a poput izloženosti pristranosti, nedostatka objašnjivosti i osjetljivosti na napade koji posebno dizajniranim unosom podataka proizvode pogrešne rezultate.

Također se govorilo o trenutnoj kontroverznoj upotrebi tehnologije, posebice AI koji se koristi za stvaranje potencijalno štetnih sadržaja poput deepfake-ova, zapaljivih sadržaja i algoritama društvenih mreža koji korisnike usmjeravaju prema dezinformacijama.

S obzirom na spomenuto, dr. Mojsilović naglasila je da performanse neće biti dovoljne kao paradigma dizajna umjetne inteligencije, nego će i etička pitanja morati biti dio jednadžbe. Stoga IBM Research razvija tehnike i algoritme za procjenu - i rješavanje - temeljnih elemenata povjerenja za AI sustave: alata koji otkrivaju i ublažavaju pristranost, otkrivaju ranjivosti, uklanjaju napade i demaskiraju postupak donošenja odluka. Budući da AI napreduje, ljudi i AI sustavi sve više surađuju i ključno je da vjerujemo rezultatima tih sustava kako bismo donosili svoje odluke.

Stručnjaci iz IBM Research identificiraju sljedeće stupove kako bi stvorili osnovu za pouzdane AI sustave pravičnost je AI sustavi trebali bi koristiti podatke u razvoju i modele u kojima nema pristranosti, kako bi se izbjeglo nepravedno postupanje s nekim skupinama podataka, robusnost jer AI sustavi trebaju biti sigurni i zaštićeni, ne smiju biti podložni neovlaštenom upravljanju ili ugrožavanju podataka na kojima su razvijeni

Objašnjivost govori da AI sustavi trebaju pružati odluke ili prijedloge koji mogu biti razumljivi njihovim korisnicima i programerima te podrijetlo AI sustavi trebaju sadržavati detalje o njihovom razvoju, implementaciji i održavanju kako bi mogli biti revidirani tijekom svog životnog ciklusa.

Međutim, baš kao i neka fizička struktura, povjerenje se ne može graditi samo na jednom stupu. Ako je AI sustav pravedan, ali ne može odoljeti napadu, neće mu se vjerovati. Ako je siguran, ali nitko ne može razumjeti podatke koje pruža, također mu se neće vjerovati. Stoga je nužno ojačati sve stupove zajedno, kao i sposobnost mjerenja i komuniciranja razina izvedbe sustava u svakoj od ovih dimenzija. Jedan od načina da se to postigne bio bi pružanje takvih podataka putem SDoC-a ili informativnih tablica za usluge AI. U njih IBM-ovi stručnjaci predlažu da se uključe informacije o radu sustava, podacima o razvoju, osnovnim algoritmima, postavljanju i rezultatima ispitivanja, mjerilima performansi, provjerama pravednosti i robusnosti, namjeravanoj uporabi te održavanju i prekvalifikaciji - za detalje posjetite web stranicu IBM-ov AI FactSheet projekt.

Aleksandra Mojsilović  trenutno radi kao voditeljica AI Foundations u IBM Research-u i ko-direktorica u IBM Science for Social Good, a također je posebna IBM-ova suradnica, kao i IEEE-ova suradnica. Autorica je preko 100 publikacija i posjeduje 16 patenata. Među najnovijim projektima na kojima je dr. Mojsilović radila je AI sustav IBM Research-a koji je predstavljen u ožujku 2021. Taj sustav koristi tehnologije temeljene na AI kako bi ubrzao stvaranje novih peptida u borbi protiv rezistencije na antibiotike. Ovi napori mogu također pomoći u otkrivanju i stvaranju novih materijala koji pomažu u borbi protiv klimatskih promjena, stvaranju inteligentnije proizvodnje i skladištenja energije i još mnogo toga. Timski generativni okvir AI također je primijenjen na tri COVID-19 cilja, generirajući 3000 novih molekula.