Veselo druženje s Uredbom o umjetnoj inteligenciji nastavljamo s tematikom koja trenutno najviše dolazi u žižu zbivanja, a to su – zabrane. Da, naš dragi AI Act ima vrlo striktan i jasan popis aktivnosti za koje se brani korištenje umjetne inteligencije. Popis je neoboriv, nepremostiv i nepropustan. Osim, naravno, iznimaka te manjih i većih rupa u propisu. Standardno, u skladu s najboljim standardima EU regulative. I ono što je najbitnije, ovo su praktički prve odredbe čitave Uredbe koje stupaju na snagu, od 1. veljače 2025. godine. Pa, da ne duljimo više s uvodom, ajmo preći na stvar i vidjeti što to nećemo smjeti raditi s našim umjetno-inteligentnim strojevima.
- Subliminalne i namjerno obmanjujuće tehnike manipulacije ponašanja
Sigurno je većina Vas čula za subliminalne poruke. Odavno postoji legenda o eksperimentima gdje su u reklame, pa i filmove, ubacivani iznimno kratki kadrovi (u mjeri da ih mozak uopće nije mogao svjesno registrirati) koji prikazuju neki proizvod, nakon čega su gledatelji nesvjesno dobivali poriv da kupe ili konzumiraju prikazano u tim kadrovima. O učinkovitosti takvih subliminalnih reklamnih poruka i danas se lome koplja. Daleko se više pozornosti danas posvećuje fenomenu nekritičke konzumacije lažnih vijesti i objava na društvenim mrežama koje dovode do pojava poput vjerovanja u ravnu Zemlju, globalne teorije zavjere (čiji smisao je sam po sebi nejasan, ali argumenti nikad nisu bili razlog da se u nešto ne vjeruje) itd. Naravno, ono čega se EU zakonodavci boje jest opasnost da će korištenjem umjetne inteligencije količina, ali i „kvaliteta prezentacije“ takvih informacija otići na jednu novu razinu te da će (nažalost) time biti moguće vrlo efikasno utjecati na ponašanje čitavih segmenata populacije na globalnoj razini.
Umjetna inteligencija koja bi u stvarnom vremenu pratila tisuće ili milijune korisničkih računa na društvenim mrežama, pronalazila one najnaivnije i sklone sugestijama te ih precizno ciljala s namjernim poluistinama, deep fake videima, ili čak potpuno subliminalnim porukama ubačenim u naizgled nevine objave i oglase, zaista zvuči pomalo zastrašujuće. Osobito ako se uzme u obzir da danas takve pojave i aktivnosti ponajviše sponzoriraju državni aparati pojedinih država, i to onih koje se neće pretjerano brinuti oko sukladnosti postupanja s EU regulativom. Dakle, ma koliko ne voljeli EU birokrate, ova zabrana zaista ima mnogo smisla.
- Iskorištavanje slabosti pojedinih osoba ili skupina
Ova zabrana zapravo se i nadovezuje na prethodnu, s time da se ne fokusira toliko na ponašanje umjetne inteligencije, koliko na ciljane osobe. Smisao je da se ne dopušta ciljanje starijih osoba, osoba s invaliditetom, osoba u nepovoljnom društvenom položaju ili bilo koje druge skupine osoba koje bi zbog svojih karakteristika bilo lakše iskoristiti na način da im se namjerno iskrivljuje ponašanje. Svima nam je jasno da postoje ljudi koji su na ovaj ili onaj način manje sposobni snalaziti se u današnjem svijetu koji se mijenja velikom brzinom. Bilo kakva kognitivna ili druga prepreka brzom učenju i svladavanju novih vještina čini takve ljude daleko podobnijima za razne vrste utjecaja. Umjetna inteligencija, koja bi se koristila upravo da utječe na takve osobe, mogla bi nanijeti ogromne štete tim pojedincima, skupinama, ali i društvu u cjelini. Kao i kod prve zabrane, i ova ima mnogo smisla i zaslužuje punu podršku.
- Ocjenjivanje „društvenog rezultata“ (social credit scoring)
Ovo je jedna od vjerojatno najspominjanijih zabrana, kao i ona za koju se prvu pita. Naravno, svi mi u zapadnom svijetu čuli smo za kineski eksperiment sa social credit scoringom, i to u raznim iteracijama – da česti večernji izlasci utječu na rangiranje pri upisu na fakultete ili pri ishodu natječaja za posao, da je bračna nevjera razlog za odbijanje kredita u banci i sl. Brzi fact check nam je rekao da to apsolutno (još) nije na toj razini – no ne znači da uskoro neće biti. Umjetna inteligencija u Kini se razvija nevjerojatnom brzinom, a društveni ustroj i malo drugačiji pogled na ljudska prava zaista im i omogućuje da u nekom trenutku uvedu sustave koji će automatizirano bilježiti sve aktivnosti njihove populacije i koristiti se tim podacima za razne svrhe.
Europska unija odmah je doskočila tome i odlučila da će se praktički zabraniti takva praksa. To ne znači da se neće uopće moći prikupljati podaci o pojedincima, već je zabrana usmjerena upravo na to da se neće smjeti koristiti podaci prikupljeni u nekoj situaciji na način da nepovoljno utječu na nevezane kontekste (npr. povezivanje navike gledanja pojedinih internetskih stranica s pravom na stjecanje prava ili povlastica koje pruža država) ili da su ograničenja nesrazmjerna (ne)ozbiljnosti ponašanja (npr. da se navika dugog spavanja ocjenjuje kao razlog za zabranu prijave na natječaj za neko radno mjesto).
Dakle, neće se zabranjivati samo prikupljanje podataka pomoću umjetne inteligencije, niti da se ti podaci koriste u jasno definirane i povezane svrhe (npr. sam AI Act ne zabranjuje da se maloprodajni lanci koriste umjetnom inteligencijom za proučavanje i analizu ponašanja kupaca u dućanima i zatim ne zabranjuje korištenje tih podataka za kvalitetnije raspoređivanje proizvoda ili preciznije oglašavanje – ali tu će svakako biti drugih pitanja poput sukladnosti s GDPR-om ili dopuštenja korištenja videonadzora i biometrijske analize).
- Predviđanje počinjenja kaznenih djela
Tko nije pročitao knjigu, ili barem pogledao film Minority Report (jedan od najboljih filmova velikog Stevena Spielberga, kao i jedna od najboljih uloga Toma Cruisea, op.a.), možda i nije upoznat s pojmom „predviđanja zločina“. U toj priči, koja se odvija u nedefiniranoj bliskoj budućnosti, tri „mutanta“ svojim sposobnostima gledanja u budućnost najavljuju počinjenje zločina i počinitelje, a poseban odred policije potom hapsi ljude za „zločin koji su se spremali počiniti“. Priča je iznimno kompleksna i otvara mnoga etička, moralna, ali i zakonska pitanja. No, u toj priči ne koristi se umjetna inteligencija, već posebni ljudi.
Zamisao da bi umjetna inteligencija mogla, prikupljanjem iznimno velike količine podataka i praćenjem (tzv. profiliranjem) potencijalnih počinitelja, davati predviđanja o tome tko će, kada, i s kojom vjerojatnošću počiniti kazneno djelo, i da se zatim na temelju toga prema tim osobama preventivno postupa, zaista zvuči istovremeno olakšavajuće i stravično. Da, naravno da bi bilo divno kada bi postojao mehanizam koji bi omogućavao da se pljačke, silovanja i ubojstva spriječe prije nego što su takva djela počinjena. No, postavlja se vrlo opravdano pitanje: tko će i kako moći zaista dokazati da je predikcija bila točna i da sustav nije „naciljao“ osobu koja uopće nije imala namjeru bilo kakvog kriminalnog ponašanja? I sami smo svjedoci da je umjetna inteligencija sve samo ne savršena. Čak i kada bi se sustavi usavršili do mjere da ciljaju potencijalne počinitelje s iznimno visokim postotkom vjerojatnosti, kolika je ta vjerojatnost koja bi bila okidač za preventivno postupanje? I koliko je moguće garantirati da se takvi sustavi ne bi u manjoj ili većoj mjeri zloupotrebljavali (bilo kompromitacijom podataka, bilo jednostavnim diskrecijskim odlučivanjem o postupanju protiv određenih osoba ili skupina)?
U svakom slučaju – veliko „NE“ AI prediktivnom modelu sprečavanja zločina prema pojedincima, osobito bez detaljne analize načina korištenja prikupljenih podataka i adekvatnog principa „preventivne“ reakcije. Draga EU, no minority report for you.
U sljedećem nastavku ovog serijala pozabavit ćemo se s preostalim zabranjenim praksama korištenja umjetne inteligencije, s fokusom na korištenje videosustava i biometrijske identifikacije. Do čitanja!