
Link: https://www.ictbusiness.info / vijesti / znanstvenici-za-ai-traze-isti-pristup-kao-za-nuklearnu-bombu
Znanstvenici za AI traže isti pristup kao za nuklearnu bombu
Skraćenica za umjetnu inteligenciju, AI, sve se češće spominje u svakodnevnim razgovorima, toliko da ne djeluje prijeteće, ali neki AI stručnjaci pozivaju na sigurnosna testiranja slična onima koje je prethodilo Trinity testu – prvom nuklearnom pokusu u povijesti.
Max Tegmark, profesor fizike i istraživač umjetne inteligencije s MIT-a, zajedno s trojicom svojih studenata, objavio je rad u kojem preporučuje sličan pristup. U tom radu pozivaju na obveznu procjenu vjerojatnosti da bi značajno napredna umjetna inteligencija mogla izmaknuti ljudskoj kontroli. Ovaj test uspoređuje se s izračunima koje je provodio Arthur Compton kako bi se utvrdila vjerojatnost da bi nuklearna eksplozija mogla izazvati lančanu reakciju u atmosferi – što je prethodilo Trinity testu.
Compton je tada odobrio nastavak Trinity testa nakon što je procijenio da je vjerojatnost takve katastrofe manja od jedan naprema tri milijuna. Nasuprot tome, Tegmarkovi izračuni pokazuju da postoji čak 90 posto vjerojatnosti da bi visoko razvijena umjetna inteligencija mogla predstavljati prijetnju čovječanstvu – ne samo kao pogreška u sustavu poput one u Windowsima. Taj oblik hipotetski napredne umjetne inteligencije nazvan je umjetna superinteligencija (ASI).
Ti izračuni uvjerili su Tegmarka da je nužno implementirati sigurnosne mjere, a smatra i da su tvrtke koje razvijaju takve sustave odgovorne za njihovu provjeru. Također vjeruje da je potreban standardizirani pristup koji bi prihvatile brojne tvrtke, kako bi se stvorio politički pritisak za provođenje tih mjera.
"Tvrtke koje razvijaju superinteligenciju moraju izračunati i tzv. Comptonovu konstantu - vjerojatnost da ćemo nad njom izgubiti kontrolu. Nije dovoljno reći da se osjećamo dobro u vezi toga. Moraju izračunati postotak", izjavio je.
Tegmark već dulje vrijeme zagovara strožu regulaciju i pažljiviji pristup razvoju novih AI sustava. Suosnivač je neprofitne organizacije Future of Life Institute, koja se bavi sigurnim razvojem umjetne inteligencije. Taj institut je 2023. objavio otvoreno pismo u kojem se poziva na pauzu u razvoju moćnih AI sustava. Pismo su potpisali i poznati tehnološki lideri poput Elona Muska i Stevea Wozniaka.
Tegmark je također sudjelovao u izradi izvješća The Singapore Consensus on Global AI Safety Research Priorities zajedno s vodećim računalnim znanstvenikom Yoshuaom Bengiom, kao i istraživačima iz OpenAI-ja, Googlea i DeepMinda. Čini se da, ako jednog dana zaista pustimo umjetnu superinteligenciju u svijet, barem ćemo znati točan postotak šanse da nas sve - uništi.