VELIKI PROBLEMI

AI agenti će povećati iskorištavanje slabe autentifikacije

AI agenti omogućit će automatizaciju većeg broja koraka u procesu preuzimanja računa, od socijalnog inženjeringa koji koristi deepfake glasove do potpune automatizacije zloupotrebe korisničkih podataka. Zbog toga će dobavljači razvijati proizvode, aplikacije, API-je i glasovne kanale namijenjene detekciji, praćenju i klasifikaciji interakcija u kojima sudjeluju AI agenti.

AI agenti će povećati iskorištavanje slabe autentifikacije
Depositphotos

Do 2027. godine, AI agenti će smanjiti vrijeme potrebno za iskorištavanje kompromitiranih korisničkih računa za čak 50  posto, prema analizi Gartnera. „Preuzimanje korisničkih računa (Account Takeover, ATO) i dalje je ustrajan način napada jer slabi autentifikacijski podaci – poput lozinki – dolaze do napadača na razne načine, uključujući sigurnosne proboje, krađu identiteta (phishing), socijalni inženjering i zlonamjerni softver (malware)“, izjavio je Jeremy D’Hoinne, potpredsjednik analitičar u Gartneru. „Napadači zatim koriste botove kako bi automatizirali veliki broj pokušaja prijava na različite servise, nadajući se da su korisnici koristili iste vjerodajnice na više platformi.“

AI agenti omogućit će automatizaciju većeg broja koraka u procesu preuzimanja računa, od socijalnog inženjeringa koji koristi deepfake glasove do potpune automatizacije zloupotrebe korisničkih podataka. Zbog toga će dobavljači razvijati proizvode, aplikacije, API-je i glasovne kanale namijenjene detekciji, praćenju i klasifikaciji interakcija u kojima sudjeluju AI agenti. „S obzirom na ovu sve veću prijetnju, sigurnosni stručnjaci trebali bi ubrzati prelazak na višefaktorsku autentifikaciju otpornu na phishing koja ne koristi lozinke“, rekao je Akif Khan, potpredsjednik analitičar u Gartneru. „Za slučajeve gdje korisnici mogu birati način autentifikacije, važno je educirati ih i potaknuti na prijelaz s lozinki na višeurđajni pristup pomoću passkeya, gdje je to moguće.“

Uz preuzimanje računa, tehnologijom podržani socijalni inženjering također će predstavljati ozbiljnu prijetnju kibernetičkoj sigurnosti poduzeća. Gartner predviđa da će do 2028. godine 40  posto napada temeljenih na socijalnom inženjeringu ciljati i rukovoditelje i širi radni kadar. Napadači sada kombiniraju taktike socijalnog inženjeringa s tehnikama lažne stvarnosti, poput deepfake audija i videa, kako bi zavarali zaposlenike tijekom poziva. Iako je zabilježeno samo nekoliko poznatih slučajeva, ti su incidenti pokazali koliko je ta prijetnja uvjerljiva te su rezultirali znatnim financijskim gubicima za pogođene organizacije.

Otkrivanje deepfake sadržaja i dalje je u ranoj fazi, osobito kad je riječ o raznolikim površinama napada u komunikaciji uživo putem glasa i videa na različitim platformama. „Organizacije će morati pratiti razvoj tržišta i prilagoditi svoje procedure i radne tokove kako bi bolje odolijevale napadima koji se oslanjaju na tehnike lažne stvarnosti“, istaknuo je Manuel Acosta, stariji direktor analitičar u Gartneru. „Edukacija zaposlenika o sve kompleksnijem krajoliku prijetnji, uz specijalizirane obuke o socijalnom inženjeringu i deepfakeovima, ključan je korak.“

Broj napada temeljenih na umjetnoj inteligenciji raste proporcionalno dostupnosti alata otvorenog koda za generiranje deepfake sadržaja. Prema izvještaju od strane IDC-a, gotovo 60  posto velikih organizacija doživjelo je pokušaje napada AI-agentima u proteklih 18 mjeseci.

Juniper Research predviđa da će gubici povezani s preuzimanjem računa premašiti 25 milijardi američkih dolara godišnje do 2026., posebno u financijskom i maloprodajnom sektoru.

AI agenti već se koriste za obradu velikih količina ukradenih korisničkih podataka s dark weba, čime se ubrzava pronalaženje korisnih kombinacija korisničkih imena i lozinki.

Rastući broj krađa identiteta odvija se bez potrebe za ručnim nadzorom – AI agenti samostalno šalju e-poruke, simuliraju glasovne poruke i odgovaraju na korisničke upite, što im omogućuje brzo stvaranje povjerenja.

Organizacije koje su implementirale višefaktorsku autentifikaciju otpornu na phishing bilježe do 90  posto manje uspješnih pokušaja preuzimanja računa, pokazuje istraživanje Omdije iz 2024. godine.

Nove regulative u EU i SAD-u sve više potiču korištenje biometrike i passkey rješenja kako bi se ograničila ovisnost o lozinkama koje su ranjive.

S obzirom na prijetnje, stručnjaci preporučuju uspostavu centara za odgovor na AI-prijetnje (AI Threat Response Centers) koji bi kombinirali timove za IT sigurnost, ljudske resurse i pravne stručnjake.

Deepfake detekcijske tehnologije, uključujući alate temeljene na blokchainu i AI forenzici, nalaze se u fazi ubrzanog razvoja, no njihova široka primjena još uvijek nailazi na prepreke u pogledu kompatibilnosti i standardizacije.

Kompanije sve češće testiraju zaposlenike pomoću simuliranih napada koji koriste lažne pozive ili poruke generirane AI-em kako bi procijenile otpornost svojih timova i poboljšale politike odgovora na prijetnje.

U konačnici, digitalni identiteti postaju ključno bojno polje za sigurnost u doba umjetne inteligencije. Stoga će otpornost na AI-pogonjeni socijalni inženjering biti jedan od najvažnijih kriterija za kibernetičku sigurnost u nadolazećim godinama.