MOĆNI I BRZI

Zašto su grafički procesori izvrsni za AI

Zašto su grafički procesori izvrsni za AI
Depositphotos

GPU-ovi se nazivaju rijetkim zemaljskim metalima, čak i zlatom, umjetne inteligencije. Razlog je taj što su oni temelj za današnju generativnu eru umjetne inteligencije.

Tri tehnička razloga i mnoge priče objašnjavaju zašto je to tako. Svaki razlog ima više aspekata koje vrijedi istražiti, ali na visokoj razini. GPU-ovi koriste paralelnu obradu, sustavi izgrađeni na njima se skaliraju do superračunalnih visina, a GPU softverski paket za AI širok je i dubok.

Konačni rezultat je da GPU-i izvode tehničke izračune brže i uz veću energetsku učinkovitost od CPU-a. To znači da pružaju vodeće performanse za AI obuku i zaključivanje, kao i dobitke u širokom nizu aplikacija koje koriste ubrzano računalstvo.

U svom nedavnom izvješću o umjetnoj inteligenciji, Stanfordova grupa za umjetnu inteligenciju usmjerenu na čovjeka pružila je određeni kontekst. GPU performanse porasle su otprilike 7000 puta od 2003. godine, a cijena po izvedbi je 5600 puta veća, izvijestio je. U izvješću se također navodi analiza Epocha, neovisne istraživačke skupine koja mjeri i predviđa napredak umjetne inteligencije.

"GPU-ovi su dominantna računalna platforma za ubrzavanje radnih opterećenja strojnog učenja, a većina (ako ne i svi) najvećih modela u posljednjih pet godina obučavani su na GPU-ima... [oni su] time središnje pridonijeli nedavnom napretku AI-ja," Epoha je rekla na svojoj stranici.

Studija iz 2020. koja procjenjuje AI tehnologiju za američku vladu došla je do sličnih zaključaka. “Očekujemo da su [vodeći] čipovi s umjetnom inteligencijom jedan do tri reda veličine isplativiji od CPU-a s vodećim čvorovima kada se računaju proizvodni i operativni troškovi”, rečeno je.

Kratak pogled ispod haube pokazuje zašto GPU i AI čine moćan par. Model umjetne inteligencije, također nazvan neuronska mreža, u biti je matematička lazanje, napravljena od sloja za slojem jednadžbi linearne algebre. Svaka jednadžba predstavlja vjerojatnost da je jedan podatak povezan s drugim.

Sa svoje strane, GPU-ovi sadrže tisuće jezgri, sićušnih kalkulatora koji rade paralelno kako bi razrezali matematiku koja čini AI model. Ovo je, na visokoj razini, način na koji AI računalstvo funkcionira.

Složenost AI modela povećava se nevjerojatnih 10x godišnje. Trenutačni najsuvremeniji LLM, GPT4, sadrži više od trilijun parametara, metriku njegove matematičke gustoće. To je više od manje od 100 milijuna parametara za popularni LLM u 2018.

GPU sustavi održali su korak tako što su prihvatili izazov. Skaliraju se do superračunala, zahvaljujući svojim brzim NVLink interkonekcijama i NVIDIA Quantum InfiniBand mrežama. Na primjer, DGX GH200, AI superračunalo s velikom memorijom, kombinira do 256 NVIDIA GH200 Grace Hopper Superchipova u jedan GPU veličine podatkovnog centra sa 144 terabajta zajedničke memorije.

Svaki GH200 super čip je jedan poslužitelj sa 72 Arm Neoverse CPU jezgre i četiri petaflopa AI performansi. Nova četverostruka konfiguracija sustava Grace Hopper stavlja u jedan računalni čvor nevjerojatnih 288 Arm jezgri i 16 petaflopa AI performansi s do 2,3 terabajta memorije velike brzine. A NVIDIA H200 Tensor Core GPU-ovi najavljeni u studenom sadrže do 288 gigabajta najnovije HBM3e memorijske tehnologije.

Sve veći ocean GPU softvera razvio se od 2007. kako bi omogućio svaki aspekt AI, od značajki duboke tehnologije do aplikacija visoke razine. Mnogi od ovih elemenata dostupni su kao softver otvorenog izvornog koda, glavni dio programera koji razvijaju softver. Više od stotinu njih upakirano je u NVIDIA AI Enterprise platformu za tvrtke koje zahtijevaju punu sigurnost i podršku. Sve su češće dostupni i kod velikih pružatelja usluga u oblaku.