UMJETNA INTELIGENCIJA

Meta započela treniranje AI LLM-a u Europi koristeći stvarne korisničke podatke

Njemački sud prošlog je tjedna odbacio zahtjev Savezne agencije za zaštitu potrošača Sjeverne Rajne-Vestfalije da spriječi Metu u treniranju svog velikog jezičnog modela umjetne inteligencije (LLM) temeljenog na javno objavljenom sadržaju na Facebooku i Instagramu

Meta započela treniranje AI LLM-a u Europi koristeći stvarne korisničke podatke
Depositphotos

Meta je započela treniranje svog Llama AI modela na sadržaju objavljenom u Europskoj uniji. Ova društvena mreža dobila je odobrenje za taj potez nakon što je njemačka potrošačka udruga izgubila posljednji pokušaj da ga blokira.

Njemački sud prošlog je tjedna odbacio zahtjev Savezne agencije za zaštitu potrošača Sjeverne Rajne-Vestfalije da spriječi Metu u treniranju svog velikog jezičnog modela umjetne inteligencije (LLM) temeljenog na javno objavljenom sadržaju na Facebooku i Instagramu. Wolfgang Schuldzinski, član uprave Centra za savjetovanje potrošača Sjeverne Rajne-Vestfalije, izrazio je razočaranje sudskom odlukom i naveo kako i dalje postoje ozbiljne sumnje u zakonitost Metinog plana.

Potrošačka udruga tvrdi kako bi korisnici Facebooka i Instagrama morali izričito pristati na korištenje svog sadržaja za treniranje LLM-a, uzimajući u obzir da se "legitimni interes" ne može smatrati dovoljnim razlogom za takvu obradu. „S obzirom na količinu podataka o kojima je riječ, korisnici bi trebali imati suvereno pravo sudjelovati i ne bi im smjela biti ponuđena samo opcija prigovora“, napisala je udruga, referirajući se na pravo korisnika da odbiju korištenje svojih podataka za AI treniranje.

Agencija je objasnila da se podaci koje Meta namjerava koristiti više ne mogu povući ili izbrisati nakon što se iskoriste za AI treniranje. Meta se također suočila s primjedbama Povjerenika za zaštitu podataka i slobodu informacija u Hamburgu, koji je naglasio pravo korisnika da spriječe obradu svojih podataka, ali i upozorio da se informacije koje su već unesene u AI model ne mogu ukloniti.

Ovaj potez predstavlja vrhunac više od godinu dana rada koji je Meta provela s regulatorima kako bi svoj plan treniranja AI modela uskladila s različitim pravilima EU-a i odgovorila na zabrinutosti oko korisničkih prava. Meta je obvezna izraditi izvješće u kojem će navesti jesu li zaštitne mjere koje su zahtijevali regulatori bile učinkovite i primjerene u roku od šest mjeseci te se suočiti s daljnjim nadzorom.

Ovaj slučaj naglašava sve veći regulatorni nadzor nad korištenjem podataka korisnika za razvoj umjetne inteligencije u Europskoj uniji. U skladu s Općom uredbom o zaštiti podataka (GDPR), korisnici imaju pravo na informiranost, pristanak i prigovor na obradu svojih podataka, uključujući njihovo korištenje u AI treniranju. Mnogi pravni stručnjaci upozoravaju da pristanak mora biti izričit i informiran, što znači da tvrtke poput Mete moraju jasno objasniti korisnicima kako će se njihovi podaci koristiti i pružiti im mogućnost odbijanja.

Meta je već ranije pretrpjela kritike zbog netransparentne politike privatnosti i upravljanja podacima, osobito nakon skandala s Cambridge Analyticom. Njemačke vlasti, uključujući Saveznu agenciju za zaštitu podataka, pokrenule su niz istraga o načinu na koji platforme poput Facebooka i Instagrama koriste osobne podatke građana.

Ovaj slučaj također otvara pitanje tzv. „data lock-in“ problema: jednom kada se podaci iskoriste za treniranje AI modela, gotovo je nemoguće iz njih naknadno ukloniti specifične korisničke podatke. To stvara izazove za ostvarivanje prava na zaborav i kontrolu nad vlastitim podacima. Neki stručnjaci sugeriraju da bi trebalo razviti tehnička rješenja koja omogućuju povlačenje osobnih podataka iz AI modela, ali to za sada ostaje tehnički i pravno vrlo kompleksno.

Pravni aspekti i reakcije organizacija za zaštitu privatnosti

Meta se pozvala na „legitimni interes“ kao pravnu osnovu za obradu javno dostupnih podataka korisnika u svrhu treniranja svojih AI modela, što je omogućeno prema članku 6(1)(f) Opće uredbe o zaštiti podataka (GDPR). Međutim, ova praksa izazvala je zabrinutost među organizacijama za zaštitu privatnosti, poput austrijske nevladine organizacije NOYB (None of Your Business), koja je podnijela pritužbe u 11 zemalja članica EU-a, tvrdeći da Meta nije osigurala valjan pristanak korisnika za ovu obradu podataka.

NOYB je također kritizirao Metine metode za omogućavanje korisnicima da se izuzmu iz ovog procesa, navodeći da su obrasci za prigovor teško dostupni i zahtijevaju dodatne korake, što može obeshrabriti korisnike da iskoriste svoje pravo na prigovor.

Jedan od glavnih izazova u kontekstu treniranja AI modela s korisničkim podacima je nepovratnost procesa: jednom kada se podaci koriste za treniranje modela, teško ih je ukloniti iz modela, što postavlja pitanja o ostvarivanju prava na brisanje podataka.

Kako bi se uskladila s GDPR-om, Meta je implementirala mjere poput obavještavanja korisnika putem aplikacija i e-pošte o korištenju njihovih podataka, pružajući im mogućnost da se izuzmu iz ovog procesa. Također, Meta je izjavila da neće koristiti privatne poruke niti podatke korisnika mlađih od 18 godina za treniranje svojih AI modela.

Utjecaj na korisnike i preporuke

Za korisnike u Europskoj uniji koji žele zaštititi svoju privatnost, preporučuje se:

  • Pregledati i prilagoditi postavke privatnosti na Facebooku i Instagramu kako bi se ograničilo dijeljenje javnog sadržaja.
  • Iskoristiti mogućnost prigovora na korištenje svojih podataka za treniranje AI modela putem dostupnih obrazaca koje je Meta pružila.
  • Redovito pratiti obavijesti i ažuriranja od strane Mete i nadležnih tijela za zaštitu podataka kako bi bili informirani o svojim pravima i mogućnostima zaštite privatnosti.