Ravnatelj Agencije i potpredsjednik EDPB-a Zdravko Vukić sudjelovao je kao panelist na Simpoziju privatnosti u Veneciji gdje je istaknuo kako odgovorna umjetna inteligencija počinje zakonitom obradom osobnih podataka.
„Iz našeg iskustva s hrvatskim programerima umjetne inteligencije, možemo reći da često ignoriraju potrebu za usklađivanjem svojih aktivnosti obrade u modelima ili sustavima umjetne inteligencije s Općom uredbom o zaštiti podataka, počevši od utvrđivanja zakonite osnove. Legitimni interes nije čarobno rješenje i nije dovoljno izjaviti „imamo legitiman interes“. Morate provesti strukturirani trodijelni test kako je naglašeno u nedavnom mišljenju Europskog odbora za zaštitu podataka.“ rekao je ravnatelj Vukić.
Naime, u prosincu 2024. godine Europski odbor za zaštitu podataka usvojio je mišljenje o upotrebi osobnih podataka za razvoj i uporabu modela umjetne inteligencije, u kojemu se među ostalim razmatra, mogu li se i na koji način legitimni interesi upotrebljavati kao pravna osnova za razvoj ili upotrebu modela umjetne inteligencije, a u toj procjeni pomaže test u tri koraka. Organizacije su često pogrešno pretpostavljale da je dovoljno samo pozvati se na legitiman interes, a da to nisu dokazale te su ostali iznenađeni naglaskom EDPB-a na trodijelnom testu.
No, provođenje testa nije novost koja je uvedena mišljenjem EDPB-a već to propisuje Opća uredba o zaštiti podataka, a kako bi organizacijama pomogla u provođenju procjene legitimnog interesa Agencija je razvila i web alat Olivia: „Ona pomaže organizacijama usmjeravajući ih kroz pitanja na koja treba odgovoriti u testu i nudi praktične smjernice.“, istaknuo je ravnatelj Vukić te objasnio da bi se voditelji obrade oslonili na legitimni interes moraju dokazati da je interes zakonit, specifičan i stvaran; da je obrada strogo potrebna za postizanje tog interesa te da interes nije nadjačan pravima i slobodama pojedinca.
„Vidimo kako mnogi razvojni programeri umjetne inteligencije ne uspijevaju jasno definirati svrhu obrade, jer izjave poput “za obuku modela umjetne inteligencije” nisu dovoljne prema GDPR-u. Također, često vidimo nepotrebne osobne podatke koji se obrađuju u skupovima za obuku umjetne inteligencije. Zato snažno potičemo korištenje tehnologija za poboljšanje privatnosti (PET), kao što su sintetički podaci, federirano učenje i diferencijalna privatnost kao ključne alate za smanjenje rizika.“, naglasio je ravnatelj Vukić.
Tijekom panela, ravnatelj Vukić dotaknuo se i rizika koje predstavljaju sustavi umjetne inteligencije za pojedince, a koji se često zanemaruju: „Mali broj njih procjenjuje rizike za zdravlje, sigurnost ili temeljna prava i slobode, ali je važno naglasiti da nezakonita obrada osobnih podataka dovodi i do kršenja drugih temeljnih ljudskih prava poput prava na nediskriminaciju, prava na slobodu izražavanja, prava na pristup pravosuđu i pošteno suđenje, pa čak i prava na život.“
Na kraju je istaknuo kako umjetna inteligencija u Republici Hrvatskoj cvjeta te da je Agencija za zaštitu osobnih podataka u studenome prošle godine provela postupak među 11 najistaknutijih hrvatskih programera umjetne inteligencije kako bi se utvrdila razina znanja o zaštiti podataka i usklađenosti s Općom uredbom o zaštiti podataka, koja nije zadovoljavajuća te da se nadzorni postupak provodi kod određenih organizacija.
„Cilj nije otežati život razvojnim programerima umjetne inteligencije, već zaštititi temeljna prava svih nas, uključujući našu djecu i ranjive skupine.“, završno je rekao ravnatelj Agencije i potpredsjednik EDPB-a Zdravko Vukić.