Prije uvođenja visokorizičnog sustava umjetne inteligencije iz članka 6. stavka 2. Uredbe o umjetnoj inteligenciji, uz iznimku visokorizičnih UI sustava namijenjenih za upotrebu u području navedenom u točki 2. Priloga III., subjekti koji uvode sustav, a koji su javnopravna tijela ili privatni subjekti koji pružaju javne usluge, kao i subjekti koji uvode visokorizične UI sustave iz točke 5. podtočaka (b) i (c) Priloga III., provode procjenu učinka koju upotreba takvog sustava može imati na temeljna prava. U tu svrhu subjekti koji uvode sustav provode procjenu koja sadrži:
(a) opis procesa subjekta koji uvodi sustav u kojima će se visokorizični UI sustav upotrebljavati u skladu sa svojom namjenom;
(b) opis razdoblja i učestalosti namjeravane upotrebe svakog visokorizičnog UI sustava;
(c) kategorije fizičkih osoba i skupina na koje će vjerojatno utjecati upotreba sustava u konkretnom kontekstu;
(d) specifične rizike od štete koji će vjerojatno utjecati na kategorije fizičkih osoba ili skupine osoba identificirane u skladu s točkom (c) ovog stavka, uzimajući u obzir informacije koje je dostavio dobavljač u skladu s člankom 13.;
(e) opis provedbe mjera ljudskog nadzora u skladu s uputama za korištenje;
(f) mjere koje se moraju poduzeti u slučaju materijalizacije tih rizika, uključujući aranžmane za unutarnje upravljanje i mehanizme za podnošenje pritužbi.
U svrhu olakšavanja provedbe procjene učinka na ljudska prava operatorima umjetne inteligencije, Agencija za zaštitu osobnih podataka preporuča korištenje metodologije koju je razvilo tijelo za zaštitu podataka Katalonije (ADPCAT). Prijevod metodologije na hrvatski jezik dostupan je na poveznici: https://azop.hr/wp-content/uploads/2025/03/FRIA-Clanak21-AI-Act.pdf
Uredbom o umjetnoj inteligenciji utvrđuje se „osiguravanje visoke razine zaštite zdravlja, sigurnosti i temeljnih prava utvrđenih u Povelji” kao jedan od glavnih ciljeva ove Uredbe (članak 1. Uredbe o umjetnoj inteligenciji). U skladu s pristupom koji se temelji na riziku, koji je donio zakonodavac EU-a, procjena učinka umjetne inteligencije na temeljna prava uključuje se u sve postupke upravljanja rizicima utvrđene Uredbom.
Od ocjenjivanja sukladnosti do posebne procjene učinka na temeljna prava u skladu s člankom 27. Akta o umjetnoj inteligenciji, uključujući posebnu odredbu za modele umjetne inteligencije opće namjene sa sistemskim rizikom, učinak na temeljna prava mora se uzeti u obzir pri projektiranju, razvoju i uvođenju UI sustava i modela.
U tom kontekstu, odredbe o tome kako provesti procjenu učinka na ljudska prava iz članka 27. Uredbe o umjetnoj inteligenciji, ali i procjenu na ljudska prava iz Okvirne konvencije Vijeća Europe, ne pružaju smjernice onima koji moraju provesti tu procjenu.
Metodologija za provedbu procjene učinka na temeljna prava ključan je alat za utvrđivanje rizika te organizacijskih i tehničkih mjera koje treba primijeniti, s transverzalnim pristupom koji se mora integrirati u multidisciplinarne radne timove odgovorne za primjenu umjetne inteligencije u javnom i privatnom sektoru.
U tu svrhu, kao što je već primijećeno u primjeni Opće uredbe o zaštiti podataka, apsolutno je nužno da službenici za zaštitu podataka od samog početka budu uključeni u strategije i projekte digitalne transformacije koji će se provoditi u svakoj organizaciji. Na taj se način ti rizici mogu analizirati od samog početka, te se mogu poduzeti potrebne organizacijske i tehničke mjere.
U slučaju da je potrebno provesti i procjenu učinka na temeljna prava i procjenu učinka na zaštitu podataka, preporuka Agencije je da se te dvije analize kombiniraju kako bi se međusobno nadopunjavale.
Procjena učinka na ljudska prava (FRIA) obvezna je u fazi uvođenja visokorizičnog UI sustava, dok je procjenu učinka na zaštitu podataka potrebno provesti na samom početku, odnosno prije početka razvoja sustava umjetne inteligencije.
Obveza provedbe FRIA-e može se primjenjivati i ako ne postoji visokorizična obrada osobnih podataka u okviru visokorizičnog UI sustava. Procjena učinka na zaštitu podataka trebala bi se provesti i ako se ne radi o visokorizičnom UI sustavu, ali se obrada osobnih podataka unutar UI sustava smatra visokorizičnom.
Primjer: Chatbot će se u većini slučajeva smatrati sustavom umjetne inteligencije srednjeg rizika. Međutim, ako se chatbot upotrebljava u osjetljivom kontekstu, može doći do aktivnosti obrade koja bi se klasificirala kao visokorizična, čak i ako sam sustav ne bi bio visokorizičan. Stoga je moguće da nije potrebna procjena učinka na temeljna prava, ali je potrebna procjena učinka na zaštitu podataka.
Više o procjeni učinka na zaštitu podataka moguće je pronaći na poveznici: https://azop.hr/procjena-ucinka-na-zastitu-podataka-eng-data-protection-impact-assessment-dpia/ i na web alatu “Olivia”: https://olivia-gdpr-arc.eu/hr.