U eri sve prisutnije umjetne inteligencije, ključno je pitanje kako osigurati da tehnologija služi čovjeku, a ne obrnuto. Upravo s tim ciljem, Agencija za zaštitu osobnih podataka, 13. lipnja 2025. organizirala je besplatnu radionicu o procjeni učinka visokorizičnih AI sustava na temeljna prava, koju propisuje članak 27. Uredbe o umjetnoj inteligenciji.
„Stupanjem na snagu Uredbe o umjetnoj inteligenciji, Opća uredba o zaštiti podataka ne gubi na važnosti – naprotiv, Uredba dodatno naglašava ključnu ulogu zaštite osobnih podataka. Ovi propisi ne ograničavaju inovacije, već ih potiču, stvarajući sigurne i pouzdane temelje za razvoj umjetne inteligencije koja donosi maksimalne koristi društvu uz istovremeno smanjenje rizika.“ rekao je ravnatelj Agencije i potpredsjednik Europskog odbora za zaštitu podataka Zdravko Vukić u uvodnom govoru te naglasio kako je Agencija imenovana kao jedno od nadležnih tijela za nadzor i provedbu obveza koje se odnose na zaštitu temeljnih prava pri korištenju visokorizičnih AI sustava. „U kontekstu korištenja umjetne inteligencije i obrade osobnih podataka, ističemo da Agencija neće oklijevati koristiti svoje nove ovlasti kada je to potrebno za zaštitu prava pojedinaca.“
U okviru radionice, Anamarija Mladinić, načelnica Sektora za EU, međunarodnu suradnju i pravne poslove, održala je predavanje na temu „Uredba o umjetnoj inteligenciji: pristup temeljen na procjeni rizika i odnos s GDPR-om“, kojim je sudionike uvela u regulatorni okvir i obveze koje proizlaze iz istog. A jedna od obaveza je i članak 27. Uredbe o umjetnoj inteligenciji koji propisuje da se prije korištenja visokorizičnih sustava umjetne inteligencije mora procijeniti mogući utjecaj na ljudska prava i slobode. Cilj je zaštititi građane od diskriminacije, nepravednog automatiziranog odlučivanja i narušavanja privatnosti.
Upravo zbog izazova koji ova obveza predstavlja, posebno za javnopravna tijela, Agencija je kroz radionicu pružila konkretnu podršku obveznicima iz javnog i privatnog sektora, prikazujući kako procjena učinka izgleda u praksi. Radionicu je vodio profesor Alessandro Mantelero sa Sveučilišta Politecnico di Torino koji je metodologiju za provedbu procjene učinka na ljudska prava (FRIA – Fundamental Rights Impact Assessment) izradio u suradnji s partnerima i s katalonskim nadzornim tijelom za zaštitu podataka. Profesor Mantelero prezentirao je i konkretne primjere iz prakse u kojima je korišten FRIA model, ističući važnost procjene učinka u ranim fazama razvoja sustava umjetne inteligencije kako bi se prepoznali rizici i osigurala zaštita ljudskih prava.
Metodologija za procjenu učinka na temeljna prava (FRIA) predstavlja praktičan alat za prepoznavanje rizika i određivanje mjera koje organizacije trebaju poduzeti kako bi zaštitile ljudska prava. Korištenje ove metodologije preporučuje se svim organizacijama koje razvijaju ili uvode visokorizične AI sustave, bilo u javnom ili privatnom sektoru, jer pomaže da se sigurnost i etičnost tehnologije osiguraju već u ranim fazama projektnog ciklusa, uz poštivanje temeljnih prava svakog pojedinca.
Također, sudionici su imali priliku čuti i prezentacije studija slučaja koje su pripremili sStefan Martinić (Odvjetnički ured Stefan Martinić), dr. Natalija Parlov Una (Apicura CERT), Ivan Ivanković (TrustPath) i Marko Đuričić (Visage Technologies), čime je omogućena razmjena iskustava i prikaz različitih pristupa primjeni FRIA modela.
Na samom kraju radionice kroz grupni rad, svi sudionici imali su priliku primijeniti metodologiju uz stručno vodstvo mentora, što će zasigurno doprinijeti njihovom razumijevanju i uspješnoj primjeni FRIA-e u praksi.