Održana radionica o provedbi procjene učinka na ljudska prava

U eri sve prisutnije umjetne inteligencije, ključno je pitanje kako osigurati da tehnologija služi čovjeku, a ne obrnuto. Upravo s tim ciljem, Agencija za zaštitu osobnih podataka, 13. lipnja 2025. organizirala je besplatnu radionicu o procjeni učinka visokorizičnih AI sustava na temeljna prava, koju propisuje članak 27. Uredbe o umjetnoj inteligenciji.

„Stupanjem na snagu Uredbe o umjetnoj inteligenciji, Opća uredba o zaštiti podataka ne gubi na važnosti – naprotiv, Uredba dodatno naglašava ključnu ulogu zaštite osobnih podataka. Ovi propisi ne ograničavaju inovacije, već ih potiču, stvarajući sigurne i pouzdane temelje za razvoj umjetne inteligencije koja donosi maksimalne koristi društvu uz istovremeno smanjenje rizika.“ rekao je ravnatelj Agencije i potpredsjednik Europskog odbora za zaštitu podataka Zdravko Vukić u uvodnom govoru te naglasio kako je Agencija imenovana kao jedno od nadležnih tijela za nadzor i provedbu obveza koje se odnose na zaštitu temeljnih prava pri korištenju visokorizičnih AI sustava. „U kontekstu korištenja umjetne inteligencije i obrade osobnih podataka, ističemo da Agencija neće oklijevati koristiti svoje nove ovlasti kada je to potrebno za zaštitu prava pojedinaca.“

U okviru radionice, Anamarija Mladinić, načelnica Sektora za EU, međunarodnu suradnju i pravne poslove, održala je predavanje na temu „Uredba o umjetnoj inteligenciji: pristup temeljen na procjeni rizika i odnos s GDPR-om“, kojim je sudionike uvela u regulatorni okvir i obveze koje proizlaze iz istog. A jedna od obaveza je i članak 27. Uredbe o umjetnoj inteligenciji koji propisuje da se prije korištenja visokorizičnih sustava umjetne inteligencije mora procijeniti mogući utjecaj na ljudska prava i slobode. Cilj je zaštititi građane od diskriminacije, nepravednog automatiziranog odlučivanja i narušavanja privatnosti.

Upravo zbog izazova koji ova obveza predstavlja, posebno za javnopravna tijela, Agencija je kroz radionicu pružila konkretnu podršku obveznicima iz javnog i privatnog sektora, prikazujući kako procjena učinka izgleda u praksi. Radionicu je vodio profesor Alessandro Mantelero sa Sveučilišta Politecnico di Torino koji je metodologiju za provedbu procjene učinka na ljudska prava (FRIA – Fundamental Rights Impact Assessment) izradio u suradnji s partnerima i s katalonskim nadzornim tijelom za zaštitu podataka. Profesor Mantelero prezentirao je i konkretne primjere iz prakse u kojima je korišten FRIA model, ističući važnost procjene učinka u ranim fazama razvoja sustava umjetne inteligencije kako bi se prepoznali rizici i osigurala zaštita ljudskih prava.

Metodologija za procjenu učinka na temeljna prava (FRIA) predstavlja praktičan alat za prepoznavanje rizika i određivanje mjera koje organizacije trebaju poduzeti kako bi zaštitile ljudska prava. Korištenje ove metodologije preporučuje se svim organizacijama koje razvijaju ili uvode visokorizične AI sustave, bilo u javnom ili privatnom sektoru, jer pomaže da se sigurnost i etičnost tehnologije osiguraju već u ranim fazama projektnog ciklusa, uz poštivanje temeljnih prava svakog pojedinca.

Također, sudionici su imali priliku čuti i prezentacije studija slučaja koje su pripremili sStefan Martinić (Odvjetnički ured Stefan Martinić), dr. Natalija Parlov Una (Apicura CERT), Ivan Ivanković (TrustPath) i Marko Đuričić (Visage Technologies), čime je omogućena razmjena iskustava i prikaz različitih pristupa primjeni FRIA modela.

Na samom kraju radionice kroz grupni rad, svi sudionici imali su priliku primijeniti metodologiju uz stručno vodstvo mentora, što će zasigurno doprinijeti njihovom razumijevanju i uspješnoj primjeni FRIA-e u praksi.

 




			
A

Povezano

Agencija provodi upitnik za korisnike digitalnog alata Olivia

Agencija provodi upitnik za korisnike digitalnog alata Olivia

Agencija za zaštitu osobnih podataka provodi kratki upitnik za korisnike digitalnog alata Olivia, dostupnog na poveznici: https://olivia-gdpr-arc.eu/hr. Upitnik možete ispuniti na sljedećoj poveznici: https://ec.europa.eu/eusurvey/runner/upitnik-koristenje-AI-Oivie...

Skip to content