Preporuka za sigurno korištenje velikih jezičnih modela i sustava temeljenih na velikim jezičnim modelima (Large Language Models-LLMs)

Objavljeno: 8.5.2026.

Agencija za zaštitu osobnih podataka  kao neovisno nadzorno tijelo u području zaštite osobnih podataka u Republici Hrvatskoj sukladno članku 57. stavku 1. Uredbe (EU) 2016/679 Europskog parlamenta i Vijeća od 27. travnja 2016. o zaštiti pojedinaca u vezi s obradom osobnih podataka i o slobodnom kretanju takvih podataka te o stavljanju izvan snage Direktive 95/46/EZ (Opća uredba o zaštiti podataka) SL EU L119 donosi sljedeću preporuku glede obrade osobnih podataka.

Agencija za zaštitu osobnih podataka preporučuje da korisnici sustava temeljenih na velikim jezičnim modelima, osobito javno dostupnih chatbotova i drugih generativnih alata umjetne inteligencije, postupaju s posebnim oprezom kada u takve sustave unose tekst, dokumente, slike ili druge sadržaje koji mogu sadržavati osobne podatke.

U LLM sustave ne bi trebalo unositi osobne podatke, podatke o drugim osobama, povjerljive informacije, interne dokumente, službene spise, ugovore, zdravstvene, financijske, radnopravne ili druge osjetljive podatke, osim ako je uporaba takvog alata prethodno procijenjena, pravno utemeljena i organizacijski kontrolirana.

Razlog za takav oprez je činjenica da se unosom osobnih podataka u LLM sustav može pokrenuti nova obrada osobnih podataka nad kojom organizacija možda nema dovoljnu kontrolu. Podaci uneseni u takav sustav mogu se, ovisno o uvjetima korištenja i tehničkoj arhitekturi alata, obrađivati na poslužiteljima vanjskog pružatelja usluge, pohraniti u povijesti razgovora, biti dostupni pružatelju usluge ili njegovim podizvršiteljima, koristiti za sigurnosnu analizu, poboljšanje usluge ili, u određenim slučajevima, za daljnje treniranje ili prilagodbu modela.

Posebno se preporučuje ne unositi podatke kao što su ime i prezime, OIB, adresa, broj telefona, adresa elektroničke pošte, identifikacijski brojevi, podaci o zdravlju, podaci o djeci, financijski podaci, podaci o zaposlenicima, klijentima, korisnicima, građanima ili poslovnim partnerima, kao ni druge informacije koje same za sebe ili u kombinaciji s drugim podacima mogu dovesti do identifikacije pojedinca.

Pri tome nije dovoljno samo ukloniti ime, prezime ili adresu. Osoba se može identificirati i iz konteksta, primjerice kombinacijom radnog mjesta, datuma, lokacije, opisa događaja, broja predmeta, specifičnih okolnosti slučaja ili drugih detalja. Zato i opis stvarne pritužbe, radnopravnog odnosa, zdravstvenog slučaja, korisničkog zahtjeva ili postupka pred tijelom javne vlasti može predstavljati osobni podatak ako se iz njega može zaključiti o kojoj je osobi riječ.

Ako je za postavljanje upita potrebno opisati određenu situaciju, preporučuje se koristiti općenite i neidentificirajuće opise. Umjesto stvarnih imena, adresa, datuma, brojeva predmeta ili drugih identifikatora mogu se koristiti izrazi poput „osoba A”, „zaposlenik”, „korisnik”, „klijent”, „podnositelj zahtjeva” ili drugi neutralni opisi, pod uvjetom da se iz konteksta ipak ne može utvrditi o kojoj je osobi riječ.

U radnom okruženju zaposlenici ne bi smjeli samostalno unositi osobne podatke u javno dostupne LLM alate ako organizacija prethodno nije procijenila i odobrila uporabu takvog alata. Poseban problem nastaje kada zaposlenik u takav alat unosi podatke klijenata, korisnika, građana, pacijenata, kandidata za posao, zaposlenika ili poslovnih partnera bez jasne pravne osnove, bez informiranja ispitanika i bez ugovorno uređenog odnosa s pružateljem AI usluge.

Rizici takvog postupanja uključuju osobito neovlašteno otkrivanje osobnih podataka, gubitak kontrole nad podacima, obradu podataka za nepredviđene svrhe, moguće prijenose podataka izvan Europskog gospodarskog prostora, nejasne rokove čuvanja, otežano ostvarivanje prava ispitanika te povredu povjerljivosti i sigurnosti obrade. U određenim slučajevima dodatni rizik mogu predstavljati i netočni, nepotpuni, pristrani ili diskriminatorni rezultati LLM sustava, osobito ako se koriste u postupcima koji mogu utjecati na prava, interese ili položaj pojedinaca.

Prije učitavanja dokumenata u LLM sustav potrebno je provjeriti sadržava li dokument osobne podatke, metapodatke, komentare, povijest izmjena, potpise, kontakt podatke, identifikacijske brojeve ili podatke trećih osoba. Ako takvi podaci nisu nužni za svrhu upita, potrebno ih je ukloniti ili koristiti anonimiziranu odnosno primjereno prilagođenu verziju dokumenta.

Rezultate koje generira LLM sustav potrebno je kritički provjeriti prije daljnje uporabe. Takvi sustavi mogu generirati netočne, nepotpune, zastarjele ili izmišljene informacije. Ako se rezultat koristi u kontekstu koji se odnosi na pojedince, primjerice u radnim odnosima, financijskim uslugama, obrazovanju, zdravstvu, javnoj upravi ili drugim osjetljivim područjima, neprovjeren rezultat može dovesti do nepoštenog postupanja, diskriminacije ili druge štete za pojedinca.

Organizacije koje namjeravaju koristiti LLM alate u poslovnom ili službenom okruženju ne bi trebale prepustiti zaposlenicima da sami procjenjuju što smiju unositi u takve sustave. Potrebno je unaprijed odrediti jasna interna pravila o dopuštenoj i zabranjenoj uporabi, vrstama podataka koje se ne smiju unositi, korištenju poslovnih odnosno organizacijskih računa, učitavanju dokumenata, provjeri rezultata i postupanju u slučaju incidenta.

Ako organizacija ne odredi takva pravila, postoji rizik da će zaposlenici samostalno koristiti javno dostupne AI alate u svakodnevnom radu, bez prethodne procjene pravne osnove, sigurnosti obrade, rokova čuvanja, mogućih prijenosa podataka ili činjenice koriste li se uneseni podaci za treniranje ili poboljšanje modela.

Agencija preporučuje da organizacije osobito:

  • donesu internu politiku korištenja LLM alata;
  • jasno odrede koji su alati dopušteni, a koji zabranjeni;
  • zabrane unos osobnih podataka u javno dostupne LLM alate bez prethodnog odobrenja;
  • osiguraju korištenje odobrenih poslovnih alata umjesto privatnih korisničkih računa zaposlenika;
  • provjere uvjete korištenja, postavke privatnosti, rokove čuvanja, lokaciju obrade i mogućnost korištenja podataka za treniranje modela;
  • ugovorno urede odnos s pružateljem usluge kada on obrađuje osobne podatke u ime organizacije;
  • uvedu tehničke kontrole, primjerice ograničenje pristupa, blokiranje neodobrenih alata, DLP pravila, ograničenje učitavanja dokumenata, logiranje i nadzor uporabe;
  • pripreme sigurne primjere upita i anonimiziranih opisa slučajeva;
  • educiraju zaposlenike o tome što se smije, a što ne smije unositi u LLM sustave;
  • uključe službenika za zaštitu podataka prije uvođenja LLM alata;
  • procijene postoji li potreba za provedbom procjene učinka na zaštitu podataka.

Korisnicima se također preporučuje da, kada su takve mogućnosti dostupne, provjere i prilagode postavke privatnosti alata, osobito mogućnost isključenja korištenja unesenih podataka za treniranje ili poboljšanje modela, brisanja povijesti razgovora, korištenja privremenih razgovora i ograničavanja pohrane unesenog sadržaja.

Posebno rizičnom praksom smatra se učitavanje ili kopiranje tablica, baza podataka, izvještaja ili drugih strukturiranih dokumenata koji sadržavaju osobne podatke zaposlenika, klijenata, korisnika, građana, kandidata za posao ili drugih osoba u javno dostupne LLM sustave radi analize, sažimanja, izrade zaključaka, rangiranja, segmentacije ili donošenja preporuka.

Takve tablice često sadržavaju veći broj osobnih podataka i omogućuju povezivanje različitih informacija o istoj osobi, primjerice imena i prezimena, kontakt podataka, radnog mjesta, plaće, ocjene rada, bolovanja, rezultata testiranja, financijskih pokazatelja, pritužbi, povijesti kupnje, korisničkih navika ili drugih podataka. U određenim slučajevima mogu sadržavati i posebne kategorije osobnih podataka ili podatke koji omogućuju zaključivanje o zdravstvenom stanju, financijskoj situaciji, radnoj uspješnosti, ponašanju ili drugim obilježjima pojedinca.

Učitavanjem takvih tablica u LLM sustav može doći do neovlaštenog otkrivanja osobnih podataka, gubitka kontrole nad podacima, obrade za svrhe koje nisu bile predviđene, mogućeg prijenosa podataka izvan Europskog gospodarskog prostora, nejasnih rokova čuvanja te otežanog ostvarivanja prava ispitanika. Osim toga, ako se LLM sustav koristi za “donošenje zaključaka” o osobama, primjerice o radnoj uspješnosti zaposlenika, ponašanju klijenata, riziku, pouzdanosti, prioritetima ili budućim odlukama, dodatno se otvaraju pitanja profiliranja, točnosti, poštenosti, transparentnosti i mogućih diskriminatornih učinaka.

Agencija stoga preporučuje da se tablice i baze podataka koje sadržavaju osobne podatke ne učitavaju u javno dostupne LLM alate, osim ako je takva uporaba prethodno odobrena, pravno utemeljena, ugovorno uređena i tehnički zaštićena. Ako je analiza podataka nužna, organizacija treba razmotriti korištenje odobrenih internih ili poslovnih alata, anonimiziranih ili agregiranih podataka, uklanjanje nepotrebnih identifikatora, ograničenje pristupa, kontrolu učitavanja dokumenata, zabranu korištenja podataka za treniranje modela te dokumentiranje svrhe, pravne osnove i mjera zaštite.

Zaposlenicima treba jasno dati do znanja da se u LLM sustave ne smiju unositi ni cijele tablice ni njihovi dijelovi ako sadržavaju osobne podatke, osim ako je organizacija prethodno utvrdila da za takvu obradu postoji valjana pravna osnova i da su provedene odgovarajuće tehničke i organizacijske mjere. To vrijedi i kada zaposlenik smatra da podatke unosi samo radi “brze analize”, “sažetka”, “izrade zaključka”, “čišćenja tablice” ili “pomoći u odlučivanju”.

LLM sustavi mogu biti korisni za izradu nacrta tekstova, sažimanje općih informacija, prevođenje, jezično uređivanje, učenje ili generiranje ideja. Međutim, ne bi ih trebalo koristiti kao alat za obradu osobnih podataka bez jasne pravne osnove, odgovarajućih informacija za ispitanike, sigurnosnih mjera, ugovorno uređenih odnosa i prethodne procjene rizika.

Agencija posebno ističe da dostupnost određenog LLM alata na internetu ne znači da je njegova uporaba za obradu osobnih podataka automatski zakonita. Svaka uporaba takvog alata koja uključuje osobne podatke mora biti usklađena s načelima zakonitosti, poštenosti, transparentnosti, smanjenja količine podataka, ograničenja svrhe, točnosti, ograničenja pohrane, cjelovitosti i povjerljivosti te pouzdanosti iz Opće uredbe o zaštiti podataka.

A

Povezano

Primjena Opće uredbe o zaštiti podataka u predškolskim ustanovama

Uvodno ističemo da djeca, sukladno propisima iz područja zaštite osobnih podataka, zaslužuju posebnu zaštitu u pogledu obrade svojih osobnih podataka, budući da mogu biti manje svjesna rizika, posljedica obrade, primjenjivih zaštitnih mjera i svojih prava. O najboljem...

Skip to content