Akt o umjetnoj inteligenciji

Akt o umjetnoj inteligenciji

21. srpnja 2025.

Autori: Jelena Berković i Ivica Kristović

Kako bi regulirala upotrebu umjetne inteligencije (AI) u skladu s potencijalnim rizicima, Europska unija donijela je Akt o AI-u, kojim se uređuje razvoj i primjena AI tehnologija. EU je novim Aktom o umjetnoj inteligenciji uvela klasifikaciju AI sustava prema razini rizika koju predstavljaju. Zbog neprihvatljivih rizika, neke primjene umjetne inteligencije zabranjene su na razini Unije – primjerice, korištenje AI-a za kognitivno-bihevioralne manipulacije, za klasifikaciju ljudi prema njihovom ponašanju, društveno-ekonomskom statusu ili osobnim karakteristikama, kao i za biometrijsku identifikaciju, kategorizaciju i prepoznavanje lica u javnim prostorima u stvarnom vremenu.

Za AI sustave koji bi mogli negativno utjecati na temeljna ljudska prava, uvedena je obaveza da ih se mora procijeniti prije stavljanja na tržite. Građani EU-a pritom imaju pravo žalbe nacionalnim vlastima. Osim toga, svi koji stavljaju takve sustave na tržište EU-a morali bi osigurati minimalnu transparentnost: jasno označiti da je sadržaj generirao AI, spriječiti proizvodnju nezakonitog sadržaja i objaviti sažetke o zaštićenim podacima koji su korišteni za treniranje modela.

Akt o umjetnoj inteligenciji stupio je na snagu u EU 1. kolovoza 2024. i u potpunosti bi se trebao primjenjivati od 2. kolovoza 2026., no određene su i tri iznimke: zabrane i obveze u pogledu pismenosti u području umjetne inteligencije počele su se primjenjivati 2. veljače 2025.; pravila upravljanja i obveze za AI modele opće namjene počinju se primjenjivati 2. kolovoza 2025.; pravila za visokorizične AI sustave ugrađene u regulirane proizvode imaju produljeno prijelazno razdoblje do 2. kolovoza 2027.

Hrvatsko zakonodavstvo – pomalo

Hrvatske se institucije ovom temom bave pod krilaticom “pomalo”. Hrvatska Vlada je u prosincu 2024. godine odredila nacionalna nadležna tijela za provođenje Akta o umjetnoj inteligenciji. Kao nadležna tijela navedeni su: Pučka pravobraniteljica, Pravobraniteljica za djecu, Pravobraniteljica za ravnopravnost spolova, Pravobraniteljica za osobe s invaliditetom, Agencija za zaštitu osobnih podataka, Državno izborno povjerenstvo i Agencija za elektroničke medije. 

Na 87. sjednici Vlade održanoj u svibnju ove godine, ministar pravosuđa, uprave i digitalne transformacije Damir Habijan predstavio je Prijedlog odluke o pokretanju izrade Nacionalnog plana razvoja umjetne inteligencije za razdoblje do 2032. godine, zajedno s pripadajućim Akcijskim planom za provedbu Nacionalnog plana razvoja umjetne inteligencije za razdoblje od 2026. do 2028. godine. Prvi stup plana odnosi se na oblikovanje i provedbu javnih politika u području umjetne inteligencije, drugi na ulaganja u AI sektor, a treći na stvaranje uvjeta za učinkovitu primjenu umjetne inteligencije. Sam Nacionalni plan obuhvatit će nekoliko ključnih komponenti kao što su obrazovanje i razvoj vještina za upravljanje umjetnom inteligencijom, digitalizacija, rast i razvoj gospodarstva i industrije, poticanje istraživanja, inovacija i start-upova te zaštita privatnosti i sigurnosti građana. Radnu skupinu za izradu ovih planova, osim članova tima zaduženog za prenošenje Akta o umjetnoj inteligenciji, činit će i predstavnici akademske zajednice, privatnog sektora te stručnjaci iz ministarstava i drugih državnih tijela.

Informacije se u javnost puštaju na kapaljku te nam samo ostaje pozorno pratiti ove procese, a u međuvremenu se detaljnije upoznati s onim što propisuje sam europski Akt o umjetnoj inteligenciji.

Pozitivne strane umjetne inteligencije

Na početku Akta o umjetnoj inteligenciji navode se pozitivne strane uvođenja tehnologije umjetne inteligencije u razne sustave:

“Umjetna inteligencija skup je tehnologija koji se brzo razvija i doprinosi širokom spektru gospodarskih, okolišnih i društvenih koristi u cijelom nizu industrija i društvenih aktivnosti. Zahvaljujući boljem predviđanju, optimizaciji operacija i dodjeli resursa te personalizaciji digitalnih rješenja dostupnih pojedincima i organizacijama, korištenje umjetne inteligencije može poduzećima pružiti ključne konkurentske prednosti te podupirati društveno i okolišno korisne ishode, na primjer u zdravstvu, poljoprivredi, sigurnosti hrane, obrazovanju i osposobljavanju, medijima, sportu, kulturi, upravljanju infrastrukturom, energetici, prometu i logistici, javnim uslugama, sigurnosti, pravosuđu, resursnoj i energetskoj učinkovitosti, praćenju stanja okoliša, očuvanju i obnovi bioraznolikosti i ekosustavâ te ublažavanju klimatskih promjena i prilagodbi njima”.

Rizici u korištenju alata umjetne inteligencije

No, potom se ističe i da takvi sustavi mogu uzrokovati i štetu: “Istodobno, ovisno o okolnostima njezine specifične primjene, korištenja i razine tehnološkog razvoja, umjetna inteligencija može stvoriti rizike i uzrokovati štetu javnim interesima i temeljnim pravima zaštićenima pravom Unije. Ta šteta može biti materijalna ili nematerijalna, uključujući tjelesnu, psihološku, društvenu ili ekonomsku štetu”.

Te rizike je EU podijelila na četiri razine: neprihvatljive i visoke rizike, rizike transparentnosti te minimalne ili nikakve rizike.

Kao neprihvatljivi rizici navode se: štetne manipulacije i obmane koje se temelje na umjetnoj inteligenciji; štetno iskorištavanje ranjivosti koje se temelji na umjetnoj inteligenciji; društveno bodovanje; procjena ili predviđanje rizika pojedinačnog kaznenog djela; neciljano struganje interneta ili CCTV materijala radi stvaranja ili proširenja baza podataka za prepoznavanje lica; prepoznavanje emocija na radnim mjestima i u obrazovnim ustanovama; biometrijska kategorizacija kako bi se izvele određene zaštićene značajke te daljinska biometrijska identifikacija u stvarnom vremenu a javnim mjestima. za potrebe kaznenog progona.

“Manipulativne tehnike omogućene umjetnom inteligencijom mogu se upotrebljavati kako bi se osobe navelo na neželjeno ponašanje ili kako bi ih se obmanulo tako da ih se potiče na odluke na način kojim se podriva i narušava njihova autonomija, donošenje odluka i slobodan izbor. Stavljanje na tržište, stavljanje u upotrebu ili korištenje određenih AI sustava s ciljem ili učinkom bitnog iskrivljavanja ljudskog ponašanja, pri čemu je vjerojatno da će nastati znatna šteta, osobito ona koja ima dovoljno velike štetne učinke na fizičko ili psihološko zdravlje odnosno financijske interese, osobito su opasni te bi ih stoga trebalo zabraniti. U takvim se AI sustavima upotrebljavaju subliminalne komponente kao što su zvučni i slikovni podražaji te videopodražaji koje osobe ne mogu percipirati jer nadilaze ljudsku percepciju ili se upotrebljavaju druge manipulativne ili prijevarne tehnike kojima se podriva ili narušava autonomija, donošenje odluka ili slobodan izbor osobe na način da ljudi svjesno ne percipiraju te tehnike ili zbog kojih su, ako ih i jesu svjesni, svejedno prevareni ili ih ne mogu kontrolirati niti im se oduprijeti”, piše u Aktu o umjetnoj inteligenciji.

Prevare

Klasične manipulacije koje se mogu podvesti pod ovaj nazivnik već se vide u praksi, a o mnogima smo već i pisali na Faktografu. AI alati već sada mogu proizvesti relativno vjerne lažne audio i video snimke koje građane mogu navesti na donošenje raznih štetnih odluka vezanih uz, primjerice, glasovanje na izborima, ulaganje novca u rizične investicije ili kupovinu lažnih lijekova. Dok se alati umjetne inteligencije nisu koristili za izborna podmetanja protivnicima tijekom superizborne 2024. u Hrvatskoj, na društvenim mrežama se svakodnevno mogu pronaći oglasi koji tu tehnologiju koriste kako bi se ljudima prodale lažne investicijske platforme, kao što su zabilježeni i slučajevi iskorištavanja uglednih liječnika koji kroz lažan AI generirani sadržaj navodno pokušavaju nagovoriti ljude na kupovinu sumnjivih lijekova (više primjera potražite u Faktografovoj rubrici AI dezinformacije)

Problematična je i kategorizacije na temelju prikupljenih biometrijskih podataka osoba. “Trebalo bi zabraniti sustave biometrijske kategorizacije koji se temelje na biometrijskim podacima fizičkih osoba, kao što su lice ili otisak prstiju pojedinca, kako bi se deduciralo ili izvelo zaključke o njegovim političkim mišljenjima, članstvu u sindikatima, vjerskim ili filozofskim uvjerenjima, rasi, spolnom životu ili seksualnoj orijentaciji”, navodi se u dokumentu, a potom se dodaje i da “AI sustavi koji omogućuju društveno vrednovanje fizičkih osoba koje upotrebljavaju javni ili privatni akteri mogu rezultirati diskriminatornim ishodima i isključivanjem određenih skupina”.

“Njima se može prekršiti pravo na dostojanstvo i nediskriminaciju te vrijednosti kao što su ravnopravnost i pravda. Takvi AI sustavi evaluiraju ili klasificiraju fizičke osobe ili skupine fizičkih osoba na temelju višestrukih podataka povezanih s njihovim društvenim ponašanjem u višestrukim kontekstima ili poznatih, izvedenih ili predviđenih osobnih značajki ili značajki osobnosti tijekom određenih razdoblja. Društveni rejting dobiven takvim AI sustavima može rezultirati štetnim ili nepovoljnim tretmanom fizičkih osoba ili cijelih skupina fizičkih osoba u društvenim kontekstima koji nisu povezani s kontekstom u kojima su podaci izvorno generirani ili prikupljeni, odnosno štetnim tretmanom koji je nerazmjeran ili neopravdan u odnosu na težinu posljedica njihova društvenog ponašanja”, navodi se. Time se želi spriječiti da neki veliki sustav prikupi podatke o nekoj osobi iz raznih baza podataka te da se na temelju toga određuje “društveni rejting”.

Cilj je i da se ograniči biometrijska identifikacija osoba na javnim mjestima u svrhu kaznenog progona kako se ne bi zadiralo u privatni život, ali i da stanovništvo ne bi imalo doživljaj stalnog nadzora. “Stoga bi trebalo zabraniti korištenje tih sustava u svrhu kaznenog progona, osim u taksativno popisanim i usko definiranim situacijama u kojima je ono nužno za ostvarenje znatnog javnog interesa, čija važnost premašuje rizike”, navodi se u dokumentu te se potom i detaljno razrađuje u kojim slučajevima bi takav nadzor bio dopušten.

“Trebalo bi zabraniti stavljanje na tržište, stavljanje u upotrebu u tu specifičnu svrhu ili korištenje AI sustava koji stvaraju ili proširuju baze podataka za prepoznavanje lica neciljanim prikupljanjem prikaza lica s interneta ili iz snimaka CCTV-a jer ta praksa doprinosi osjećaju masovnog nadzora i može dovesti do teških kršenja temeljnih prava, uključujući pravo na privatnost”, navodi se u dokumentu.

Visokorizični slučajevi korištenja AI alata

Visokorizičnim slučajevima uporabe umjetne inteligencije koji mogu predstavljati ozbiljan rizik za zdravlje, sigurnost ili temeljna prava Akt o umjetnoj inteligenciji uključuje: sigurnosne komponente umjetne inteligencije u kritičnim infrastrukturama (npr. promet), čiji bi neuspjeh mogao ugroziti život i zdravlje građana; rješenja umjetne inteligencije koja se upotrebljavaju u obrazovnim ustanovama, a koja mogu odrediti pristup obrazovanju i tijek nečijeg profesionalnog života (npr. bodovanje ispita); sigurnosni sastavni dijelovi proizvoda koji se temelje na umjetnoj inteligenciji (npr. primjena umjetne inteligencije u kirurškim zahvatima uz pomoć robota); alati umjetne inteligencije za zapošljavanje, upravljanje radnicima i pristup samozapošljavanju (npr. softver za razvrstavanje životopisa za zapošljavanje); određeni slučajevi upotrebe umjetne inteligencije koji se upotrebljavaju kako bi se omogućio pristup osnovnim privatnim i javnim uslugama (npr. ocjenjivanje kreditne sposobnosti kojim se građanima uskraćuje mogućnost dobivanja zajma); AI sustavi koji se upotrebljavaju za daljinsku biometrijsku identifikaciju, prepoznavanje emocija i biometrijsku kategorizaciju (npr. AI sustav za retroaktivnu identifikaciju kradljivaca u trgovini); slučajevi upotrebe umjetne inteligencije u tijelima kaznenog progona koji mogu utjecati na temeljna prava ljudi (npr. evaluacija pouzdanosti dokaza); slučajevi upotrebe umjetne inteligencije u upravljanju migracijama, azilom i granicama (npr. automatizirano razmatranje zahtjeva za vizu), kao i rješenja umjetne inteligencije koja se upotrebljavaju u pravosuđu i demokratskim procesima (npr. rješenja umjetne inteligencije za pripremu sudskih presuda).

Takvi sustavi podliježu strogim obvezama prije nego se stave na tržište, a koji se, između ostalog, odnose na osiguranje visoke kvalitete skupova podataka te detaljnu dokumentaciju o sustavu i njegovoj svrsi.

Kako bi se uklonio rizik netransparentnosti sustava koji se uvode, Aktom o umjetnoj inteligenciji uvode se posebne obveze kako bi se osiguralo da su ljudi informirani. Primjerice, pri upotrebi sustava umjetne inteligencije kao što su chatbotovi, ljudi bi trebali biti svjesni da su u interakciji sa strojem kako bi mogli donijeti informiranu odluku. Također, traži se da se sadržaj stvoren umjetnom inteligencijom može identificirati, kao i da bude jasno i vidljivo označen. EU naglašava kako većina AI sustava koji se trenutačno koriste predstavljaju minimalnu ili nikakvu opasnost, a to su primjerice videoigre omogućene umjetnom inteligencijom ili filtri za nepoželjnu poštu.

Naslovna fotografija: Steve Johnson/Unsplash

poynter.org European Union JTI Certified