Parlament EU je 13. marca sprejel Akt o umetni inteligenci, ki zagotavlja varnost in upoštevanje človekovih pravic ter spodbuja inovacije. Poslanke in poslanci so o uredbi, o kateri je bil decembra 2023 dosežen sporazum z državami članicami, glasovali s 523 glasovi za, 46 proti in 49 vzdržanimi glasovi.
Njen namen je zaščititi temeljne pravice, demokracijo, pravno državo in okoljsko trajnostnost pred velikim tveganjem, ki ga predstavlja umetna inteligenca, ob tem pa spodbuditi inovacije in postaviti Evropo na čelo tega področja. V uredbi je določeno, da mora umetna inteligenca izpolnjevati določene obveznosti, ki so odvisne od morebitnih tveganj in razsežnosti njenega vpliva.
V skladu z novimi pravili so nekatere umetnointeligenčne aplikacije prepovedane. Mednje sodijo aplikacije, ki ogrožajo pravice državljanov, tudi sisteme biometričnega kategoriziranja, ki temeljijo na občutljivih lastnostih, in aplikacije za prepoznavanje obrazov z neciljnim odvzemom podob obraza z interneta ali s posnetkov sistema CCTV. Prepovedani bodo tudi sistemi za prepoznavanje čustev na delovnih mestih in v šolah, družbeno točkovanje, napovedno policijsko delo (ko temelji zgolj na profiliranju osebe ali ocenjevanju njenih lastnosti) ter umetna inteligenca, ki manipulira s človeškim obnašanjem ali izkorišča šibke točke ljudi.
Uporaba sistemov za biometrično identifikacijo s strani organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj je načeloma prepovedana, razen v jasno in natančno opredeljenih primerih. Biometrična identifikacija v realnem času se lahko uporabi samo, če je bilo zadoščeno strogim zahtevam, na primer če je njena uporaba omejena v času in prostoru ter če je bilo zanjo predhodno izdano sodno ali upravno dovoljenje. Med to uporabo sodi na primer ciljno iskanje pogrešane osebe ali preprečitev terorističnega napada. Uporaba tovrstnih sistemov po dejanju (post facto) velja za zelo tvegano in je zanjo obvezna izdaja sodnega dovoljenja, povezanega s kaznivim dejanjem.
Tudi za druge zelo tvegane umetnointeligenčne sisteme so predvidene jasne obveznosti, saj lahko škodujejo zdravju, varnosti, temeljnim pravicam, okolju, demokraciji in pravni državi. Primeri zelo tveganih umetnointeligenčnih sistemov zajemajo bistveno infrastrukturo, izobraževanje in poklicno usposabljanje, osnovne zasebne in javne storitve (npr. zdravstvo, bančništvo), nekatere sisteme za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, migracije, upravljanje meja, sodstvo in demokratične procese (kot je vplivanje na volitve). Pri teh sistemih je treba tveganja oceniti in zmanjšati, hraniti evidenco uporabe ter zagotoviti preglednost, natančnost in človeški nadzor. Državljani bodo imeli pravico, da se v zvezi z umetnointeligenčnimi sistemi pritožijo in prejmejo tehtne obrazložitve odločitev, temelječih na zelo tveganih umetnointeligenčnih sistemih, ki vplivajo na njihove pravice.
Umetnointeligenčni sistem za splošne namene in modeli, na katerih temeljijo, morajo pri usposabljanju svojih modelov izpolniti določene zahteve glede preglednosti, vključno z evropskim avtorskim pravom in objavo podrobnih povzetkov vsebin, uporabljenih pri učenju. Močnejši modeli umetnointeligenčnih sistemov za splošne namene, ki bi lahko povzročili sistemsko tveganje, bodo morali izpolniti dodatne zahteve, kot so izvajanje ocenjevanj modela, ocenjevanje in reševanje sistemskih tveganj in poročanje o incidentih.
Poleg tega je treba umetne ali spremenjene slikovne, zvočne ali video vsebine (globoki ponaredki) jasno označiti kot take.
Vir: Evropski parlament