Akt o umetni inteligenci uvaja v prihodnost usmerjeno opredelitev umetne inteligence na podlagi pristopa, ki temelji na varnosti proizvodov in tveganju, v EU:
- Minimalno tveganje: Večina umetnointeligenčnih sistemov, kot so priporočilni sistemi z umetno inteligenco in filtri za neželeno elektronsko pošto, spada v to kategorijo. Ti sistemi zaradi minimalnega tveganja za pravice in varnost državljanov nimajo obveznosti v skladu z aktom o umetni inteligenci. Podjetja lahko prostovoljno sprejmejo dodatne kodekse ravnanja.
- Posebno tveganje v zvezi s preglednostjo: Umetnointeligenčni sistemi, kot so klepetalni boti, morajo uporabnikom jasno razkriti, da so v stiku s strojem. Nekatere vsebine umetne inteligence, vključno z globokimi ponaredki, je treba označiti kot take, uporabnike pa je treba obvestiti o uporabi sistemov za biometrično kategorizacijo ali prepoznavanje čustev. Poleg tega bodo morali ponudniki oblikovati sisteme tako, da bodo sintetične vsebine, kot so avdio, video, besedilo in slike, označene v strojno berljivi obliki in zaznavne kot umetno ustvarjene ali manipulirane.
- Veliko tveganje: Umetnointeligenčni sistemi, opredeljeni kot sistemi velikega tveganja, bodo morali izpolnjevati stroge zahteve, vključno s sistemi za zmanjševanje tveganja, visoko kakovostjo naborov podatkov, beleženjem dejavnosti, podrobno dokumentacijo, jasnimi informacijami za uporabnike, človeškim nadzorom ter visoko stopnjo robustnosti, točnosti in kibernetske varnosti. Regulativni peskovniki bodo olajšali odgovorne inovacije in razvoj skladnih umetnointeligenčnih sistemov. Taki umetnointeligenčni sistemi velikega tveganja vključujejo na primer umetnointeligenčne sisteme, ki se uporabljajo za novačenje ali ocenjevanje, ali je nekdo upravičen do posojila ali do upravljanja avtonomnih robotov.
- Nesprejemljivo tveganje: Umetnointeligenčni sistemi, ki veljajo za očitno grožnjo temeljnim pravicam ljudi, bodo prepovedani. To vključuje umetnointeligenčne sisteme ali aplikacije, ki manipulirajo človeško vedenje, da bi se izognili svobodni volji uporabnikov, kot so igrače z glasovno pomočjo, ki spodbujajo nevarno vedenje mladoletnikov, sistemi, ki vladam ali podjetjem omogočajo „socialno točkovanje“, in nekatere uporabe napovednega policijskega dela. Poleg tega bodo nekatere uporabe biometričnih sistemov prepovedane, med drugim sistemi za prepoznavanje čustev, uporabljeni na delovnem mestu, nekateri sistemi za kategorizacijo oseb ali biometrična identifikacija na daljavo v realnem času za namene kazenskega pregona na javnih mestih (z omejenimi izjemami).
Uporaba in izvrševanje pravil o umetni inteligenci
Države članice morajo do 2. avgusta 2025 imenovati pristojne nacionalne organe, ki bodo nadzorovali uporabo pravil za umetnointeligenčne sisteme in izvajali dejavnosti nadzora trga. Urad Komisije za umetno inteligenco bo ključni organ za izvajanje akta o umetni inteligenci na ravni EU in izvršilni organ za pravila za modele umetne inteligence za splošne namene.
Izvajanje pravil bodo podpirali trije svetovalni organi. Evropski odbor za umetno inteligenco bo zagotovil enotno uporabo akta o umetni inteligenci v državah članicah EU in bo deloval kot glavni organ za sodelovanje med Komisijo in državami članicami. Znanstveni odbor neodvisnih strokovnjakov bo zagotavljal tehnične nasvete in prispevke o izvrševanju. Ta okrogla miza lahko uradu za umetno inteligenco izda opozorila o tveganjih, povezanih z modeli umetne inteligence za splošne namene. Urad za umetno inteligenco lahko prejema tudi smernice svetovalnega foruma, ki ga sestavljajo različni deležniki.
Podjetja, ki ne bodo spoštovala pravil, bodo kaznovana. Globe bi lahko znašale do 7 % svetovnega letnega prometa za kršitve prepovedanih aplikacij umetne inteligence, do 3 % za kršitve drugih obveznosti in do 1,5 % za zagotavljanje napačnih informacij.
Večina pravil akta o umetni inteligenci se bo začela uporabljati 2. avgusta 2026. Vendar se bodo prepovedi umetnointeligenčnih sistemov, za katere se šteje, da predstavljajo nesprejemljivo tveganje, začele uporabljati že po šestih mesecih, pravila za tako imenovane modele umetne inteligence za splošne namene pa se bodo začela uporabljati po 12 mesecih.
Da bi Komisija premostila prehodno obdobje pred popolnim izvajanjem, je začela izvajati pakt za umetno inteligenco. Ta pobuda poziva razvijalce umetne inteligence, naj prostovoljno sprejmejo ključne obveznosti iz akta o umetni inteligenci pred zakonskimi roki.
Komisija pripravlja tudi smernice za opredelitev in podrobno opredelitev, kako bi bilo treba akt o umetni inteligenci izvajati, ter olajšati koregulativne instrumente, kot so standardi in kodeksi ravnanja. Komisija je objavila razpis za prijavo interesa za sodelovanje pri pripravi prvega splošnega kodeksa ravnanja na področju umetne inteligence in posvetovanje z več deležniki, ki je vsem deležnikom omogočilo, da izrazijo svoje mnenje o prvem kodeksu ravnanja v skladu z aktom o umetni inteligenci.
Vir: Evropska komisija