Sprejemanje je bilo dolgotrajno. Priprave so se začele že na začetku desetletja, torej gre za enega najobsežnejših, najpomembnejših zakonodajnih projektov tega mandata Evropskega parlamenta. Med pripravami smo bili priča razmahu jezikovnih modelov umetne inteligence, na katerih temeljijo danes izjemno odmevne storitve, kot so ChatGPT, Midjourney, Gemini itd., zato so predlog precej pregnetli. Naposled je bil 13. marca letos sprejet v Evropskem parlamentu. Kar 523 poslancev je glasovalo za, 46 jih je bilo proti, 49 vzdržanih.
Evropa želi ureditev razširiti po svetu, podobno, kot se do neke mere širijo rešitve iz GDPR-ja. Ponudniki storitev, ki bodo želeli vstopiti na evropski trg, se bodo morali uskladiti z aktom, s čimer se bo širila tudi praksa iz akta, čemur utegnejo slediti tuji zakonodajalci.
Ključna novost je uvedba štirih stopenj tveganja, kot jih vidijo zakonodajalci.
Prepoved oziroma "nesprejemljivo tveganje"
Vsi sistemi umetne inteligence, ki nedvomno predstavljajo tveganje varnosti, življenju in pravicam ljudi, so prepovedani. Predstavimo nekaj primerov.
Sklepanje o čustvenem stanju posameznikov na delovnem mestu ali v izobraževalnih ustanovah bo prepovedano – razen v zdravstvene ali varnostne namene.
Prepovedano bo družbeno točkovanje, torej ocenjevanje posameznikov ali skupin glede na njihovo obnašanje ter osebne lastnosti s pomočjo umetne inteligence. Družbeno točkovanje je v široki uporabi na Kitajskem, kjer so v zadnjem desetletju uvedli ducate različnih implementacij, in razvršča ljudi glede na storjena "obsojanja vredna" ali pa "hvalevredna" dejanja. Družbeno točkovanje sicer lahko v praksi poteka tudi brez umetne inteligence, tega pa ta akt ne obravnava.
Umetna inteligenca ne bo smela opravljati biometrične kategorizacije na podlagi občutljivih podatkov – o rasi, političnem prepričanju, članstvu v sindikatu, verskih ali svetovnonazorskih prepričanjih, spolni usmerjenosti ... Organi pregona ne bodo smeli uporabljati biometrične identifikacije v "realnem času" oziroma v živo na javnih površinah, razen, če iščejo pogrešane ali ugrabljene osebe, osumljence hujših kaznivih dejanj ali če preprečujejo teroristične napade oziroma večjo grožnjo življenju ljudi. Policija mora takšen sistem registrirati pri Evropski uniji in opraviti oceno vpliva na človekove pravice, pa tudi pridobiti dovoljenje ali sodne veje oblasti ali neodvisnega administrativnega organa. Umetna inteligenca ne bo smela kar na debelo – oziroma neciljano – zbirati obraze ali z medmrežja ali z varnostnih kamer.
Umetna inteligenca ne bo smela uporabljati zavajajočih, manipulativnih ali subliminalnih tehnik za usmerjanje vedenja; pri tem ji bo tudi prepovedano izkoriščanje ranljivosti, povezanih s starostjo ali socialno-ekonomskim položajem. Zato bodo denimo prepovedane govoreče otroške igrače, ki otroke spodbujajo k "nevarnemu vedenju".
Prepovedano bo ocenjevati nagnjenost h kaznivim dejanjem izključno na posameznikovih osebnostnih lastnostih. Bo pa to deloma dovoljeno, če bo umetna inteligenca zgolj pomagala človeškemu odločevalcu, ki bo oceno izgotovil na podlagi "objektivnih, preverljivih dejstvih, povezanih s kriminalno dejavnostjo".
Visoko tveganje, visoka stopnja regulacije
Sistemi, ki so po oceni zakonodajalca visoko tvegani, bodo predmet stroge regulacije oziroma bodo še pred vstopom na trg morali izpolnjevati številne pogoje. Upravljavec sistema bo moral izdelati študijo nevarnosti in predložiti ukrepe za omejitev teh nevarnosti; skrbeti za kakovost in nediskriminatornost baze podatkov, na kateri se model umetne inteligence trenira; ves čas hraniti pomembne podatke o delovanju sistema, ter poskrbeti za ustrezno stopnjo kibervarnosti. Delovanje sistema morajo nenehno nadzorovati ljudje.
Torej, delovanje sistemov bo strogo omejeno, a dovoljeno za naslednja področja:
V kritični infrastrukturi, saj tam potencialno ogroža zdravje in življenje ljudi. Primer je transport, denimo samovozeči se avtomobili, upravljanje železniškega prometa in podobno, pa tudi oskrba s plinom, vodo, ogrevanjem in električno energijo.
- Pri vidikih izobraževanja, ki lahko vplivajo na usodo posameznika, denimo pri ocenjevanju testov in preprečevanju goljufanja; ali pri kadrovanju zaposlenih, npr. pri ocenjevanju življenjepisov ali primernosti za napredovanje.
- Pri dostopu do bistvenih javnih in zasebnih storitev. Umetna inteligenca se lahko uporablja za ocenjevanje primernosti za socialne transferje in druge javne pravice, kreditne sposobnosti, pa pri razvrščanju klicev na pomoč (112, 113) po nujnosti, in še pri ocenjevanju tveganja pri sklepanju zavarovanj.
- Pri varnosti izdelkov, ki uporabljajo umetno inteligenco; npr. pri nekaterih robotskih kirurgih.
- V pravosodju in policiji, kjer lahko umetna inteligenca ocenjuje zanesljivost dokazov ali išče relevantne sodne odločbe.
- Ter pri migracijah, azilnih postopkih in nadzoru meje. Umetna inteligenca bi denimo lahko igrala vlogo pri preverjanju prijav za vizum ali pa prošenj za azil.
- Prepovedane vidike delovanja biometričnih sistemov smo že navedli zgoraj; ne bodo pa ti sistemi prepovedani nasploh. Spadajo namreč v kategorijo visokega tveganja in so predmet omejitev iz tega poglavja. Biometrija se lahko uporablja za preverjanje identitete osebe, če jo ta zatrjuje; za kategorizacijo brez občutljivih ali zaščitenih osebnih lastnosti, ter za sklepanje o čustvenem stanju osebe.
Omejeno tveganje
Evropska unija zahteva, da so ljudje obveščeni, ko so v stiku z umetno inteligenco, ko je to potrebno. In kdaj je? Denimo, ko uporabnik namesto s človeško podporo komunicira s klepetalnim botom. Ali, ko konzumira vsebine, ki jih je ustvarila umetna inteligenca, pa naj bodo to članki ali pa avdio-video izdelki, še posebej t. i. globoki ponaredki (ang. deepfakes).
EU: Večina sploh ni regulirana
Vse drugo spada pod t. i. varne sisteme oziroma sisteme brez tveganj. Velika večina sistemov umetne inteligence, ki se danes uporablja v Evropski uniji, je takšnih, navaja Evropski parlament.
Kako pridobijo dovoljenje
Če nekdo razvije sistem umetne inteligence in ga želi ponujati na evropskem trgu, ga mora podvreči preverbi skladnosti z evropskim pravom, ga nato registrirati, podpisati deklaracijo o skladnosti in pridobiti oznako CE. Če se sistem med uporabo občutno spremeni, mora ponudnik ponoviti postopek. Nadzor bo opravljala novoustanovljena Evropska pisarna za umetno inteligenco.
Akt se nanaša na profesionalne ponudnike sistemov umetne inteligence, in ne na uporabnike le-te.
Sistemi za splošno uporabo
Posebno pozornost je dobila umetna inteligenca za splošne namene (ang. general purpose AI), pod katero spadajo blagovne znamke, kot je denimo ChatGPT. Vsi ponudniki tovrstnih storitev morajo pripraviti tehnično dokumentacijo, ki vsebuje podatke o učenju in preizkušanju modela, vključno z "dovolj natančnim izvlečkom" o bazi podatkov, na kateri se je UI učila.
Dokumentacija mora biti na voljo vsem drugim ponudnikom, ki bodo to vrsto umetne inteligence vključili v svoje produkte, da bodo lahko razumeli omejitve in zmožnosti. Ponudnik mora nadalje pripraviti pravilnik o spoštovanju direktive o avtorskih pravicah.
Če skupna količina izračunov za treniranje posameznega modela presega 1025 FLOP-sov, potem model – po aktu – predstavlja sistemsko tveganje. Zanj so zahtevani dodatni ukrepi: redne evalvacije, ocene sistemskih tveganj, sledenje in poročanje incidentov Pisarni Evropske unije za umetno inteligenco, ter primerna raven kibernetske varnosti.
To se ne nanaša se na modele, ki so še v razvoju in zgolj testni uporabi.
MMC je za komentar akta, ali je dober ali slab, ali zavira razvoj v Evropi ali ga spodbuja, poprosil nekaj slovenskih strokovnjakov za umetno inteligenco.
Grobelnik: Dober kompromis
Akt o umetni inteligenci, ki ga je sprejela Evropska unija, je za čas, v katerem je bil sprejet, verjetno zelo dober kompromis med željami, možnostmi in hitro razvijajočo umetno inteligenco. Iz praktičnega stališča, če konsenz ne bi bil sprejet v decembru 2023, bi se zaradi evropskih volitev vse skupaj lahko zamaknilo v 2025, ko bi pa bilo lahko že pozno. Po konceptualni plati je akt sestavljen na praktičen način – ne regulira tehnologije, ampak uporabo tehnologije. Torej, še vedno se lahko razvoj umetne inteligence v Evropi odvija nemoteno, je pa res, da so nekatere sporne uporabe umetne inteligence prepovedane, nekatere pa potrebujejo certifikacijo (torej, preverbo, če sistemi res počnejo to, kar trdijo). Debata lahko poteka, kje so postavljene meje med prepovedanim in dovoljenim – po moji osebni presoji so meje postavljene v redu. Hkrati je treba vedeti, da je akt zastavljen tako, da ga bo mogoče spreminjati, ko se bo tehnologija razvijala in razen osnovnih konceptov, zadeve niso dokončno zakoličene.
Krilatica, da "ZDA inovirajo, EU pa regulira", ima nekaj resnice. Je pa dobro vedeti, zakaj se tako dogaja. V moderni umetni inteligenci je odločila strojna infrastruktura, ki jo imajo samo nekatera največja podjetja (Microsoft, Google, Amazon, Meta). Akademska sfera, države in podjetja, ki ne sodijo v krog največjih, tega nimajo in si je tudi ne morejo privoščiti. V tem smislu se je pojavila odvisnost od največjih podjetij, ki so z dobro mero rizika investirale v produkte, kot so ChatGPT in podobno – ni bilo jasno, ali jim bo uspelo, in še danes nikomur ni čisto jasno, zakaj je uspelo. Če se vrnemo k prej omenjeni krilatici. Evropska unija je obljubila, da bo prva prišla s celovito zakonodajo (ožjo zakonodajo so sprejeli na Kitajskem že avgusta 2023). Posledično je preostanek sveta spremljal dogajanje v Evropski uniji. Pričakovati je, da se bo mnogo držav zunaj EU-ja zgledovalo po evropskih razmislekih. V tem smislu je Evropska unija naredila dober korak.
Emeršič: Težava so številne nejasnosti
Akt o umetni inteligenci predstavlja napreden regulativni okvir, ki daje velik poudarek na zagotavljanju varnosti, transparentnosti in spoštovanju temeljnih človekovih pravic v sistemih umetne inteligence. Kljub številnim pozitivnim lastnostim pa akt vzbuja resne pomisleke, zlasti če primerjamo regulativna okolja Združenih držav Amerike in Kitajske, kjer se raziskave in razvoj umetne inteligence spoprijemajo z manjšimi, če ne povsem odsotnimi omejitvami.
Ključna potencialna težava, ki jo EU akt o umetni inteligenci predstavlja z vidika raziskovalcev in razvijalcev, je omejevanje dostopa do podatkov za razvoj sistemov umetne inteligence. Čeprav akt pooblašča nacionalne organe, da organizacijam zagotovijo testna okolja in podatke, ki posnemajo dejanske razmere in tako omogočajo razvoj sistemov umetne inteligence, pa ti umetno pripravljeni podatki pogosto ne ustrezajo kakovosti in obsegu resničnih podatkov. Ker je pridobivanje ustreznih podatkov ključnega pomena za razvoj učinkovitih sistemov umetne inteligence, lahko omejitve pri dostopu do podatkov v EU-ju povzročijo, da se organizacije zunaj EU-ja znajdejo v izraziti prednosti zaradi manjših omejitev pri uporabi podatkov pri svojih raziskavah.
Poleg tega rešitve, ki ne ustrezajo novemu aktu in jih zato ni mogoče distribuirati znotraj EU-ja, še vedno nemoteno napredujejo in se razvijajo v državah z manj regulativnimi ovirami, kot sta na primer Kitajska in ZDA. To daje tem organizacijam in njihovim državam izrazito konkurenčno prednost. Poleg tega bi se posamezni deli teh sistemov lahko v prihodnosti brez težav integrirali v različne izdelke, ne da bi imel EU vpogled v te procese ali kakršne koli vzvode za njihov nadzor. Dodatno bi to lahko privedlo do situacije, v kateri bi se sčasoma centri za raziskovanje in razvoj umetne inteligence in skupaj z njimi povezane organizacije vse bolj koncentrirali zunaj Evropske unije.
Dodatna potencialna težava akta je dvoumnost definicij in izrazov. Kategorizacija sistemov umetne inteligence na take z visokim tveganjem in t. i. nesprejemljivim tveganjem ni vedno jasna oz. iz raziskovalnega stališča niti ne more vedno biti. To lahko povzroči negotovosti glede tega, kateri predpisi veljajo za katere tehnologije. Določeni sistemi lahko padejo pod več različnih definicij oz. obratno, kjer lahko posamezni deli nekega sistema postanejo nesprejemljivi. Še več, področje umetne inteligence se razvija izredno hitro, čemur predpisi težko sledijo. Posledično s tem državljane izpostavljajo nepredvidenim tveganjem, hkrati pa se nepotrebno omejujejo evropske raziskovalne in razvojne skupine.
Medtem ko strogi predpisi v EU-ju nudijo državljanom zaščito pred neetičnim nadzorom in uporabo umetne inteligence, je učinkovitost takšne zaščite relativno omejena, če sistemi umetne inteligence, razviti pod manj strogo regulacijo drugod, še vedno vplivajo na državljane EU-ja ali celo določajo svetovne standarde.
Živimo v tesno povezanem svetu. Raziskovanje in razvoj ključne tehnologije prihodnosti se bo verjetno odvijalo nemoteno še naprej, lahko da le izključno zunaj EU-ja.
Komentarji so trenutno privzeto izklopljeni. V nastavitvah si jih lahko omogočite. Za prikaz možnosti nastavitev kliknite na ikono vašega profila v zgornjem desnem kotu zaslona.
Prikaži komentarje