V času pospešene digitalizacije in uporabe umetno inteligenčnih sistemov se vse bolj postavlja vprašanje učinkovitega zagotavljanja varstva človekovih pravic pri razvoju in uporabi umetne inteligence. Pred prihajajočo konferenco 10. Dnevi prava zasebnosti in varovanja informacij smo se zato o dveh temeljnih aktih s področja umetne inteligence pogovarjali z dr. Marušo T. Veber, docentko in raziskovalko na Pravni fakulteti Univerze v Ljubljani.
Bomo sposobni uporabljati prednosti umetne inteligence brez škodljivih posledic za človekove pravice? Smo se iz preteklih izkušenj kaj naučili?
Čeprav tehnologije, ki delujejo na podlagi umetne inteligence, obstajajo že nekaj časa (v pametnih telefonih, spletnem iskanju, navigacijskih sistemih), pa so našo pozornost zares pridobile z razvojem velikih jezikovnih modelov. Če smo se na začetku še spraševali, ali ta novejša orodja umetne inteligence želimo uporabljati, pa je zdaj vprašanje, kako zagotoviti njihovo uporabo na način, da bo skladna s človekovimi pravicami in imela čim manj škodljivih posledic za družbo in posameznika. Nedvomno je potencial teh sistemov izjemen, vendar pa način delovanja umetne inteligence terja določeno mero previdnosti. V tehnološkem pogledu se zdi, da je umetna inteligenca namreč drugačna od preteklih izkušenj, saj vnaša določeno mero nepreglednosti, kar povečuje tveganje za potencialne negativne učinke na človekove pravice, pravno urejanje tega področja pa je zahtevno. Negativnih posledic seveda ni mogoče popolnoma izničiti, je pa pomembno, da uvedemo ustrezne varovalke, ki bi škodljive posledice preprečevale in zagotavljale varno uporabo umetne inteligence.
Kateri so glavni izzivi pri zagotavljanju varstva človekovih pravic pri razvoju in uporabi umetne inteligence?
Ključni izziv je zlasti, kako zagotoviti skladnost sistemov umetne inteligence, ki jih razvijajo in uporabljajo tako zasebni subjekti kot tudi države, z obstoječimi standardi človekovih pravic kot izhajajo na primer iz Mednarodnega pakta o državljanskih in političnih pravicah, Evropske konvencije o človekovih pravicah in Listine Evropske unije o temeljnih pravicah. Ti obstoječi pravni akti o človekovih pravicah ne vsebujejo posebnih določb, ki bi se nanašale na nove tehnologije, zato je ključno, da se zaradi specifik delovanja umetne inteligence sprejmejo ustrezne varovalke, ki bodo skladno s temi standardi zagotavljale varno uporabo sistemov umetne inteligence. Zlasti so zaradi nepreglednosti algoritmov ter velike količine podatkov, ki jih ti sistemi uporabljajo, sistemi umetne inteligence tvegani z vidika varovanja zasebnosti in osebnih podatkov ter diskriminacije, seveda pa se tu pojavlja tudi vprašanje škode, ki jo ti sistemi lahko povzročijo, če na primer pride do okvare ali »napačne« odločitve. Obstoječi pravni okvir tu nudi določene odgovore, vendar pa ne vedno v zadostni meri. Ker se sistemi umetne inteligence napajajo z vhodnimi podatki, ki kot taki pogosto vsebujejo neenakosti in nepravičnosti, lahko pride do poglabljanja in diskriminacije marginaliziranih skupin na primer na podlagi starosti, spola ali etnične pripadnosti. Gre za t.i. pojem bias oz. pristranskost, na katerega opozarjajo številni strokovnjaki in ga je težko preprečevati z obstoječimi pravili varstva pred diskriminacijo.
Področje naj bi v Evropi urejala dva temeljna akta. V čem sta si različna njuna pristopa?
V zadnjem času je zaznati porast različnih mednarodnih, regionalnih, pravnih, etičnih in drugih dokumentov mehkega prava, ki urejajo uporabo umetne inteligence. Med pomembnejšimi v našem prostoru sta zagotovo Akt o umetni inteligenci, ki je nastal v okviru Evropske unije, ter Okvirna konvencija o umetni inteligenci, človekovih pravicah, demokraciji in pravni državi, ki je bila pripravljena v okviru Sveta Evrope. Oba sta v zaključni fazi sprejema.
Pri Aktu o umetni inteligenci gre za pravni akt Evropske unije, katerega namen je sprejem pravil, ki urejajo razvoj in uporabo umetne inteligence na enotnem trgu Evropske unije ter spodbujanje naložb in inovacij na tem področju v Evropi. Trenutna različica Akta o umetni inteligenci je v določeni meri uspešno naslovila tudi vprašanje varovanja človekovih pravic, preko t. i. »na tveganju« utemeljenega pristopa. To pomeni, da Akt kategorizira sisteme umetne inteligence glede na stopnjo tveganja, ki bi ga lahko imeli z vidika zdravja, varnosti, temeljnih pravic, okolja, demokracije ali pravne države: sistemi majhnega tveganja, sistemi omejenega tveganja, sistemi visokega tveganja in sistemi nesprejemljivega tveganja (npr. socialno ocenjevanje na podlagi družbenega vedenja ali osebnih značilnosti). Akt določa standarde in obveznosti, ki so strožji, čim večje je tveganje za posameznike ali za družbo kot celoto. Medtem ko so sistemi umetne inteligence, katerih stopnja tveganja velja za nesprejemljivo, popolnoma prepovedani, za tvegane sisteme veljajo določene zahteve glede ocene učinka na temeljne pravice, upravljanja podatkov, registracije in preglednosti. Vključene so tudi določene zahteve glede kvalitete podatkov ter človeškega nadzora. Vendar pa Akt o umetni inteligenci hkrati določa, da gre pri oceni tveganja za samoregulativno dejavnost, saj bodo ponudniki sami ocenili, v katero kategorijo se umešča njihov produkt. Poleg tega je bila v akt vnesena izjema nacionalne varnosti, na podlagi katere so zaščitni ukrepi iz Akta za sisteme umetne inteligence, ki bodo uporabljeni za namen nacionalne varnosti, zmanjšani. To bi lahko pomenilo, da bi se v izjemnih primerih lahko uporabljali tudi nekateri sporni sistemi umetne inteligence, kot je biometrična identifikacija na daljavo in uporaba tehnologij za prepoznavanje čustev. V kakšni meri so varovalke ustrezne se bo pokazalo v zlasti fazi implementacije Akta.
Na drugi strani pa imamo Okvirno konvencijo o umetni inteligenci, človekovih pravicah, demokraciji, in pravni državi, ki bo sicer sprejeta v okviru Sveta Evrope, vendar pa gre za mednarodnopravni okvir, h kateremu bodo pristopile tudi države onkraj članstva 46 držav članic Sveta Evrope. Pri pogajanjih so zato na primer sodelovale tudi Združene države Amerike, Kanada, Mehika, Japonska, Avstralija, Ekvador, Peru, Urugvaj in Argentina. Zaradi osredotočenosti na človekove pravice je bilo pričakovati, da bo konvencija zagotavljala višje oziroma podrobnejše standarde varstva človekovih pravic kot Akt o umetni inteligenci. Okvirna konvencija je bila zasnovana kot ambiciozen kodifikacijski projekt, ki bi zagotovil široko polje uporabe in bi torej zajemal tako aktivnosti javnega in zasebnega sektorja, vključno z omejitvami uporabe umetne inteligence v okviru kazenskega pregona, nacionalne varnosti in obrambe. V okviru pogajanj je bila predlagana tudi uvedba ocene tveganj in učinkov sistemov umetne inteligence. Vendar pa je v zadnji različici teksta zaradi pritiskov nekaterih držav in želje po čim širšem krogu držav pogodbenic te konvencije prišlo do relativizacije nekaterih določb. V svoji zadnji različici tako Okvirna konvencija sicer poudarja obveznost spoštovanja obstoječih mednarodnih in nacionalnih standardov varstva človekovih pravic, vendar iz področja uporabe izključuje zasebne akterje kot tudi področje nacionalne varnosti in obrambe. Poleg tega vsebuje tudi številne splošne opredelitve in priporočila ter državam dopušča določeno mero fleksibilnosti pri implementaciji in urejanju tega področja glede na njihovo nacionalno ureditev, na primer glede načinov zagotavljanja varnega razvoja sistemov umetne inteligence. Z namenom, da bi dosegli globalni učinek te pogodbe je bil torej sprejet kompromis, ki upošteva dejstvo, da imajo države različne nacionalne standarde, pri čemer je bil možen dogovor zgolj glede skupnih izhodišč. Čeprav gre za pomemben korak se torej zdi, da Svet Evrope ni bil povsem uspešen pri poenotenju globalnih standardov uporabe umetne inteligence, medtem ko gre pri Aktu o umetni inteligenci za podrobnejša pravila, ki določajo konkretne standarde urejanja in nadzora uporabe umetne inteligence v Evropi.
Gre za evropska akta, kakšen je njun globalni doseg?
Kot že omenjeno, gre pri Aktu o umetni inteligenci za pravni okvir uporabe umetne inteligence na območju Evropske unije, vendar pa je pričakovati, da bo imel ta akt pomembno vlogo pri morebitni nadaljnji globalni ureditvi ali za sprejem podobnih pravil v drugih regijah. To je bilo tudi vodilo pogajalcev, zato je bil pritisk za sprejem prvega tovrstnega pravnega okvira velik. Po drugi strani gre pri Okvirni konvenciji resnično za prvi zavezujoči globalni instrument na tem področju, h kateremu lahko pristopijo vse svetovne države in ne zgolj evropske države. Vendar pa je, kot že omenjeno, vsebinsko veliko bolj splošen in vsebuje manj konkretnih obveznosti za države, iz uporabe pa v veliki meri izključuje zasebne akterje.
Oba kodifikacijska procesa sta pokazala, da gre za izjemno kompleksno področje, katerega pravno urejanje je nujno, vendar zelo zahtevno. Za celovito obravnavo uporabe te hitro razvijajoče se tehnologije bodo gotovo potrebni dodatni zavezujoči in ne zavezujoči instrumenti, vključno z regulacijo v okviru posameznih sektorjev. Čeprav bi bil sprejem podrobnejših pravil na globalni ravni (npr. po zgledu Akta o umetni inteligenci) dobrodošel, pa, zlasti zaradi pomanjkanja interesa držav, ni pričakovati, da bo v kratkem času prišlo do sprejema takšne globalne pogodbe.