(intervju) UI v kurikulum in pomembno poglavje pristranskosti

Pred prihajajočo konferenco Privacy days, ki bo 18. in 19. aprila v Termah Ptuj, smo se pogovarjali z dr. Matejem Kovačičem in dr. Tanjo Zdolšek Draksler, raziskovalcema in projektnima vodjema v Mednarodnem raziskovalnem centru za umetno inteligenco Inštituta Jožef Štefan, ter dr. Alenko Guček, raziskovalko in projektno vodjo na Odseku za umetno inteligenco Institut Jožef Stefan. Na konferenci bodo predstavili pristranskost v umetni inteligenci in njen vpliv na človekove pravice.

Umetna inteligenca naj bi pomenila eno od rešitev za bolj trajnostno prihodnost, vanjo že številna podjetja polagajo upe za upravljanje in optimizacijo kritičnih sistemov … Prehitro?

Umetna inteligenca (UI) vsekakor lahko pomaga pri upravljanju in optimizaciji poslovnih in industrijskih procesov, kot lahko vidimo v praksi. Težava pa je, da imajo podjetja in posamezniki glede tega včasih nerealna pričakovanja, pri uvajanju rešitev pa pogosto premalo časa namenijo testiranju in analizi, kakšne so lahko dolgoročne posledice uvajanja teh rešitev v njihovo okolje. Rešitve so tako lahko včasih enostranske in problemov ne rešujejo dovolj celostno, velikokrat pa se pozabi tudi na problem pristanskosti v UI, saj smo ljudje pač pristranska bitja in je to sicer pričakovano, ampak se te pristranskosti moramo zavedati, da lahko razvijemo še boljše in bolj vključujoče aplikacije.

Kako v umetni inteligenci prihaja do pristranskosti? Verjetno je bolj vidna na primerih uporabe generativne umetne inteligence, v manj kritičnih kontekstih; kaj pa v industrijski umetni inteligenci?

Do pristranskosti lahko pride na praktično vseh stopnjah razvoja in uporabe umetne inteligence – v grobem pa lahko rečemo, da moramo biti zavedni do pristranskosti v podatkih in v pristranskosti v algoritmih. Če pogledamo podrobneje, se torej pristranskost pojavi pri zbiranju in predobdelavi podatkov, pri izbiri vhodnih parametrov za model, treningu modela ter končnem vrednotenju in uvajanju sistema umetne inteligence v prakso. Težava je v tem, da se lahko celo manjša začetna pristranskost v UI med procesom strojnega učenja poveča, kar na koncu zastrupi celoten sistem in privede do pristranske končne rešitve. Res je, da v generativni umetni inteligenci zlahka opazimo, da je prišlo do pristranskosti. Do pristranskosti pa lahko prihaja povsod, ne glede na domeno, seveda tudi v industrijskih rešitvah. In žal poznamo kar nekaj primerov, ko so pristranski sistemi umetne inteligence zelo negativno vplivali na življenje ljudi in tudi na poslovanje podjetij.

Ali je mogoče zagotoviti, da do pristranskosti v umetni inteligenci ne prihaja? Kako?

Popolnoma pristranskosti ni mogoče odpraviti, jo je pa mogoče precej zmanjšati. Za zmanjševanje pristranskosti obstajajo različne metode in strategije, ki se osredotočajo na različne faze razvoja rešitev UI. Institut Jožef Stefan (z Mednarodnim raziskovalnim centrom za umetno inteligenco – IRCAI) je partner na Evropskem projektu AI4GOV “Trusted AI for Transparent Public Governance fostering Democratic Values” (“Zaupanja vredna umetna inteligenca za pregledno javno upravo, ki spodbuja demokratične vrednote”), kjer se ukvarjamo ravno z vprašanjem pristranskosti v UI in razvijamo orodja, ki bodo razvijalcem, raziskovalcem in uporabnikom najprej pomagala razumeti problematiko pristranskosti v UI, v naslednji fazi pa jim bodo orodja na voljo za uporabo pri obvladovanju pristranskosti v UI.

Kakšna je ta pristranskost (in njene posledice) v primerjavi s človeško inteligenco? (in preprečevanjem njene pristranskosti)

Poznamo številne primere pristranskosti UI v realnih okoljih. Znani so primeri pristranskosti pri zaposlovanju, dodeljevanju socialne pomoči in otroških dodatkov, identifikaciji osumljencev s pomočjo prepoznave obrazov pa tudi na področju medicine itd. Posledice so bile v nekaterih primerih precej hude – policija je aretirala napačne osebe, posameznikom z napačno ocenjenim tveganjem so zavrnili pogojni izpust, posamezniki niso pravočasno prejeli nujne medicinske pomoči, saj je sistem UI njihov primer napačno ocenil kot manj urgenten itd.

V enem izmed primerov, ki se je zgodil na Nizozemskem, pa je UI prejemnike otroških dodatkov napačno označila za goljufe, davčna uprava pa je nato od njih terjala vračilo sredstev. Posledično je bilo na deset tisoče družin zaradi previsokih dolgov do davčne uprave pahnjenih v revščino, več kot tisoč otrok pa je bilo poslanih v rejništvo. Vsi ti primeri kažejo na to, da uvajanje rešitev UI v prakso terja veliko previdnosti in prinaša veliko odgovornost. Primeri, ki smo jih analizirali, so sicer večinoma iz ZDA, kjer je tehnološki razvoj hitrejši pa tudi manj reguliran. Nujno pa je, da se iz teh primerov vsi nekaj naučimo za naprej. Pristranskost v UI je nekaj, kar moramo ozavestiti vsi, ne samo razvijalci in raziskovalci UI, ampak tudi vsi  uporabniki UI, kar je dandanes (skoraj) vsak posameznik. Prišli smo do točke, ko (skoraj) vsak posameznik že pozna UI, čeprav velikokrat v zelo okrnjenem smislu ali samo po imenu. Zdaj ima veliko vlogo formalno in neformalno izobraževanje, ki bi moralo vključiti osnove o UI v kurikulum in izobraziti javnost in stroko. Pomembno poglavje pa mora biti namenjeno tematiki pristranskosti v UI. V projektu AI4GOV med drugim razvijamo neformalna izobraževanja na temo pristranskosti v UI v obliki MOOCs (slovensko: množični odprti spletni tečaji /ang. Massive Open Online Courses). Prvi MOOC bo prosto dostopen v maju 2024 in je primeren za začetnike. Več informacij o projektu je na voljo na spletni strani projekta: https://ai4gov-project.eu/.

Deli:

Povezana vsebina

Zenel-Batagelj
KONFERENCE

Prijavite se na novice

Prijavite se in ne zamudite dogodka in vsakodnevnih novic