Pravo ljudskih prava trebamo podučavati softverskim inženjerima


Umjetna inteligencija (AI) pronalazi svoj put u sve više aspekata našeg svakodnevnog života. On napaja pametne asistente na našim mobilnim telefonima i virtualnim kućnim asistentima. To je u algoritmima osmišljenim da poboljšaju našu dijagnostiku zdravlja. I koristi se u prediktivnim policijskim alatima koje policija koristi za borbu protiv kriminala.

Svaki od ovih primjera ukazuje na potencijalne probleme kada je riječ o zaštiti naših ljudskih prava. Prediktivni rad policije, ako nije ispravno osmišljen, može dovesti do diskriminacije na temelju rase, spola ili etničke pripadnosti.

Pravila o privatnosti i zaštiti podataka primjenjuju se na informacije vezane uz naše zdravlje. Slično tome, sustavno bilježenje i korištenje zemljopisnog položaja naših pametnih telefona može narušiti pravila o privatnosti i zaštiti podataka, a to bi moglo dovesti do zabrinutosti oko digitalnog nadzora od strane javnih vlasti.

Softverski inženjeri odgovorni su za dizajn algoritama koji stoje iza svih tih sustava. To su softverski inženjeri koji omogućuju pametnim asistentima da preciznije odgovore na naša pitanja, pomognu liječnicima da poboljšaju otkrivanje zdravstvenih rizika i omoguće policijskim službenicima da bolje identificiraju džepove povećanog rizika kriminala.

Softverski inženjeri obično se ne obučavaju o pravu ljudskih prava. Ipak, u svakoj liniji koda mogu tumačiti, primjenjivati ​​i čak kršiti ključne koncepte ljudskih prava – čak i bez poznavanja.

Zato je ključno da poučavamo pravo ljudskih prava softverskim inženjerima. Ranije ove godine, novi propisi EU-a prisilili su tvrtke da postanu otvoreniji prema potrošačima o informacijama koje posjeduju. Poznat kao GDPR, možda ga se sjećate kao predmet brojnih očajničkih poruka e-pošte koje vas mole da se odlučite ostati u raznim bazama podataka.

GDPR je povećao ograničenja o tome što organizacije mogu učiniti s vašim podacima, te proširuje prava pojedinaca na pristup i kontrolu podataka o njima. Ovi potezi prema privatnosti po dizajnu i zaštiti podataka po dizajnu velike su mogućnosti za integraciju pravnih okvira u tehnologiju. Međutim, sami po sebi nisu dovoljni.

Na primjer, bolje poznavanje zakona o ljudskim pravima može pomoći razvojnim inženjerima da shvate što je neizravna diskriminacija i zašto je to zabranjeno zakonom. (Svaka diskriminacija na temelju rase, boje kože, spola, jezika, vjere, političkog ili drugog mišljenja, nacionalnog ili socijalnog podrijetla, imovine, udruživanja s nacionalnom manjinom, rođenja ili drugog statusa zabranjena je člankom 14. Europske konvencije o ljudskim pravima .)

Izravna diskriminacija nastaje kada se prema pojedincu postupa manje povoljno na temelju jedne ili više tih zaštićenih osnova. Neizravna diskriminacija nastaje kada pravilo koje je neutralno po izgledu dovodi do manje povoljnog tretmana pojedinca (ili grupe pojedinaca).

Slično tome, razumijevanje zamršenosti prava na pošteno suđenje i njegove posljedice, pretpostavka nevinosti, može dovesti do bolje informiranih izbora u dizajnu algoritma.

To bi moglo pomoći da se izbjegne mogućnost da algoritmi pretpostavljaju da je broj policijskih uhićenja u multietničkom susjedstvu u korelaciji s brojem učinkovitih kaznenih osuda.

Što je još važnije, to bi im pomoglo da razviju nepristrane izbore skupova podataka koji nisu proksi za diskriminaciju na temelju etničke pripadnosti ili rase.

Na primjer, podaci o bogatstvu i prihodima u kombinaciji s podacima o zemljopisnom položaju mogu se koristiti kao zamjena za identifikaciju populacija iz određenog etničkog podrijetla ako su skloni koncentraciji u određenom susjedstvu.

Pravni kod

Isto tako, bolje razumijevanje načina na koji funkcioniraju pravni okviri za ljudska prava mogu potaknuti stvaranje rješenja za poboljšanje poštivanja zakonskih pravila.

Primjerice, postoji velika potreba za tehnološkim procesnim rješenjima, kojima bi pojedinci mogli lako osporiti odluke javne uprave koje se temelje na umjetnoj inteligenciji i koje izravno utječu na njih. To bi mogao biti slučaj s roditeljima koji bi bili pogrešno identificirani kao potencijalni zlostavljači djece pomoću neprozirnih algoritama koje koriste lokalne vlasti.