Tehisintellekti võimalused laienevad hüppeliselt, tehisintellekti kasutatakse nüüd tööstuses alates reklaamist kuni meditsiiniliste uuringuteni. Tehisintellekti kasutamine tundlikumates valdkondades, nagu näotuvastustarkvara, algoritmide palkamine ja tervishoiuteenuste osutamine, on tekitanud arutelu kallutatuse ja õigluse üle.

Bias on inimpsühholoogia hästi uuritud tahk. Uuringud paljastavad regulaarselt meie teadvustamata eelistusi ja eelarvamusi ning nüüd näeme, et tehisintellekt peegeldab mõnda neist eelarvamustest oma algoritmides.

Niisiis, kuidas tehisintellekt kallutatakse? Ja miks see oluline on?

Kuidas tehisintellekt muutub kallutatuks?

Selles artiklis viitame lihtsuse huvides masinõpe ja sügavõpe algoritmid tehisintellekti algoritmide või süsteemidena.

Teadlased ja arendajad saavad tehisintellekti süsteemidesse eelarvamusi sisse viia kahel viisil.

Esiteks saab teadlaste kognitiivsed eelarvamused kogemata kinnistada masinõppe algoritmidesse. Kognitiivsed eelarvamused on inimese teadvustamata arusaamad, mis võivad mõjutada inimeste otsuste langetamist. See muutub oluliseks probleemiks, kui eelarvamused puudutavad inimesi või inimrühmi ja võivad neid inimesi kahjustada.

instagram viewer

Neid eelarvamusi saab sisse tuua otse, kuid kogemata, või võivad teadlased treenida tehisintellekti andmekogumites, mida ise kallutatus mõjutas. Näiteks näotuvastuse tehisintellekti võiks koolitada andmekogumi abil, mis sisaldab ainult heledanahalisi nägusid. Sellisel juhul toimib tehisintellekt heledanahaliste nägudega suheldes paremini kui tumedad. Seda tehisintellektide eelarvamuste vormi nimetatakse negatiivseks pärandiks.

Teiseks võivad eelarvamused tekkida siis, kui tehisintellekti koolitatakse mittetäielike andmekogumite osas. Näiteks kui tehisintellekti koolitatakse andmekogumis, mis hõlmab ainult arvutiteadlasi, ei esinda see kogu elanikkonda. See viib algoritmideni, mis ei suuda täpseid ennustusi pakkuda.

Näited reaalmaailma tehisintellektide eelarvamustest

Tehisintellekti kallutatusest on hiljuti ilmunud mitu hästi teada antud näidet illustreerivad ohtu lubades neil eelarvamustel sisse hiilida.

USA-põhine tervishoiu prioriteetide seadmine

2019. aastal töötati välja masinõppe algoritm, mis aitaks haiglatel ja kindlustusseltsidel kindlaks teha, millised patsiendid saaksid teatud tervishoiuprogrammidest kõige rohkem kasu. Umbes 200 miljoni inimese andmebaasi põhjal eelistas algoritm valgeid patsiente mustanahalistega.

Tehti kindlaks, et selle põhjuseks oli algoritmi vale eeldus tervishoiukulude varieerumise kohta mustanahaliste inimeste seas ning eelarvamusi vähendati lõpuks 80%.

COMPAS

Alternatiivsete sanktsioonide parandusrikkujate juhtimisprofiil ehk COMPAS oli tehisintellekti algoritm, mille eesmärk oli ennustada, kas konkreetsed inimesed solvuvad uuesti. Algoritm tekitas mustanahaliste õigusrikkujate jaoks topelt valepositiivseid tulemusi võrreldes valgetega. Sel juhul olid nii andmekogum kui ka mudel vigased, tuues sisse tugevat kallutatust.

Amazon

Palkamisalgoritm, mida Amazon kasutab taotlejate sobivuse kindlakstegemiseks, leiti 2015. aastal, et soosida mehi tugevalt naiste ees. Seda seetõttu, et andmekogum sisaldas peaaegu eranditult mehi ja nende elulookirjeldusi, kuna enamik Amazoni töötajaid olid mehed.

Kuidas AI kallutatust peatada

Tehisintellekt muudab juba praegu meie tööd igas tööstusharus. Tundlikke otsustusprotsesse kontrollivate kallutatud süsteemide omamine on vähem kui soovitav. Parimal juhul vähendab see tehisintellektipõhiste uuringute kvaliteeti. Halvimal juhul kahjustab see aktiivselt vähemusrühmi.

Tehisintellekti algoritmidest on näiteid juba kasutatud aidata inimeste otsustamisel vähendades inimese kognitiivsete eelarvamuste mõju. Masinõppe algoritmide koolituse tõttu võivad need olla täpsemad ja vähem kallutatud kui samal positsioonil olevad inimesed, mille tulemuseks on õiglasem otsuste langetamine.

Kuid nagu oleme näidanud, on ka vastupidi. Inimese tehisintellektiga keetmise ja võimendamise lubamise riskid võivad üles kaaluda mõned võimalikud eelised.

Päeva lõpuks, Tehisintellekt on sama hea kui andmed, mille abil seda treenitakse. Erapooletute algoritmide väljatöötamine nõuab andmekogumite põhjalikku ja põhjalikku eelanalüüsi, tagades, et andmed ei sisaldaks kaudseid eelarvamusi. See on raskem, kui see kõlab, sest nii paljud meie eelarvamused on teadvuseta ja neid on sageli raske tuvastada.

Tehisintellekti kallutatuse ennetamise väljakutsed

Tehisintellekti süsteemide väljatöötamisel tuleb hinnata iga sammu potentsiaali algoritmi kallutada. Üks eelarvamuste ärahoidmise peamisi tegureid on algoritmi õiglasuse, mitte kallutatuse tagamine.

Õigluse määratlemine

Õiglus on mõiste, mida on suhteliselt raske määratleda. Tegelikult on see arutelu, mis pole kunagi jõudnud üksmeelele. Asjade veelgi keerulisemaks muutmiseks tuleb tehisintellekti süsteemide väljatöötamisel õigluse mõiste määratleda matemaatiliselt.

Näiteks kas Amazoni palkamisalgoritmi osas näeks õiglus välja täiuslik 50/50 mees- ja naistöötajate jagunemine? Või erinev osakaal?

Funktsiooni määramine

Tehisintellekti arendamise esimene samm on täpselt kindlaks määrata, mida see saavutada soovib. Kui kasutada COMPAS-i näidet, ennustaks algoritm kurjategijate uuesti toime panemise tõenäosust. Seejärel tuleb algoritmi töö võimaldamiseks kindlaks määrata selged andmesisendid. Selleks võib olla vaja määratleda olulised muutujad, näiteks varasemate õiguserikkumiste arv või toimepandud süütegude liik.

Nende muutujate nõuetekohane määratlemine on keeruline, kuid oluline samm algoritmi õigluse tagamisel.

Andmekogumi loomine

Nagu me oleme kajastanud, on tehisintellektide eelarvamuste peamine põhjus puudulikud, mitteesindavad või kallutatud andmed. Nagu näotuvastuse tehisintellekti puhul, tuleb enne masinõppeprotsessi sisendandmeid põhjalikult kontrollida kallutatuse, sobivuse ja täielikkuse osas.

Atribuutide valimine

Algoritmides võib teatud atribuute arvestada või mitte. Atribuudid võivad hõlmata sugu, rass või haridust - põhimõtteliselt kõike, mis võib algoritmi ülesande jaoks oluline olla. Sõltuvalt valitud atribuutidest võib algoritmi prognoositavat täpsust ja kallutatust tõsiselt mõjutada. Probleem on selles, et algoritmi kallutatust on väga raske mõõta.

Tehisintellekti kallutatus pole siin, et jääda

Tehisintellekti kallutatus tekib siis, kui algoritmid teevad kallutatud sisendite tõttu kallutatud või ebatäpseid ennustusi. See tekib siis, kui algoritmi väljatöötamisel ja koolitamisel kajastatakse või võimendatakse kallutatud või mittetäielikke andmeid.

Hea uudis on see, et kui tehisintellekti rahastamine mitmekordistub, näeme tõenäoliselt uusi meetodeid tehisintellekti kallutatuse vähendamiseks ja isegi kõrvaldamiseks.

E-post
5 levinud müüti tehisintellekti kohta, mis ei vasta tõele

Paneme rekordi mõnele tehisintellekti ümbritsevale levinud valele.

Loe edasi

Seotud teemad
  • Tehnoloogia selgitatud
  • Tehisintellekt
  • Masinõpe
Autori kohta
Jake Harfield (6 artiklit on avaldatud)

Jake Harfield on Austraalias Perthis asuv vabakutseline kirjanik. Kui ta ei kirjuta, on ta tavaliselt põõsas ja kohalikke elusloodusi pildistamas. Saate teda külastada aadressil www.jakeharfield.com

Veel Jake Harfieldilt

Telli meie uudiskiri

Liituge meie uudiskirjaga, kus leiate tehnilisi näpunäiteid, ülevaateid, tasuta e-raamatuid ja eksklusiivseid pakkumisi!

Veel üks samm !!!

Palun kinnitage oma e-posti aadress e-kirjas, mille just teile saatsime.

.