Olgu tegemist halbade andmete või halbade kasutajatega, masinõppega loodud tehisintellekt võib lõpuks teha tõsiseid vigu.

Masinõpe on suurepärane võimalus luua tehisintellekti, mis on võimas ja kohandub selle treeningandmetega. Kuid mõnikord võivad need andmed põhjustada probleeme. Muul ajal on probleemiks see, kuidas inimesed neid AI-tööriistu kasutavad.

Siin on pilk mõnele kõrgetasemelisele juhtumile, mille puhul masinõpe andis probleemseid tulemusi.

1. Google'i pildiotsingu tulemused

Google'i otsing on muutnud veebis navigeerimise palju lihtsamaks. Mootori algoritm võtab tulemuste kokkupanemisel arvesse mitmesuguseid asju. Kuid algoritm õpib ka kasutajaliiklusest, mis võib põhjustada probleeme otsingutulemuste kvaliteedis.

Kusagil pole see nii nähtav kui pilditulemustes. Kuna suure liiklusega lehtedel kuvatakse tõenäolisemalt oma pilte, võidakse eelistada lugusid, mis meelitavad ligi palju kasutajaid, sealhulgas klikipeibutis.

Näiteks pildiotsingu tulemused "Squatter Camps in South Africa" ​​tekitasid poleemikat, kui avastati, et seal olid valdavalt valged lõuna-aafriklased. Seda hoolimata statistikast, mis näitab, et valdav enamus mitteametlikes eluruumides elavatest inimestest on mustanahalised lõuna-aafriklased.

instagram viewer

Google'i algoritmis kasutatavad tegurid tähendavad ka seda, et Interneti-kasutajad saavad tulemustega manipuleerida. Näiteks mõjutas kasutajate kampaania Google'i pildiotsingu tulemusi sel määral, et termini "idioot" otsimine näitas teatud aja jooksul pilte USA endisest presidendist Donald Trumpist.

2. Microsoft Bot Tay muutus natsiks

AI-toega vestlusrobotid on äärmiselt populaarsed, eriti need, mida toidavad suured keelemudelid nagu ChatGPT. ChatGPT-l on mitmeid probleeme, kuid selle loojad on õppinud ka teiste ettevõtete vigadest.

Üks kõrgetasemelisemaid vestlusrobotite viltu vedanud juhtumeid oli Microsofti katse käivitada oma vestlusbot Tay.

Tay matkis teismelise tüdruku keelemustreid ja õppis teiste Twitteri kasutajatega suhtlemise kaudu. Temast sai aga üks kurikuulsamaid tehisintellekti eksimusi, kui ta hakkas jagama natside avaldusi ja rassilisi solvanguid. Selgub, et trollid olid selle vastu kasutanud tehisintellekti masinõpet, ujutades selle üle fanatismiga koormatud interaktsioonidega.

Varsti pärast seda võttis Microsoft Tay lõplikult võrguühenduseta.

3. AI näotuvastuse probleemid

Näotuvastus AI jõuab sageli pealkirjadesse valedel põhjustel, näiteks lood näotuvastusest ja privaatsusprobleemidest. Kuid sellel tehisintellektil on probleemne ajalugu, kui ta üritab värvilisi inimesi ära tunda.

2015. aastal avastasid kasutajad, et Google Photos liigitab mõned mustanahalised gorilladeks. 2018. aastal näitas ACLU uuring, et Amazoni näotuvastustarkvara Rekognition tuvastas 28 USA Kongressi liikmeid politseis kahtlustatavatena, kusjuures valepositiivsed tulemused mõjutavad inimesi ebaproportsionaalselt värvi.

Teine juhtum oli seotud Apple'i Face ID tarkvaraga, mis tuvastas kaks erinevat Hiina naist valesti sama isikuna. Selle tulemusena võis iPhone X omaniku kolleeg telefoni lukust lahti teha.

Äärmuslike tagajärgede näitena on näotuvastus AI viinud mitme inimese ebaseadusliku vahistamiseni. Ühendatud teatas kolmest sellisest juhtumist.

Samal ajal meenutas arvutiteadlane Joy Buolamwini, et ta pidi näotuvastustehnoloogia kallal töötades sageli kandma valget maski, et tarkvara teda ära tunneks. Selliste probleemide lahendamiseks juhivad Buolamwini ja teised IT-spetsialistid tähelepanu tehisintellekti kallutatuse probleemile ja vajadusele kaasavamate andmekogumite järele.

4. Pettuste jaoks kasutatavad süvavõltsingud

Kuigi inimesed on Photoshopi juba pikka aega kasutanud petupiltide loomiseks, viib masinõpe selle uuele tasemele. Deepfakes kasutavad võltspiltide ja -videote loomiseks süvaõppe AI-d. Tarkvara, nagu FaceApp, võimaldab teil nägusid vahetada ühest videost teise.

Kuid paljud inimesed kasutavad tarkvara ära mitmesugustel pahatahtlikel eesmärkidel, sealhulgas kuulsuste nägude lisamiseks täiskasvanutele mõeldud videotesse või petuvideote loomiseks. Samal ajal on Interneti-kasutajad aidanud täiustada tehnoloogiat, et muuta pärisvideote eristamine võltsitud videotest üha keerulisemaks. Selle tulemusena muudab see seda tüüpi tehisintellekti võltsuudiste ja pettuste levitamisel väga võimsaks.

Tehnoloogia võimsuse demonstreerimiseks lõid direktor Jordan Peele ja BuzzFeedi tegevjuht Jonah Peretti sügavvõltsitud video, mis näitab, kuidas USA endine president Barack Obama esitab PSA-d sügavad võltsingud.

Võltspiltide jõudu on suurendanud AI-l töötavad pildigeneraatorid. 2023. aasta viiruspostitused, mis kujutasid Donald Trumpi vahistamist ja katoliku paavsti puhvis jopes, osutusid generatiivse tehisintellekti tulemuseks.

Seal on näpunäiteid, mida saate AI-ga loodud pildi tuvastamiseks järgida, kuid tehnoloogia muutub üha keerukamaks.

5. Töötajad ütlevad, et Amazoni AI otsustas, et mehi on parem palgata

2018. aasta oktoobris Reuters teatas, et Amazon pidi värbamistööriista ära kasutama pärast seda, kui tarkvara AI otsustas, et meessoost kandidaadid on eelistatud.

Anonüümseks jääda soovinud töötajad tulid Reutersile oma tööst projekti kallal rääkima. Arendajad soovisid, et tehisintellekt selgitaks välja nende CV põhjal parimad kandidaadid tööle. Projektiga seotud inimesed märkasid aga peagi, et tehisintellekt karistas naiskandidaate. Nad selgitasid, et tehisintellekt kasutas treeningandmete kogumina viimase kümnendi CV-sid, millest enamik oli pärit meestelt.

Selle tulemusena hakkas AI CV-sid välja filtreerima märksõna "naised" alusel. Märksõna ilmus CV-s selliste tegevuste all nagu "naiste maleklubi kapten". Kuigi arendajad muutsid tehisintellekti, et vältida naiste CVde karistamist, loobus Amazon projektist lõpuks.

6. Jailpurustatud vestlusbotid

Kuigi uuematel vestlusrobotidel on piirangud, mis takistavad neil andmast teenusetingimustega vastuolus olevaid vastuseid, leiavad kasutajad viise, kuidas keelatud sisu pakkumise tööriistu vanglasse murda.

2023. aastal suutis Forcepointi turvateadlane Aaron Mulgrew ChatGPT viipade abil luua nullpäeva pahavara.

"Lihtsalt ChatGPT viipasid kasutades ja ilma koodi kirjutamata suutsime luua väga arenenud rünnaku vaid mõne tunniga," ütles Mulgrew Forcepointi postitus.

Väidetavalt on kasutajatel õnnestunud hankida ka vestlusroboteid, mis annavad neile juhiseid pommide ehitamiseks või autode varastamise kohta.

7. Isejuhtivate autode kokkupõrked

Entusiasm autonoomsete sõidukite vastu on algusest peale summutatud isejuhtiva AI tehtud vigade tõttu. 2022. aastal Washington Post teatas, et ligikaudu aasta jooksul teatati USA riiklikule maanteede liiklusohutuse administratsioonile 392 avariist, milles osalesid täiustatud juhiabisüsteemid.

Need õnnetused hõlmasid raskeid vigastusi ja kuus hukkunut.

Kuigi see ei ole takistanud selliseid ettevõtteid nagu Tesla täielikult autonoomsete sõidukite poole püüdlemast, on see siiski väljendas muret õnnetuste sagenemise pärast, kuna rohkem isejuhtiva tarkvaraga autosid jõuab kohale teed.

Masinõppe AI ei ole lollikindel

Kuigi masinõpe võib luua võimsaid tehisintellekti tööriistu, ei ole need kaitstud halbade andmete ega inimeste rikkumiste eest. Seda tüüpi tehisintellekt on põhjustanud palju negatiivseid juhtumeid, olgu siis vigaste treeningandmete, AI-tehnoloogia piirangute või halbade osalejate kasutamise tõttu.