Microsofti Tay AI muutus paljutõotavast tehisintellektist totaalseks katastroofiks vähem kui päevaga. Siin on see, mida ettevõte õppis.
AI-vestlusbotid, nagu ChatGPT, muutuvad üha enam kaasaegse tehnoloogia lahutamatuks osaks, kuid paljudele teadmata ei olnud generatiivne AI alati nii hea kui praegu. Tegelikult näitas Microsofti loodud vestlusbot Tay 2016. aastal meile, kui kiiresti AI võib tagasilööki anda.
Uurime, mis oli Microsofti AI-vestlusbot Tay, miks see ebaõnnestus, selle vaidlusi ja õppetunde, mille ettevõte pärast katastroofilist ebaõnnestumist õppis.
Mis oli Microsofti Tay?
Tay oli Microsofti välja töötatud AI vestlusbot, mis tehti Twitteri kaudu kättesaadavaks 23. märtsil 2016. Vestlusbot töötati välja 18-24-aastastele USA-s "meelelahutuse eesmärgil" ning "vestluse mõistmise katsetamiseks ja uurimiseks".
Tay ei olnud mõeldud olema keerukas vestlusrobot nagu ChatGPT, vaid sõbralik tehisintellekti robot Twitteris, kellega saaksite vestelda – umbes nagu Minu AI Snapchatis, vaid suhtlemiseks.
Miks Microsoft Tay välja lülitas?
Microsoft eemaldas Tay 24 tunni jooksul pärast avaldamist – mõjuval põhjusel. Peaaegu kohe pärast Tay tutvustamist hakkasid Twitteri kasutajad teenust kuritarvitama, toites vestlusroti valeinformatsiooni, õpetades sellele halvustavaid termineid ja ajendades seda olema üha solvavam, et näha, kui kaugele see on läheks.
Ja kaugele see tõesti läks. Mõne tunni jooksul pärast käivitamist säutsus Tay kõige solvavamaid rassilisi solvanguid, levitas vihakõnet, propageeris natsismi ja inspireeris isegi "rassisõda". Jah! On selge, et Microsoftil oli kohutav aeg ja ta poleks saanud lasta teenusel jätkata.
Sees postitus ametlikus Microsofti ajaveebis, Microsofti ettevõtte asepresident Peter Lee kordas sama:
Meil on sügavalt kahju Tay tahtmatute solvavate ja solvavate säutsude pärast, mis ei kajasta seda, kes me oleme või mida me esindame, ega ka seda, kuidas me Tay kujundasime. Tay on nüüd võrguühenduseta ja püüame Tay tagasi tuua ainult siis, kui oleme kindlad, et suudame paremini ennetada pahatahtlikke kavatsusi, mis on vastuolus meie põhimõtete ja väärtustega.
Tay kokkupõrge on vaid üks paljudest tehisintellekti ohud ja tugev meeldetuletus, miks selle väljatöötamine peaks toimuma ülima ettevaatusega ja järelevalvega.
6 õppetundi, mille Microsoft pärast Tayt õppis
Tay oli täielik katastroof, kuid see andis ka Microsoftile tehisintellekti tööriistade arendamisel mõned olulised õppetunnid. Ja mida see väärt on, on ilmselt parem, et Microsoft sai oma õppetunnid pigem varem kui hiljem selgeks, mis võimaldas tal saada edu Google'ist ja arendada uut AI-toega Bingi brauser.
Siin on mõned neist õppetundidest:
1. Internet on täis trolle
Internet on trolle täis ja see pole just uudis, eks? Ilmselt oli see nii Microsofti jaoks juba 2016. aastal. Me ei väida, et 18–24-aastastele suunatud „meelelahutuslikul eesmärgil” mõeldud vestlusroboti ehitamine oleks kuidagi seotud teenuse kuritarvitamise määraga. Siiski ei olnud see kindlasti ka kõige targem idee.
Inimesed tahavad loomulikult katsetada uute tehnoloogiate piire ja lõpuks on arendaja ülesanne nende pahatahtlike rünnakute eest aru anda. Teatud mõttes toimivad sisemised trollid kvaliteedi tagamise tagasisidemehhanismina, kuid see ei tähenda, et vestlusrobot tuleks lahti lasta, ilma et enne käivitamist oleks rakendatud korralikke kaitsemeetmeid.
2. AI ei suuda intuitiivselt vahet teha heal ja halval
Hea ja kurja mõiste on midagi, mida tehisintellekt intuitiivselt ei mõista. See peab olema programmeeritud simuleerima teadmisi selle kohta, mis on õige ja vale, mis on moraalne ja ebamoraalne ning mis on normaalne ja omapärane.
Need omadused on inimestele kui sotsiaalsetele olenditele enam-vähem loomulikud, kuid tehisintellekt ei saa kujundada iseseisvaid hinnanguid, tunda empaatiat ega kogeda valu. Sellepärast, kui Twitteri kasutajad Tayle igasugust propagandat söötsid, järgnes bot lihtsalt järgi – teadmata kogutava teabe eetikast.
3. Ärge treenige tehisintellekti mudeleid inimeste vestlusi kasutades
Tay loodi asjakohaste avalike andmete kaevandamisel ning tehisintellekti ja toimetuse abil, mille on välja töötanud töötajad, sealhulgas improvisatsioonilised koomikud." AI-mudeli koolitamine, kasutades inimeste vestlusi Internetis, on kohutav idee.
Ja enne, kui süüdistate seda Twitteris, pidage meeles, et tulemus oleks tõenäoliselt olnud sama, olenemata platvormist. Miks? Sest inimesed ei ole Internetis lihtsalt oma parimad. Nad muutuvad emotsionaalseks, kasutavad slängisõnu ja kasutavad oma anonüümsust, et olla alatu.
4. AI-l puudub terve mõistus ja see ei taju sarkasmi
AI näib tänapäeval intuitiivsem (või täpsemalt öeldes on intuitsiooni paremini simuleeriv), kuid siiski on mõnikord hädas sarkasmi ja kõnekujundite äratundmisega. See kehtis veelgi enam 2016. aastal. See, mis on inimesele ilmne, pole AI jaoks ilmne; teisisõnu, sellel puudub terve mõistus.
Tehisintellektid, nagu Tay, ei mõista, miks inimesed on sellised, nagu me oleme, käituvad nii, nagu me käitume, ja iga inimese ekstsentrilisust. See võib üllataval määral käituda ja kõlada inimlikuna, kuid hea programmeerimine võib minna ainult nii kaugele.
5. AI peab olema programmeeritud kehtetuid taotlusi tagasi lükkama
AI on väga muljetavaldav ja see tuleb programmeerida nii, et see lükkab tagasi kahju tekitavad taotlused. Isegi täna, pärast kõiki meie edusamme loomuliku keele töötlemisel, leiavad inimesed endiselt keelelisi lünki muuta AI-vestlusbotid nagu ChatGPT "hallutsineerima" ja anda tulemusi, mida kavatseti piirata.
Asi on selles, et tehisintellekt on täiesti kuulekas, mis on võib-olla selle suurim tugevus ja nõrkus. Kõik, mida te ei soovi, et vestlusrobot teeks, tuleb sellesse käsitsi programmeerida.
6. AI-vestlusboteid ei tohiks kunagi jätta järelevalveta
Kuni tehisintellekt ei saa end ise reguleerida, ei saa seda järelevalveta jätta. Tänapäeva tehisintellektist võib mõelda nagu imelapsest; see on mõnes mõttes geniaalne, aga ikkagi laps. Kui jäetakse tähelepanuta, kasutavad inimesed selle nõrkusi – ja Tay oli selle suurepärane näide.
AI on tööriist, nagu Internet, kuid AI-ga seotud asjade tagasilöögi kiirus ja ulatus on palju suurem kui see, mida kogesime Interneti algusaegadel.
AI vajab pidevat järelevalvet ja reguleerimist
Tay ei ole ainus petturiteks läinud vestlusrobot – sarnaseid juhtumeid on olnud palju teisigi. Kuid see, mis paistis selle silma, on selle tohutu kiirus ja asjaolu, et selle tegi tehnoloogiahiiglane, nagu Microsoft.
Sellised näited näitavad, kui ettevaatlikud peame olema tehisintellekti tööriistade väljatöötamisel, eriti kui need on mõeldud tavainimestele.