Generatiivne AI on suurepärane, kuid see esitab oma teabe alati absoluutse autoriteediga. Mis on suurepärane, kui just ei hallutsineeri tõde.
Tehisintellekti (AI) hallutsinatsioonid kõlavad segadusse. Tõenäoliselt mõtlete: "Kas hallutsinatsioonid pole inimnähtus?" Noh, jah, see oli varem ainult inimene kuni AI hakkas näitama inimlikke omadusi, nagu näotuvastus, iseõppimine ja kõne äratundmine.
Kahjuks omandas AI mõned negatiivsed omadused, sealhulgas hallutsinatsioonid. Niisiis, kas tehisintellekti hallutsinatsioon sarnaneb inimestel kogetavate hallutsinatsioonidega?
Mis on AI hallutsinatsioon?
Tehisintellekti hallutsinatsioonid tekivad siis, kui tehisintellekti mudel genereerib oodatust erinevaid väljundeid. Pange tähele, et mõned AI mudelid on koolitatud tahtlikult genereerima väljundeid, mis ei ole seotud ühegi reaalse sisendiga (andmetega).
Näiteks, parimad AI tekstist kunstiks generaatorid, nagu DALL-E 2, suudavad loovalt genereerida uudseid pilte, mida saame märgistada "hallutsinatsioonidena", kuna need ei põhine reaalsetel andmetel.
AI hallutsinatsioonid suurtes keeletöötlusmudelites
Mõelgem, kuidas näeksid tehisintellekti hallutsinatsioonid välja suures keeletöötlusmudelis nagu ChatGPT. ChatGPT hallutsinatsiooni tulemuseks oleks see, et bot esitab teile vale fakti koos mõne väitega, nii et te võtaksite selliseid fakte loomulikult tõena.
Lihtsamalt öeldes on need kunstlikult intelligentse vestlusroti väljamõeldud avaldused. Siin on näide:
Täiendava päringu peale näitas ChatGPT järgmist:
AI hallutsinatsioonid arvutinägemises
Vaatleme veel üht AI valdkonda, mis võib kogeda AI hallutsinatsioone: Arvutinägemine. Allolev viktoriin näitab 4x4 montaaži kahe olemiga, mis näevad välja väga sarnased. Pildid on segu BBQ-kartulikrõpsudest ja -lehtedest.
Väljakutse on valida kartulikrõpsud ilma montaaži lehte löömata. See pilt võib arvuti jaoks tunduda keeruline ja see ei pruugi eristada BBQ-kartulikrõpse ja lehti.
Siin on veel üks montaaž puudli ja seaniidiga kuklipiltidega. Tõenäoliselt ei suuda arvuti neid eristada, mistõttu pildid segatakse.
Miks tekivad AI hallutsinatsioonid?
Tehisintellekti hallutsinatsioonid võivad tekkida vastandlike näidete tõttu – sisendandmed, mis meelitavad tehisintellekti rakendusi neid valesti klassifitseerima. Näiteks AI rakenduste koolitamisel kasutavad arendajad andmeid (pilt, tekst või muud); kui andmeid muudetakse või moonutatakse, tõlgendab rakendus sisendit erinevalt, andes vale väljundi.
Seevastu inimene suudab andmeid moonutustest hoolimata siiski täpselt ära tunda ja tuvastada. Võime seda tähistada terve mõistusega – inimese atribuuti AI veel ei oma. Vaadake sellest videost, kuidas tehisintellekti lollitatakse vastuoluliste näidetega:
Seoses suurte keelepõhiste mudelitega nagu ChatGPT ja selle alternatiivid, võivad hallutsinatsioonid tekkida trafo ebatäpsest dekodeerimisest (masinõppe mudel).
AI-s on transformer sügava õppimise mudel, mis kasutab enesetähelepanu (semantilised seosed sõnade vahel lause), et luua tekst, mis on sarnane sellele, mida inimene kodeerija-dekooderi (sisend-väljund) abil kirjutaks järjestus.
Seega võivad trafod, pooljärelevalvega masinõppemudel, genereerida koolitusel (sisend) kasutatud suurest tekstiandmete korpusest uue teksti (väljundi). See teeb seda, ennustades eelmiste sõnade põhjal sarja järgmise sõna.
Mis puudutab hallutsinatsioone, siis kui keelemudelit õpetati ebapiisavate ja ebatäpsete andmete ja ressursside põhjal, siis eeldatakse, et väljund on väljamõeldud ja ebatäpne. Keelemudel võib luua loo või narratiivi ilma loogiliste vastuolude või ebaselgete seosteta.
Allolevas näites paluti ChatGPT-l anda sõnaga "mäss" sarnane sõna, mis algab tähega "b". Siin on tema vastus:
Edasisel uurimisel andis see jätkuvalt valesid vastuseid kõrge kindlustundega.
Miks ei saa ChatGPT nendele viipadele täpset vastust anda?
Võib juhtuda, et keelemudel ei ole võimeline käsitlema üsna keerulisi juhiseid, nagu need või teised ei saa viipa täpselt tõlgendada, jättes tähelepanuta viipa sarnase sõna andmisel konkreetsega tähestik.
Kuidas tuvastada AI hallutsinatsioone?
Nüüd on ilmne, et AI-rakendustel on potentsiaal hallutsineerida – genereerida vastuseid muul viisil oodatud väljundi (fakt või tõde) põhjal ilma pahatahtliku kavatsuseta. Ja tehisintellekti hallutsinatsioonide märkamine ja äratundmine on selliste rakenduste kasutajate ülesanne.
Siin on mõned viisid AI hallutsinatsioonide tuvastamiseks tavaliste tehisintellekti rakenduste kasutamisel:
1. Suured keeletöötlusmudelid
Kuigi see on haruldane, peaks suure töötlemismudeli (nt ChatGPT) toodetud sisus grammatikaviga kergitama ja panema teid kahtlustama hallutsinatsiooni. Samamoodi, kui tekstiga loodud sisu ei kõla loogiliselt, ei korreleeru antud kontekstiga ega ühti sisendandmetega, peaksite kahtlustama hallutsinatsiooni.
Inimliku hinnangu või terve mõistuse kasutamine võib aidata hallutsinatsioone tuvastada, kuna inimesed saavad hõlpsasti tuvastada, kui tekstil pole mõtet või see ei järgi tegelikkust.
2. Arvutinägemine
Tehisintellekti, masinõppe ja arvutiteaduse haruna annab arvutinägemine arvutitele võimaluse tuvastada ja töödelda pilte nagu inimsilmad. Kasutades konvolutsioonilised närvivõrgud, toetuvad nad treeningutel kasutatud uskumatule hulgale visuaalsetele andmetele.
Treeningul kasutatavate visuaalsete andmete mustritest kõrvalekaldumine põhjustab hallutsinatsioone. Näiteks kui arvutit ei treenitud tennisepalli kujutistega, võib see tuvastada selle rohelise oranžina. Või kui arvuti tuvastab inimese kuju kõrval oleva hobuse kui tõelise inimese kõrval, siis on tekkinud tehisintellekti hallutsinatsioon.
Nii et arvutinägemise hallutsinatsiooni tuvastamiseks võrrelge genereeritud väljundit sellega, mida [tavaline] inimene peaks nägema.
3. Isejuhtivad autod
Tänu tehisintellektile imbuvad isejuhtivad autod järk-järgult autoturule. Teerajajad nagu Tesla Autopilot ja Fordi BlueCruise on isejuhtivate autode arendamise eest seisnud. Saate vaadata kuidas ja mida Tesla Autopiloot näeb et saada natukene arusaamine sellest, kuidas tehisintellekt isejuhtivate autode jaoks toimib.
Kui teil on üks sellistest autodest, tahaksite teada, kas teie tehisintellektiga auto tekitab hallutsinatsioone. Üks märk on see, kui teie sõiduk näib kalduvat sõidu ajal tavapärasest käitumismustrist kõrvale. Näiteks kui sõiduk pidurdab või kaldub järsult ilma ühegi ilmse põhjuseta, võib teie tehisintellektiga sõiduk hallutsineerida.
AI-süsteemid võivad ka hallutsineerida
Inimesed ja AI mudelid kogevad hallutsinatsioone erinevalt. Tehisintellekti puhul viitavad hallutsinatsioonid ekslikele väljunditele, mis on reaalsusest miili kaugusel või millel pole antud viipa kontekstis mõtet. Näiteks võib AI vestlusbot anda grammatiliselt või loogiliselt vale vastuse või tuvastada objekti valesti müra või muude struktuuriliste tegurite tõttu.
Tehisintellekti hallutsinatsioonid ei tulene teadlikust või alateadlikust meelest, nagu te märkaksite inimestel. Pigem tuleneb see tehisintellektisüsteemi treenimisel ja programmeerimisel kasutatud andmete ebapiisavusest või ebapiisavusest.