Arutelud tehisintellekti tundlikkuse üle pole midagi uut, kuid uudised Google'i tehisintellekti LaMDA kohta on leegid õhutanud. Pärast seda, kui insener väitis, et bot oli teadvusel ja tal oli isegi hing, kerkisid taas esile mõned tuttavad küsimused.

Kas tehisintellekt, nagu LaMDA, võib tegelikult olla tundlik või eneseteadlik, ja kui jah, siis kuidas seda öelda? Kas see loeb?

Mis on LaMDA?

LaMDA, lühend sõnadest Language Model for Dialogue Applications, ilmus esmakordselt 2021. aastal Google'i arendajate konverentsil. Täiustatud AI-süsteem peaks aitama luua teisi väiksemaid vestlusroboteid. Kui Google seda esimest korda tutvustas, teatas ta plaanist integreerida see kõigesse, aidates sellistel teenustel nagu Google Assistant ja Search tunda end inimlikumana või vähemalt loomulikuna.

Kui Google'i insener Blake Lemoine rääkis LaMDA-ga, et näha, kas see kasutab vihakõnet, jäi talle teistsugune mulje. Lemoine väitis, et LaMDA oli tundlik ja kui ta ei teaks, et see on bot, arvaks ta, et see on kaheksa-aastane laps.

Pärast vestlust LaMDA-ga püüdis Lemoine tõestada, et see oli teadlik, ja kaitsta oma seaduslikke õigusi. Vastuseks andis Google Lemoine'i konfidentsiaalsuslepingute rikkumise tõttu tasulisele halduspuhkusele.

Kas LaMDA on tegelikult tundlik?

Niisiis, kas LaMDA on tegelikult tundlik? Enamik eksperte, kes on seda küsimust kaalunud, on skeptilised. LaMDA on kõrgelt arenenud tehisintellekti vestlusplatvorm, mis analüüsib triljoneid Internetist pärit sõnu, nii et see suudab tunduda tõelise inimesena.

See pole esimene kord, kui üks Google'i tehisintellektidest on petnud inimesi arvama, et see on inimene. 2018. aastal demonstreeris Google oma Duplex AI-d, helistades restorani, et laud reserveerida. Ühelgi hetkel ei paistnud töötaja teises otsas kahtlevat, et nad räägivad inimesega.

Tundlikkust on keeruline määratleda, kuigi enamik inimesi kahtlen, kas AI on selleni jõudnud veel. Siiski ei pruugi oluline küsimus olla selles, kas LaMDA on tegelikult tundlik, vaid mis vahet sellel on, kui see võib inimesi lollitada.

LaMDA võimalikud õiguslikud tagajärjed

LaMDA olukord tekitab palju õiguslikke ja eetilisi küsimusi. Esiteks võivad mõned inimesed kahtluse alla seada, kas Google'il oli õigus Lemoine'i puhkusele jättes, sest ta sellest rääkis.

Vastavalt New Yorgi tööseaduse paragrahvile 740 kaitsevad vilepuhujate kaitse töötajaid selliste eest. tagajärjed, kui nad usuvad, et nende tööandja tegevus rikub seadust või kujutab endast olulist ohtu avalikkusele ohutus. LaMDA oletatav mõistus ei vasta sellele juriidilisele nõudele, kuid kas see peaks vastama?

AI õiguste andmine on keeruline teema. Kuigi AI saab luua asju ja näida inimesena, võite sattuda keerulistesse olukordadesse, kui neil masinatel on õiguskaitse. Seaduslikud õigused on seotud autasude ja karistustega, mis ei mõjuta tehisintellekti, muutes õigluse keerulisemaks.

Kui isejuhtiv auto põrutab jalakäijale, kas tehisintellekt on süüdi, kui seadus käsitleb seda kui inimest? Ja kui jah, siis ei anna see ohvrile õiglust, sest te ei saa tehisintellekti tehniliselt karistada samamoodi nagu inimest.

Teine küsimus, mis LaMDA ja sarnaste AI vestlusrobotite puhul tekib, on nende turvalisus. Kui need robotid tunduvad veenvalt tõelised, võivad inimesed neid rohkem usaldada ja olla valmis neid pakkuma tundlikumat teavet. See avab ukse suurele hulgale privaatsus- ja turvaprobleemidele, kui see tehnoloogia satub valedesse kätesse.

AI tutvustab keerulisi eetilisi küsimusi

Tehisintellektid nagu LaMDA muutuvad üha keerukamaks ja elutruumaks. Selle suundumuse kasvades peaksid ettevõtted ja seadusandjad uuesti hindama, kuidas nad tehisintellekti kohtlevad ja kuidas need otsused võivad mõjutada õiglust ja turvalisust.

Praegusel kujul ei pruugi Google'i LaMDA AI olla tundlik, kuid see on piisavalt hea, et meelitada inimesi nii arvama, mis peaks tekitama häireid.