Eksperdid arvavad, et tehisintellekt lõpetab inimkonna sellisel kujul, nagu me seda teame, nii et mida tehakse selle vältimiseks?

Jällegi on rühm juhtivaid tehisintellekti teadlasi ja tehnoloogiaettevõtteid hoiatanud, et tehisintellekti praegune kiire areng võib inimkonnale katastroofi tuua.

Riskid hõlmavad tuumakonflikte, haigusi, desinformatsiooni ja kontrollimatut tehisintellekti, mis kõik kujutavad otsest ohtu inimeste ellujäämisele.

Kuid see ei jää kaotsi, et paljud neist hoiatustest pärinevad samadelt inimestelt, kes juhivad tehisintellekti arendamist ja suruvad oma ettevõtetes tehisintellekti tööriistu ja programme.

Miks hoiatavad tehnikaettevõtted ja tehisintellekti teadlased tehisintellekti riski eest?

30. mail 2023 avaldasid enam kui 350 tehisintellekti teadlast, arendajat ja insenerit allkirjastatud avalduse, milles hoiatasid tehisintellekti ohu eest inimkonnale.

Tehisintellektist väljasuremise ohu vähendamine peaks olema ülemaailmne prioriteet kõrvuti muude ühiskondlike riskidega, nagu pandeemiad ja tuumasõda.

instagram viewer

Allakirjutanud Safe.ai avaldus Nende hulka kuulusid Sam Altman OpenAI-st, Demis Hassabis Google DeepMindist ja Dario Amodei Anthropicist koos Turingiga Auhinna võitjad Geoffrey Hinton ja Yoshua Bengio (kuigi sama auhinna võitnud Yann LeCun jättis allakirjutamata). Nimekiri on peaaegu AI arendusmaailma kes on kes – inimesed, kes on tehisintellekti arendamisel teed juhtivad inimesed –, kuid siin nad kõik hoiatavad, et tehisintellekt võib inimkonnale katastroofi tuua.

See on lühike avaldus, mis teeb ohud selgeks, viidates konkreetselt kahele võtmevaldkonnale, mis võivad ohustada meie tuntud maailma: tuumasõda ja ülemaailmsed terviseprobleemid. Kuigi tuumakonflikti oht on murettekitav, on pandeemia oht enamiku jaoks käegakatsutavam.

Kuid see ei ole ainult ülemaailmne pandeemia, mis võib põhjustada tehisintellektiga seotud terviseprobleeme. Eestkostja teatab mitmetest muudest AI terviseprobleemidest, mis võivad inimesi mõjutada, kui neid enne laialdast kasutamist ei kontrollita. Üks näide on seotud tehisintellektiga töötavate oksümeetrite kasutamisega, mis "ülehindasid tumedama nahaga patsientide vere hapnikusisaldust, mille tulemuseks oli nende hüpoksia alaravi".

Lisaks pole see esimene kord, kui rühm tehnoloogialiidreid on nõudnud tehisintellekti arendamise pausi või tõsist ümberhindamist. 2023. aasta märtsis Elon Musk ja teised tehisintellekti teadlased allkirjastasid sarnase üleskutse tegevusele taotledes tehisintellekti väljatöötamisele moratooriumi seniks, kuni on võimalik protsessi suunamiseks rohkem regulatsioone rakendada.

Mis on AI oht?

Enamik tehisintellektiga seotud riske on vähemalt selles kontekstis seotud AI-tehnoloogia väljatöötamisega mis ületab inimeste võimed, kus see lõpuks lülitab sisse oma looja ja pühib välja elu, nagu me teame seda. See on ulmekirjanduses lugematuid kordi käsitletud lugu, kuid tegelikkus on nüüd lähemal, kui arvata oskame.

Suurte keelemudelite (mis toetavad selliseid tööriistu nagu ChatGPT) võimalused suurenevad järsult. Kuid, sellistel tööriistadel nagu ChatGPT on palju probleeme, nagu loomupärane eelarvamus, privaatsusprobleemid ja tehisintellekti hallutsinatsioonid, rääkimata selle võimest saada vangimurdmine, et tegutseda väljaspool oma programmeeritud tingimuste piire.

Kuna suured keelemudelid suurenevad ja neil on rohkem andmepunkte, mida kasutada, koos Interneti-juurdepääsu ja suuremaga Praegustest sündmustest aru saades kardavad tehisintellekti teadlased, et ühel päeval võib see OpenAI tegevjuhi Sam Altmani sõnul "üsna minna vale."

Kuidas valitsused reguleerivad tehisintellekti arendamist riskide peatamiseks?

AI reguleerimine on riskide ennetamisel võtmetähtsusega. 2023. aasta mai alguses Sam Altman nõudis rohkem AI reguleerimist, milles öeldakse, et "valitsuste regulatiivne sekkumine on kriitilise tähtsusega, et leevendada üha võimsamate mudelite riske."

Siis Euroopa Liit kuulutas välja tehisintellekti seaduse, määrus, mille eesmärk on pakkuda palju tugevamat raamistikku tehisintellekti arendamiseks kogu ELis (paljud eeskirjad levivad ka teistesse jurisdiktsioonidesse). Altman ähvardas algselt OpenAI EList välja tõmmata, kuid lükkas seejärel oma ähvarduse tagasi ja nõustus, et ettevõte järgib tehisintellekti määrust, mida ta varem palus.

Sellest hoolimata on selge, et tehisintellekti arendamise ja kasutuste reguleerimine on oluline.

Kas tehisintellekt lõpetab inimkonna?

Kuna suur osa selle teema ümber käivatest aruteludest põhineb hüpoteetilistel tehisintellekti tulevaste versioonide võimsuse kohta, on probleeme iga AI-määruse pikaealisuse ja võimsusega. Kuidas kõige paremini reguleerida tööstust, mis liigub juba kiirusega tuhat miili minutis ja läbimurdeid arengus toimuvad iga päev?

Lisaks on endiselt kahtlusi AI võimaluste osas üldiselt ja selle kohta, kuhu see välja jõuab. Kui need, kes kardavad halvimat, viitavad üldise tehisintellekti muutumisele inimeste ülemvõimuks, viitavad teised sellele tõsiasi, et tehisintellekti praegused versioonid ei suuda isegi põhilisi matemaatikaküsimusi täita ja et täielikult isejuhtivad autod on endiselt üks viis väljas.

Raske on mitte nõustuda nendega, kes vaatavad tulevikku. Paljud inimesed, kes karjuvad kõige valjemini tehisintellektiga seotud probleemide üle, istuvad juhiistmel ja vaatavad, kuhu võiksime suunduda. Kui nad nõuavad tehisintellekti reguleerimist, et kaitsta meid potentsiaalselt kohutava tuleviku eest, võib olla aeg kuulata.