Kuna tänapäevased tehisintellekti keelemudelid, nagu ChatGPT ja Microsofti Bing Chat, löövad kogu maailmas laineid, on paljud inimesed mures, et AI võtab maailma üle.

Kuigi me lähitulevikus SkyNetiga kokku ei puutu, muutub tehisintellekt mitmes asjas inimestest paremaks. Siin tulebki mängu tehisintellekti juhtimise probleem.

Tehisintellekti juhtimise probleem selgitatud

Tehisintellekti juhtimise probleem seisneb selles, et AI teeb lõpuks otsuseid paremini kui inimesed. Selle teooria kohaselt, kui inimesed ei ole asju eelnevalt õigesti seadistanud, ei ole meil hiljem võimalust asju parandada, mis tähendab, et tehisintellektil on tõhus kontroll.

Praegune tehisintellekti ja masinõppe (ML) mudelite uurimine on vähemalt aastate pärast inimvõimete ületamisest. Siiski on mõistlik arvata, et praeguseid edusamme arvestades ületab AI inimesi nii intelligentsuse kui ka tõhususe poolest.

See ei tähenda, et AI- ja ML-mudelitel poleks piire. Lõppude lõpuks on nad seotud füüsikaseadustega ja arvutusliku keerukusega, samuti neid süsteeme toetavate seadmete töötlemisvõimsusega. Siiski on ohutu eeldada, et need piirid on inimvõimetest kaugel.

instagram viewer

See tähendab, et superintelligentne AI-süsteemid võivad kujutada endast suurt ohtu kui see ei ole korralikult projekteeritud ja olemas on kaitsemeetmed, mis kontrollivad potentsiaalselt petturlikku käitumist. Sellised süsteemid tuleb üles ehitada maast madalast, et austada inimlikke väärtusi ja hoida nende jõudu kontrolli all. Seda tähendab juhtimisprobleem, kui see ütleb, et asjad peavad olema õigesti seadistatud.

Kui tehisintellekt ületaks inimeste intelligentsuse ilma nõuetekohaste kaitsemeetmeteta, võib tulemus olla katastroofiline. Sellised süsteemid võiksid võtta kontrolli füüsiliste ressursside üle, kuna paljud ülesanded täidetakse paremini või tõhusamalt. Kuna AI-süsteemid on loodud maksimaalse tõhususe saavutamiseks, võib kontrolli kaotamine kaasa tuua tõsiseid tagajärgi.

Millal AI-kontrolli probleem rakendub?

Peamine probleem seisneb selles, et mida paremaks tehisintellektisüsteem muutub, seda raskem on inimjuhil tehnoloogiat jälgida, et tagada käsitsijuhtimise lihtne ülevõtmine, kui süsteem peaks ebaõnnestuma. Lisaks on inimeste kalduvus toetuda automatiseeritud süsteemile suurem, kui süsteem töötab suurema osa ajast usaldusväärselt.

Selle suurepärane näide on Tesla täis-self-driving (FSD) komplekt. Kuigi auto saab ise sõita, eeldab see, et inimesel on käed roolil ja nad on valmis süsteemi rikke korral auto üle kontrolli võtma. Kuid kui need AI-süsteemid muutuvad töökindlamaks, hakkab isegi kõige ärksama inimese tähelepanu muutuma ja sõltuvus autonoomsest süsteemist suureneb.

Mis juhtub siis, kui autod hakkavad sõitma kiirusega, millega inimesed sammu pidada ei suuda? Lõpuks loovutame kontrolli auto autonoomsetele süsteemidele, mis tähendab, et AI-süsteem juhib teie elu vähemalt seni, kuni jõuate sihtkohta.

Kas AI-kontrolli probleemi saab lahendada?

Sellele, kas tehisintellekti juhtimise probleemi saab lahendada või mitte, on kaks vastust. Esiteks, kui tõlgendame küsimust sõna-sõnalt, ei saa kontrolliprobleemi lahendada. Me ei saa teha midagi, mis oleks otseselt suunatud inimese kalduvusele toetuda automatiseeritud süsteemile, kui see töötab suurema osa ajast usaldusväärselt ja tõhusamalt.

Kui aga seda tendentsi tuleks arvestada selliste süsteemide tunnusena, saame välja mõelda viise, kuidas kontrolliprobleemi ümber töötada. Näiteks Algoritmiline otsustamine ja kontrolliprobleem Uurimistöös pakutakse kolme erinevat meetodit selle olukorra lahendamiseks:

  • Vähem töökindlate süsteemide kasutamine eeldab, et inimene peab süsteemiga aktiivselt tegelema, kuna vähem töökindlad süsteemid ei kujuta endast juhtimisprobleemi.
  • Enne reaalset kasutuselevõttu oodata, kuni süsteem ületab inimeste tõhususe ja töökindluse.
  • Rakendada ainult osalist automatiseerimist ülesannete lagunemise abil. See tähendab, et automatiseeritakse ainult need süsteemi osad, mis ei nõua inimese operaatorit mõne olulise ülesande täitmiseks. Seda nimetatakse funktsiooni dünaamilise/täiendava jaotamise (DCAF) lähenemisviisiks.

DCAF-i lähenemisviis seab alati automaatse süsteemi tüüri ette inimoperaatori, tagades, et tema sisend juhib süsteemi otsustusprotsessi kõige olulisemaid osi. Kui süsteem on piisavalt kaasahaarav, et inimene saaks pidevalt tähelepanu pöörata, saab juhtimisprobleemi lahendada.

Kas me saame kunagi tõeliselt kontrollida AI-d?

Kuna AI-süsteemid muutuvad arenenumaks, võimekamaks ja töökindlamaks, jätkame neile rohkemate ülesannete laadimist. Kuid tehisintellekti juhtimise probleemi saab lahendada õigete ettevaatusabinõude ja kaitsemeetmetega.

AI muudab juba maailma meie jaoks, enamasti paremuse poole. Kuni tehnoloogiat hoitakse inimliku järelevalve all, ei tohiks meil olla millegi pärast muretseda.