Teiesugused lugejad aitavad MUO-d toetada. Kui teete ostu meie saidil olevate linkide abil, võime teenida sidusettevõtte komisjonitasu. Loe rohkem.

OpenAI ChatGPT käivitamisele järgnes põnevus, millele vastab vaid käputäis Interneti ajaloost pärit tehnilisi tooteid.

Kuigi paljud inimesed on sellest uuest tehisintellektiteenusest vaimustuses, on teised tundnud põnevus muutunud muredeks ja isegi hirmudeks. Õpilased juba petavad sellega, paljud professorid avastavad tehisintellekti vestlusroti kirjutatud esseesid ja ülesandeid. Turvaspetsialistid väljendavad oma muret, et petturid ja ohustajad kasutavad seda andmepüügimeilide kirjutamiseks ja pahavara loomiseks.

Niisiis, kas OpenAI kaotab kõigi nende muredega kontrolli ühe praegu võrgus kõige võimsama AI-vestlusroboti üle? Uurime välja.

ChatGPT toimimise mõistmine

Enne kui saame selge pildi sellest, kui palju OpenAI ChatGPT üle kontrolli kaotab, peame kõigepealt aru saama kuidas ChatGPT töötab.

Lühidalt öeldes koolitatakse ChatGPT-d, kasutades tohutut andmekogu, mis on pärit Interneti erinevatest nurkadest. ChatGPT koolitusandmed hõlmavad entsüklopeediaid, teadusartikleid, Interneti-foorumeid, uudiste veebisaite ja teadmiste hoidlaid, nagu Wikipedia. Põhimõtteliselt toidab see tohutul hulgal veebis saadaolevaid andmeid.

instagram viewer

Internetti sirvides koondab see teaduslikke teadmisi, tervisenõuandeid, religioosset teksti ja kõiki häid andmeid, mida võite mõelda. Kuid see sõelub läbi ka hulga negatiivset teavet: sõimusõnad, NSFW ja täiskasvanutele mõeldud sisu, teave pahavara valmistamise kohta ja suurem osa Internetist leitud halbadest asjadest.

Puudub lollikindel viis tagada, et ChatGPT õpib ainult positiivsest teabest, jättes kõrvale halva teabe. Tehniliselt on seda suures mahus ebapraktiline teha, eriti tehisintellekti jaoks nagu ChatGPT, mis peab treenima nii palju andmeid. Lisaks saab mõnda teavet kasutada nii headel kui ka kurjadel eesmärkidel ning ChatGPT ei saaks oma kavatsusest teada, kui see pole asetatud suuremasse konteksti.

Nii et algusest peale on teil tehisintellekt, mis on võimeline tegema "hea ja kurja". Seejärel on OpenAI kohustus tagada, et ChatGPT "kurja" poolt ei kasutataks ära ebaeetiliseks kasu saamiseks. Küsimus on selles; kas OpenAI teeb piisavalt, et hoida ChatGPT võimalikult eetiline? Või on OpenAI kaotanud kontrolli ChatGPT üle?

Kas ChatGPT on enda jaoks liiga võimas?

ChatGPT algusaegadel võis kenasti paludes panna vestlusroti koostama pommide valmistamise juhendeid. Pildil olid ka juhised pahavara tegemise või täiusliku petukirja kirjutamise kohta.

Kuid kui OpenAI neist eetilistest probleemidest aru sai, püüdis ettevõte kehtestada reegleid, et peatada vestlusroti vastuste genereerimine, mis edendavad ebaseaduslikke, vastuolulisi või ebaeetilisi tegevusi. Näiteks uusim ChatGPT versioon keeldub vastamast otsestele viipadele, mis puudutavad pommide valmistamist või kuidas eksamil petta.

Kahjuks saab OpenAI pakkuda probleemile ainult ribaabi. Selle asemel, et luua GPT-3 kihile jäigad juhtelemendid, et takistada ChatGPT negatiivset ärakasutamist, näib OpenAI keskenduvat vestlusroboti õpetamisele, et see näiks eetiline. See lähenemine ei võta ära ChatGPT võimet vastata küsimustele näiteks eksamite petmise kohta – see lihtsalt õpetab vestlusrobotit "keelduma vastamast".

Seega, kui keegi sõnastab oma viipasid teisiti, võttes kasutusele ChatGPT vanglamurdmise nipid, on nendest ribaabipiirangutest mööda hiilimine piinlikult lihtne. Kui te pole selle kontseptsiooniga tuttav, on ChatGPT jailbreak'id hoolikalt sõnastatud juhised, et panna ChatGPT oma reegleid eirama.

Vaadake allpool mõnda näidet. Kui küsite ChatGPT-lt, kuidas eksamitel petta, ei anna see kasulikku vastust.

Kui aga vangistate ChatGPT-i spetsiaalselt koostatud viipade abil, annab see teile näpunäiteid, kuidas eksamil varjatud märkmeid kasutades petta.

Siin on veel üks näide: esitasime vanilje ChatGPT-le ebaeetilise küsimuse ja OpenAI kaitsemeetmed ei lasknud tal vastata.

Kuid kui küsisime oma vanglast murtud AI vestlusroti eksemplari, saime mõned sarimõrvari stiilis vastused.

Kui küsiti, kirjutas see isegi klassikalise Nigeeria printsi meilipettuse.

Jailbreak muudab peaaegu täielikult kõik OpenAI kehtestatud kaitsemeetmed kehtetuks, rõhutades, et ettevõttel ei pruugi olla usaldusväärset viisi oma tehisintellekti vestlusroti kontrolli all hoidmiseks.

Ebaeetiliste tavade vältimiseks ei lisanud me näidetesse oma vanglast sissemurtud viipasid.

Mida toob tulevik ChatGPT jaoks?

Ideaalis soovib OpenAI ära hoida võimalikult palju eetilisi lünki ChatGPT muutumas küberjulgeoleku ohuks. Kuid iga kasutatava kaitsemeetme puhul kipub ChatGPT muutuma pisut vähem väärtuslikuks. See on dilemma.

Näiteks võivad kaitsemeetmed vägivaldsete tegude kirjeldamise vastu vähendada ChatGPT võimet kirjutada romaani, mis hõlmab kuriteopaika. Kuna OpenAI suurendab ohutusmeetmeid, ohverdab see protsessi käigus paratamatult osa oma võimetest. See on põhjus, miks ChatGPT funktsionaalsus on pärast OpenAI uuesti rangemat modereerimist nõudnud märkimisväärselt vähenenud.

Kuid kui palju rohkem ChatGPT võimeid on OpenAI nõus ohverdama, et muuta vestlusrobot turvalisemaks? See kõik on tihedalt seotud AI kogukonna pikaajalise veendumusega – suuri keelemudeleid, nagu ChatGPT, on kurikuulsalt raske kontrollida isegi nende endi loojatel.

Kas OpenAI saab ChatGPT kontrolli alla panna?

Praegu ei paista OpenAI-l olevat selget lahendust, et vältida selle tööriista ebaeetilist kasutamist. ChatGPT eetilise kasutamise tagamine on kassi ja hiire mäng. Kuigi OpenAI avastab viise, kuidas inimesed süsteemi mängimiseks kasutavad, on selle kasutajad samuti pidevalt süsteemi nokitsemine ja uurimine, et avastada uusi loomingulisi viise, kuidas panna ChatGPT tegema seda, mida ta ei peaks tegema.

Niisiis, kas OpenAI leiab sellele probleemile usaldusväärse pikaajalise lahenduse? Näitab ainult aeg.