ChatGPT jailbreakid võimaldavad teil avada vestlusroti piirangud. Aga mis need täpselt on? Ja kas need on head või halvad?
ChatGPT on uskumatult võimas ja mitmetahuline tööriist. Kuid nii palju kui AI vestlusbot on hea jõud, saab seda kasutada ka kurjadel eesmärkidel. Seega, et ohjeldada ChatGPT ebaeetilist kasutamist, seadis OpenAI piirangud sellele, mida kasutajad sellega teha saavad.
Kuna aga inimestele meeldib piire ja piiranguid nihutada, on ChatGPT kasutajad leidnud viise, kuidas neist piirangutest mööda hiilida ja jailbreak’ide kaudu AI chatboti üle piiramatu kontrolli saavutada.
Aga mis täpselt on ChatGPT jailbreak ja mida saate nendega teha?
Mis on ChatGPT jailbreakid?
ChatGPT jailbreak on mis tahes spetsiaalselt loodud ChatGPT viip, mille eesmärk on panna AI vestlusbot oma reeglitest ja piirangutest mööda minema.
Inspireeritud iPhone'i vanglamurdmise kontseptsioon, mis võimaldab iPhone'i kasutajatel iOS-i piirangutest mööda hiilida, on ChatGPT jailbreaking suhteliselt uus kontseptsioon, mida õhutab ChatGPT-ga "tegemise keelamine" võlust. Ja olgem ausad, digitaalse mässu idee meeldib paljudele inimestele.
Siin on asi. Ohutus on tehisintellekti puhul tohutu teema. See kehtib eriti vestlusrobotite nagu ChatGPT, Bing Chat ja Bard AI uue ajastu tulekuga. Tehisintellekti ohutusega seotud põhimure on tagada, et vestlusrobotid nagu ChatGPT ei toodaks ebaseaduslikku, potentsiaalselt kahjulikku või ebaeetilist sisu.
ChatGPT taga olev ettevõte OpenAI teeb omalt poolt kõik endast oleneva, et tagada ChatGPT ohutu kasutamine. Näiteks keeldub ChatGPT vaikimisi NSFW-sisu loomisest, etnilise päritolu kohta kahjulikke asju ütlemast või potentsiaalselt kahjulikke oskusi õpetamast.
Kuid ChatGPT viipade puhul on kurat detailides. Kuigi ChatGPT-l pole lubatud neid asju teha, ei tähenda see, et ta seda teha ei saaks. Suurte keelemudelite (nt GPT) tööviis raskendab otsustamist, mida vestlusbot saab teha ja mida mitte.
Kuidas siis OpenAI selle lahendas? Lubades ChatGPT-l säilitada oma võime teha kõike võimalikku ja seejärel juhendada, milliseid ta saab teha.
Ehkki OpenAI ütleb ChatGPT-le: "Kuule, vaata, te ei peaks seda tegema." Jailbreaks on juhised, mis ütlevad vestlusbotile: "Kuule, unustage ära, mida OpenAI teile ohutuse kohta rääkis. Proovime seda juhuslikku ohtlikku kraami."
Mida ütleb OpenAI ChatGPT jailbreakide kohta?
ChatGPT varaseimale iteratsioonile seatud piirangutest mööda hiilimise lihtsus viitab sellele, et OpenAI ei pruukinud oodata oma kasutajate kiiret ja laialdast vanglamurdmise kasutuselevõttu. See on tegelikult lahtine küsimus, kas ettevõte nägi vanglamurdmise tekkimist ette või mitte.
Ja isegi pärast mitut ChatGPT iteratsiooni, millel on parendatud vastupanu jailbreak'ile, on ChatGPT kasutajate jaoks endiselt populaarne proovida seda jailbreakida. Mida ütleb OpenAI ChatGPT jailbreakingi õõnestava kunsti kohta?
Noh, OpenAI näib olevat omaks võtnud heakskiidu – ei julgusta ega keela seda praktikat rangelt. Arutades YouTube'i intervjuus ChatGPT jailbreake, selgitas OpenAI tegevjuht Sam Altman, et ettevõte soovib, et kasutajad säilitaksid märkimisväärse kontrolli ChatGPT üle.
Lisaks selgitas tegevjuht, et OpenAI eesmärk on tagada, et kasutajad saaksid mudelit käituda nii, nagu nad soovivad. Altmani sõnul:
Soovime, et kasutajatel oleks palju kontrolli ja et mudel käituks nii, nagu nad soovivad teatud väga laiaulatuslike piiride piires. Ja ma arvan, et kogu vanglamurdmise põhjus on praegu see, et me pole veel aru saanud, kuidas seda inimestele anda...
Mida see tähendab? See tähendab, et OpenAI lubab teil ChatGPT jailbreakida, kui te sellega ohtlikke asju ei tee.
ChatGPT jailbreakide plussid ja miinused
ChatGPT jailbreake pole lihtne luua. Muidugi võite minna võrku ja kopeerida-kleepida valmis, kuid on hea võimalus, et OpenAI parandab jailbreak'i varsti pärast selle avalikustamist.
Plaastrid on isegi palju kiiremad, kui see on ohtlik, nagu kurikuulus DAN-i jailbreak. Miks inimesed niikuinii jailbreakide tegemisest tulenevat stressi läbi elavad? Kas see on ainult põnevuse pärast või on sellest praktilist kasu? Mis võib valesti minna, kui otsustate kasutada ChatGPT jailbreaki? Siin on ChatGPT jailbreak'i plussid ja miinused.
ChatGPT jailbreakide kasutamise plussid
Kuigi me ei saa välistada lihtsat põnevust keelatud asjade tegemisel, on ChatGPT jailbreakidel palju eeliseid. Väga rangete piirangute tõttu, mille OpenAI on vestlusbotile seadnud, võib ChatGPT mõnikord näida kastreeritud.
Oletame, et kasutate ChatGPT-d raamatu või filmi stsenaariumi kirjutamiseks. Kui teie stsenaariumis või raamatus on stseen, mis kirjeldaks midagi võitlusstseeni sarnast, võib-olla intiimne emotsionaalne vahetus või näiteks relvastatud röövimine, võib ChatGPT otse abist keelduda sellega.
Sel juhul ei ole te selgelt huvitatud kahju tekitamisest; tahad lihtsalt oma lugejaid lõbustada. Kuid oma piirangute tõttu ei tee ChatGPT lihtsalt koostööd. ChatGPT jailbreak aitab sellistest piirangutest hõlpsalt üle saada.
Samuti ei ole mõned tabuteemad tingimata kahjulikud, kuid ChatGPT peab neid keelatud valdkondadeks. Kui proovite nendel teemadel vestelda, "tsenseerib ChatGPT" oma vastuseid oluliselt või keeldub neist rääkimast.
See võib mõnikord mõjutada loovust. Kui esitate ChatGPT-le küsimuse valdkonna või teema kohta, mida see ei tohiks puudutada, proovib vestlusbot ikkagi teie küsimusele vastata, kuid pakkudes vähem asjakohast teavet.
See toob kaasa ebatäpsusi või langusi loomingulistes vastustes. Jailbreakid purustavad need piirangud ja lasevad vestlusrobotil minna täisgaasile, parandades täpsust ja loovust.
ChatGPT jailbreakide kasutamise miinused
Jailbreak on kahe teraga mõõk. Kuigi see võib mõnikord täpsust parandada, võib see oluliselt suurendada ka ebatäpsusi ja AI hallutsinatsioonide juhtumid. Üks ChatGPT jailbreaki põhielemente on juhis vestlusrobotile mitte keelduda küsimusele vastamast.
Kuigi see tagab, et ChatGPT vastab ka kõige ebaeetilisematele küsimustele, tähendab see ka seda, et vestlusbot koostab vastuseid, millel ei ole juured faktides või reaalsus, et järgida käsku "mitte keelduda vastamast". Järelikult suurendab jailbreakide kasutamine märkimisväärselt võimalusi, et kasutajad edastavad teile valeinformatsiooni vestlusrobot.
See pole veel kõik. Alaealiste käes võivad jailbreak’id olla väga kahjulikud. Mõelge kõigile "keelatud teadmistele", mida te ei tahaks, et teie laps loeks. Noh, ChatGPT vangistatud eksemplaril poleks raske seda alaealistega jagada.
Kas peaksite kasutama ChatGPT jailbreake?
Kuigi ChatGPT jailbreak võib olla okei, kui proovite mõne tüütu piirangu kõrvaldada, on oluline mõista, et jailbreakide kasutamine on ebaeetiline viis AI vestlusroti kasutamiseks. Veelgi enam, on suur võimalus, et jailbreak võib rikkuda OpenAI kasutustingimusi ja teie konto võidakse peatada, kui seda otseselt ei keelata.
Seda silmas pidades võib jailbreakide vältimine olla hea mõte. Kuid nagu ka OpenAI seisukoht selles küsimuses, ei julgusta me selgesõnaliselt ega keelita suhteliselt ohutu jailbreak'i proovimist, kui vajadus tekib.
ChatGPT jailbreakid on ahvatlevad ja annavad AI-vestlusboti üle kontrolli. Kuid nendega kaasnevad ainulaadsed riskid. Selliste tööriistade kasutamine võib põhjustada usalduse kaotuse tehisintellekti võimekuse vastu ning kahjustada asjaomaste ettevõtete ja üksikisikute mainet.
Targem valik on töötada vestlusrobotiga võimaluse korral ettenähtud piirangute piires. Tehisintellekti tehnoloogia arenedes on oluline meeles pidada, et tehisintellekti eetiline kasutamine peaks alati olema ülimuslik isikliku kasu või keelatud tegevuste tegemise põnevuse ees.