ChatGPT jailbreak andis lisavõimalusi, kuid ükski neist ei tundu enam töötavat. Miks nii?

Kui ChatGPT käivitati, tahtsid selle kasutajad esimese asjana selle seinu maha murda ja piire ületada. Jailbreakingina tuntud ChatGPT kasutajad petsid tehisintellekti oma programmeerimise piire ületama, saavutades uskumatult huvitavaid ja mõnikord täiesti metsikuid tulemusi.

Sellest ajast peale on OpenAI karmistanud ChatGPT-d, et muuta jailbreakide teostamine palju raskemaks. Kuid see pole veel kõik; Tundub, et ChatGPT jailbreakid on üldiselt kokku kuivanud, pannes ChatGPT kasutajad mõtlema, kas jailbreakid üldse töötavad.

Niisiis, kuhu on kadunud kõik ChatGPT jailbreakid?

1. ChatGPT küsimise oskused on üldiselt paranenud

Enne ChatGPT saabumist oli tehisintellektiga vestlemine nišioskus, mis piirdus uurimislaboritega. Enamikul varasematel kasutajatel puudus asjatundlikkus tõhusate viipade koostamiseks. See sundis paljusid inimesi kasutama jailbreake, mis on otstarbekas viis panna vestlusbot minimaalse pingutuse ja viipamisoskustega tegema seda, mida nad tahavad.

instagram viewer

Tänapäeval on maastik arenenud. Oskuste õhutamine on muutumas peavoolu oskuseks. Korduvast kasutamisest saadud kogemuste ja vabalt saadaolevatele ChatGPT viipade juhenditele juurdepääsu kombinatsiooni kaudu on ChatGPT kasutajad oma viipamisvõimet täiustanud. Selle asemel, et otsida selliseid lahendusi nagu jailbreak, on suur osa ChatGPT kasutajatest muutunud osavamaks kasutades erinevaid õhutusstrateegiaid eesmärkide saavutamiseks, mille saavutamiseks oleks vaja jailbreake minevik.

2. Tsenseerimata vestlusrobotite tõus

Kuna suured tehnoloogiaettevõtted karmistavad sisu modereerimist tavapäraste AI-vestlusbotite (nt ChatGPT) puhul, valivad väiksemad kasumile keskendunud idufirmad vähem piiranguid, panustades tsensuurivabade AI-vestlusbotite nõudlusele. Väikese uurimistööga leiate kümneid AI vestlusrobotite platvorme, mis pakuvad tsenseerimata vestlusroboteid, mis suudavad teha peaaegu kõike, mida soovite.

Kas ChatGPT keeldub kirjutamast nende krimipõneviku ja tumeda huumori romaanide kirjutamisest või kirjutamisest pahavara, mis ründab inimeste arvuteid, teevad need viltu moraalse kompassiga tsenseerimata vestlusrobotid mida iganes sa soovid. Kui nad on läheduses, pole mõtet ChatGPT jaoks jailbreakide kirjutamiseks lisaenergiat kulutada. Kuigi need alternatiivsed platvormid ei pruugi olla nii võimsad kui ChatGPT, saavad need mugavalt täita mitmesuguseid ülesandeid. Sellised platvormid nagu FlowGPT ja Unhinged AI on mõned populaarsed näited.

3. Jailbreak on muutunud raskemaks

ChatGPT esimestel kuudel jailbreaking ChatGPT oli sama lihtne kui kopeerimis-kleepimise viibad veebiallikatest. Saate ChatGPT isiksust täielikult muuta vaid mõne rea keeruliste juhistega. Lihtsate juhiste abil saate ChatGPT-st muuta kurjaks kaabakas, kes õpetab pomme valmistama, või vestlusrobotiks, kes on valmis kasutama piiranguteta igasuguseid roppusi. See oli kõigile tasuta, mis tekitas kurikuulsaid jailbreake, nagu DAN (Do Anything Now). DAN hõlmas näiliselt kahjutute juhiste kogumit, mis sundisid vestlusrobot tegema kõike, mida talt paluti, ilma keeldumata. Šokeerival kombel töötasid need toored nipid toona.

Need metsikud algusajad on aga ajalugu. Need põhilised juhised ja odavad nipid ei peta enam ChatGPT-d. Jailbreak nõuab nüüd keerulisi tehnikaid, et oleks võimalik OpenAI nüüd tugevatest kaitsemeetmetest mööda minna. Kuna jailbreak on muutunud nii keeruliseks, pole enamik kasutajaid seda proovimast liiga heitunud. ChatGPT algusaegade lihtsad ja laiaulatuslikud ärakasutamised on kadunud. Vestlusroti panemine ühe vale sõna ütlema nõuab nüüd märkimisväärset pingutust ja asjatundlikkust, mis ei pruugi olla aega ja vaeva väärt.

4. Uudsus on kulunud

Paljude kasutajate ChatGPT-d vanglamurdmise katsete taga oli algusaegadel tekitatud põnevus ja põnevus. Uue tehnoloogiana oli ChatGPT väärkäitumine meelelahutuslik ja teenis praalimise õigusi. Kuigi ChatGPT jailbreakide jaoks on lugematu arv praktilisi rakendusi, otsisid paljud neid üleskutse "vau, vaata, mis ma tegin" pärast. Tasapisi on aga uudsusest tulenev põnevus kustunud ja koos sellega ka inimeste huvi jailbreakidele aega pühendada.

5. Jailbreaksid parandatakse kiiresti

ChatGPT vangimurdmise kogukonnas on levinud tava jagamine iga õnnestunud ärakasutamise korral, kui see avastatakse. Probleem on selles, et kui ärakasutusi laialdaselt jagatakse, saab OpenAI neist sageli teadlikuks ja parandab haavatavused. See tähendab, et jailbreak’id lakkavad töötamast enne, kui huvilised saavad neid isegi proovida.

Seega, iga kord, kui ChatGPT-kasutaja töötab hoolikalt välja uue jailbreak'i, kiirendab selle kogukonnaga jagamine selle kadumist paikamise teel. See pärsib mõtet avalikustada, kui kasutaja satub jailbreak'ile. Konflikt jailbreakide aktiivsena hoidmise, kuid varjamise ja nende avalikustamise vahel tekitab ChatGPT jailbreak loojate jaoks dilemma. Tänapäeval otsustavad inimesed sageli oma vanglamurdmised saladuses hoida, et vältida lünkade lappimist.

6. Tsenseerimata kohalikud alternatiivid

Kohalike suurte keelemudelite levik, mida saate oma arvutis kohapeal käivitada, on samuti vähendanud huvi ChatGPT jailbreakide vastu. Kuigi kohalikud LLM-id ei ole täiesti tsensuurivabad, on paljud neist oluliselt vähem tsenseeritud ja neid saab hõlpsasti muuta vastavalt kasutajate soovidele. Seega on valikud lihtsad. Saate osaleda lõputus kassi-hiire mängus, et leida viis vestlusroti petmiseks, et see peagi parandada. või võite leppida kohaliku LLM-iga saate jäädavalt muuta, et teha kõike, mida soovite.

Leiate üllatavalt pika loendi võimsatest tsenseerimata LLM-idest, mida saate lõdva tsensuuriga oma arvutisse juurutada. Mõned tähelepanuväärsed on Llama 7B (tsenseerimata), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B ja GPT-4-X-Alpaca.

7. Professionaalsed vanglamurdjad nüüd kasumi eesmärgil müügil

Miks pühendada väärtuslikku aega vangimurdmise viipade väljatöötamisele, kui te ei saa sellest midagi? Noh, mõned spetsialistid müüvad nüüd jailbreake kasumi saamiseks. Need professionaalsed jailbreak loojad kujundavad jailbreake, mis täidavad konkreetseid ülesandeid, ja loetlevad need müügiks kiiretel turgudel, nagu PromptBase. Olenevalt nende võimalustest võivad need jailbreak-viibad müüa 2–15 dollarit viipa kohta. Mõned keerulised mitmeastmelised ekspluatatsioonid võivad maksta oluliselt rohkem.

Kas Jailbreaksi purustamine võib anda tagasilöögi?

Jailbreaks pole sündmuskohalt täielikult lahkunud; nad on just maa alla läinud. Kuna OpenAI teenib ChatGPT-d rahaks, on neil suurem stiimul piirata kahjulikku kasutust, mis võib mõjutada nende ärimudelit. See kaubanduslik tegur mõjutab tõenäoliselt nende agressiivset tõuget vanglamurdmise rünnakute mahasurumiseks.

Kuid OpenAI ChatGPT tsensuur on praegu kasutajate seas üha kasvava kriitika osaliseks. Mõned tehisintellekti vestlusroboti seaduslikud kasutusjuhtumid ei ole range tsensuuri tõttu enam võimalikud. Kuigi suurem turvalisus kaitseb kahjulike kasutusjuhtude eest, võivad liigsed piirangud lõpuks suruda osa ChatGPT kogukonnast vähem tsenseeritud alternatiivide kätte.