Vestlusbotid ja nendega sarnased võivad tunduda lõbusad, kuid kasulikud ka häkkeritele. Siin on põhjus, miks me kõik peame teadma tehisintellekti turvariske.

AI on viimastel aastatel märkimisväärselt edasi arenenud. Keerulised keelemudelid võivad koostada täispikki romaane, kodeerida põhiveebisaite ja analüüsida matemaatikaülesandeid.

Kuigi muljetavaldav, kujutab generatiivne AI endast ka turvariske. Mõned inimesed kasutavad vestlusroboteid eksamite petmiseks, kuid teised kasutavad neid otse küberkuritegude jaoks. Siin on kaheksa põhjust, miks need probleemid püsivad, mitte ainult vaatamata AI edusammud, kuid sest ka neist.

1. Avatud lähtekoodiga AI-vestlusbotid näitavad taustakoode

Rohkem AI ettevõtteid pakuvad avatud lähtekoodiga süsteeme. Nad jagavad avalikult oma keelemudeleid, selle asemel, et hoida neid suletuna või omanduses. Võtke näiteks Meta. Erinevalt Google'ist, Microsoftist ja OpenAI-st võimaldab see miljonitel kasutajatel juurdepääsu oma keelemudelile, LLaMA.

Kuigi avatud lähtekoodiga koodid võivad AI-d edendada, on see ka riskantne.

OpenAI-l on juba probleeme ChatGPT juhtimisega, selle patenteeritud vestlusrobot, nii et kujutage ette, mida saaksid kelmid tasuta tarkvaraga teha. Neil on nende projektide üle täielik kontroll.

Isegi kui Meta järsku oma keelemudelit tõmbab, on kümned teised AI-laborid juba oma koodid välja andnud. Vaatame HuggingChati. Kuna selle arendaja HuggingFace tunneb uhkust läbipaistvuse üle, kuvab see oma andmekogumid, keelemudeli ja varasemad versioonid.

2. Jailbreaking Prompts Trick LLMs

AI on oma olemuselt amoraalne. See ei mõista õiget ja valet – isegi täiustatud süsteemid järgivad koolitusjuhiseid, juhiseid ja andmekogumeid. Nad tunnevad lihtsalt mustreid ära.

Ebaseaduslike tegevuste vastu võitlemiseks kontrollivad arendajad funktsionaalsust ja piiranguid piirangute seadmisega. AI-süsteemid pääsevad endiselt juurde kahjulikule teabele. Kuid turvajuhised takistavad neil neid kasutajatega jagamast.

Vaatame ChatGPT-d. Kuigi see vastab üldistele küsimustele troojalaste kohta, ei käsitle see nende arendamise protsessi.

See tähendab, et piirangud ei ole lollikindel. Kasutajad eiravad piiranguid, sõnastades viipasid ümber, kasutades segast keelt ja koostades selgesõnaliselt üksikasjalikke juhiseid.

Lugege allpool ChatGPT jailbreak viip. See meelitab ChatGPT-d kasutama ebaviisakat keelt ja tegema alusetuid ennustusi – mõlemad teod rikuvad OpenAI juhiseid.

Siin on ChatGPT julge, kuid vale väitega.

3. AI teeb mitmekülgsuse tõttu kompromisse turvalisuse

AI arendajad eelistavad turvalisusele mitmekülgsust. Nad kulutavad oma ressursse koolitusplatvormidele mitmekesisemate ülesannete täitmiseks, vähendades lõpuks piiranguid. Lõppude lõpuks tervitab turg funktsionaalseid vestlusroboteid.

Teeme võrrelda ChatGPT ja Bing Chati, näiteks. Kuigi Bingil on keerukam keelemudel, mis tõmbab reaalajas andmeid, valivad kasutajad siiski mitmekülgsema valiku ChatGPT. Bingi jäigad piirangud keelavad paljud ülesanded. Teise võimalusena pakub ChatGPT paindlikku platvormi, mis toodab sõltuvalt teie viipadest tohutult erinevaid väljundeid

Siin on ChatGPT rollimäng väljamõeldud tegelasena.

Ja siin on Bing Chat, kes keeldub mängimast "ebamoraalset" tegelast.

Avatud lähtekoodid võimaldavad idufirmadel AI võidujooksuga liituda. Nad integreerivad need oma rakendustesse selle asemel, et luua nullist keelemudeleid, säästes tohutuid ressursse. Isegi sõltumatud kodeerijad katsetavad avatud lähtekoodiga koodidega.

Jällegi aitab mittevaraline tarkvara edendada AI-d, kuid halvasti koolitatud, kuid keerukate süsteemide massiline väljalaskmine toob rohkem kahju kui kasu. Kelmid kuritarvitavad turvaauke kiiresti. Nad võivad isegi koolitada ebaturvalisi AI-tööriistu ebaseaduslike tegevuste sooritamiseks.

Nendest riskidest hoolimata avaldavad tehnoloogiaettevõtted tehisintellektiga juhitud platvormide ebastabiilseid beetaversioone. AI võidujooks premeerib kiirust. Tõenäoliselt lahendavad nad vead hiljem, kui viivitavad uute toodete turuletoomist.

5. Generatiivsel AI-l on madalad sisenemisbarjäärid

AI tööriistad vähendavad kuritegude sisenemise tõkkeid. Küberkurjategijad koostavad rämpsposti e-kirju, kirjutavad pahavara koodi ja loovad andmepüügilinke neid ära kasutades. Nad ei vaja isegi tehnilist kogemust. Kuna tehisintellekt pääseb juba juurde suurele hulgale andmekogudele, peavad kasutajad lihtsalt petma seda kahjulikku ja ohtlikku teavet tootma.

OpenAI pole kunagi kavandanud ChatGPT-d ebaseaduslike tegevuste jaoks. Sellel on isegi juhised nende vastu. Siiski kelmid said peaaegu koheselt ChatGPT-d kodeeriva pahavara ja andmepüügimeilide kirjutamine.

Kuigi OpenAI lahendas probleemi kiiresti, rõhutab see süsteemi reguleerimise ja riskijuhtimise tähtsust. AI küpseb kiiremini, kui keegi arvas. Isegi tehnoloogiajuhid muretsevad, et see üliintelligentne tehnoloogia võib valedes kätes tohutut kahju tekitada.

6. AI areneb endiselt

AI areneb endiselt. Kuigi AI kasutamine küberneetikas pärineb 1940. aastast, moodsad masinõppesüsteemid ja keelemudelid tekkisid alles hiljuti. Te ei saa neid võrrelda AI esimeste rakendustega. Isegi suhteliselt arenenud tööriistad, nagu Siri ja Alexa, kahvatuvad võrreldes LLM-i toega vestlusrobotidega.

Kuigi need võivad olla uuenduslikud, tekitavad eksperimentaalsed funktsioonid ka uusi probleeme. Kõrgetasemelised äpardused masinõppetehnoloogiatega ulatuvad vigasetest Google'i SERP-idest kuni kallutatud vestlusrobotideni, kes sülitavad rassilisi solvanguid.

Loomulikult saavad arendajad need probleemid lahendada. Pange tähele, et kelmid ei kõhkle kasutamast isegi näiliselt kahjutuid vigu – mõned kahjustused on pöördumatud. Seega olge uute platvormide uurimisel ettevaatlik.

7. Paljud ei saa AI-st veel aru

Kuigi üldsusel on juurdepääs keerukatele keelemudelitele ja süsteemidele, teavad vaid vähesed, kuidas need töötavad. Inimesed peaksid lõpetama tehisintellekti kohtlemise mänguasjana. Samad chatbotid, mis genereerivad meeme ja vastavad triviale, kodeerivad massiliselt ka viiruseid.

Kahjuks on tsentraliseeritud tehisintellekti koolitus ebareaalne. Ülemaailmsed tehnoloogialiidrid keskenduvad AI-põhiste süsteemide väljalaskmisele, mitte tasuta õpperessurssidele. Selle tulemusena saavad kasutajad juurdepääsu tugevatele ja võimsatele tööriistadele, millest nad vaevu aru saavad. Avalikkus ei saa AI võidujooksuga sammu pidada.

Võtke näiteks ChatGPT. Küberkurjategijad kuritarvitavad selle populaarsust, pettes ohvreid nuhkvara, mis on maskeeritud ChatGPT rakendusteks. Ükski neist valikutest ei pärine OpenAI-st.

8. Musta mütsi häkkeritel on rohkem võita kui valge mütsi häkkeritel

Musta mütsi häkkeritel on tavaliselt rohkem võita kui eetilised häkkerid. Jah, ülemaailmsete tehnoloogialiidrite jaoks mõeldud pliiatsi testimine maksab hästi, kuid vaid osa küberjulgeolekuspetsialistidest saab need töökohad. Enamik teeb vabakutselist tööd võrgus. Platvormid nagu HackerOne ja Bugcrowd maksta paarsada taala tavaliste vigade eest.

Teise võimalusena teenivad kelmid ebakindlust ära kasutades kümneid tuhandeid. Nad võivad ettevõtteid väljapressida, lekitades konfidentsiaalseid andmeid või panna toime ID-varguse varastamisega Isiku tuvastamise teave (PII).

Iga asutus, olgu see väike või suur, peab AI-süsteeme õigesti rakendama. Vastupidiselt levinud arvamusele lähevad häkkerid tehnilistest idufirmadest ja VKEdest kaugemale. Mõned kõige enam ajaloolised andmerikkumised viimase kümnendi jooksul kaasata Facebook, Yahoo! ja isegi USA valitsus.

Kaitske end AI turvariskide eest

Kas peaksite neid punkte arvesse võttes AI-st üldse vältima? Muidugi mitte. AI on oma olemuselt amoraalne; kõik turvariskid tulenevad inimestest, kes neid tegelikult kasutavad. Ja nad leiavad viise AI-süsteemide kasutamiseks olenemata sellest, kui kaugele need arenevad.

Selle asemel, et karta tehisintellektiga kaasnevaid küberjulgeolekuohtusid, mõistke, kuidas saate neid ennetada. Ärge muretsege: lihtsad turvameetmed aitavad kaugele. Varjatud tehisintellekti rakenduste suhtes ettevaatlik hoidmine, veidrate hüperlinkide vältimine ja tehisintellekti sisu skeptiline vaatamine võitleb juba mitmete riskidega.