AI vestlusrobotid võivad hallutsineerida, andes enesekindlalt valesid vastuseid – mida häkkerid saavad ära kasutada. Siit saate teada, kuidas häkkerid hallutsinatsioone relvastavad.
Suured keelemudeli AI-d on ebatäiuslikud ja tekitavad mõnikord valeteavet. Need juhtumid, mida nimetatakse hallutsinatsioonideks, võivad kujutada endast küberohtu ettevõtetele ja üksikutele AI-entusiastidele.
Õnneks saate suurendada kaitsevõimet tehisintellekti hallutsinatsioonide vastu kõrgendatud teadlikkuse ja tervisliku teise äraarvamisega.
Miks AI hallutsineerib?
Puudub üksmeel selle kohta, miks AI-mudelid hallutsineerivad, kuigi on mõned tõenäolised oletused.
AI on koolitatud tohutute andmekogumite põhjal, mis sisaldavad sageli vigu, nagu mõttelüngad, sisu silmapaistvuse varieeruvus või kahjulikud eelarvamused. Nende mittetäielike või ebapiisavate andmekogumite koolitus võib olla hallutsinatsioonide põhjuseks, isegi kui andmekogu hilisemad iteratsioonid said andmeteadlastelt kureerimise.
Aja jooksul saavad andmeteadlased muuta teavet täpsemaks ja sisestada täiendavaid teadmisi, et täita vabu töökohti ja minimeerida hallutsinatsioonide potentsiaali. Järelevaatajad võivad andmeid valesti märgistada. Programmeerimiskoodis võib olla vigu. Nende üksuste parandamine on oluline, kuna AI-mudelid arenevad masinõppe algoritmide põhjal.
Need algoritmid kasutavad andmeid, et teha kindlaks. Selle laiendus on AI närvivõrk, mis loob uusi otsuseid masinõppe kogemusest kuni meenutavad inimmõistuse originaalsust täpsemalt. Need võrgud sisaldavad trafosid, mis analüüsivad kaugemate andmepunktide vahelisi suhteid. Kui trafod lähevad viltu, võivad tekkida hallutsinatsioonid.
Kuidas AI hallutsinatsioonid häkkeritele võimalusi pakuvad
Kahjuks pole üldteada, et AI hallutsineerib ja AI kõlab enesekindlalt isegi siis, kui see on täiesti vale. See kõik aitab muuta kasutajad tehisintellektiga rahulolevamaks ja usaldavamaks ning ohus osalejad toetuvad sellele kasutaja käitumisele, et panna nad alla laadima või rünnakuid käivitama.
Näiteks võib tehisintellekti mudel hallutsineerida võltskooditeeki ja soovitada kasutajatel selle raamatukogu alla laadida. On tõenäoline, et mudel jätkab sama hallutsineeritud raamatukogu soovitamist paljudele kasutajatele, kes esitavad sarnase küsimuse. Kui häkkerid selle hallutsinatsiooni avastavad, saavad nad luua kujuteldavast raamatukogust tõelise versiooni, kuid täis ohtlikku koodi ja pahavara. Nüüd, kui AI jätkab kooditeegi soovitamist, laadivad tahtmatud kasutajad alla häkkerite koodi.
Kahjuliku koodi ja programmide transportimine tehisintellekti hallutsinatsioone ära kasutades on ohus osalejate jaoks üllatav järgmine samm. Häkkerid ei pruugi luua lugematuid uudseid küberohte – nad lihtsalt otsivad uusi viise, kuidas neid kahtlustamata toimetada. Tehisintellekti hallutsinatsioonid tabavad sama inimlikku naiivsust, e-posti linkidel klõpsamine sõltub sellest (sellepärast peaksite kasutage URL-ide kinnitamiseks linkide kontrollimise tööriistu).
Ka häkkerid võivad selle järgmisele tasemele viia. Kui otsite abi kodeerimisel ja laadite alla võltsitud pahatahtliku koodi, võib ohutegija muuta koodi ka tegelikult toimivaks, kui taustal töötab kahjulik programm. See, et see töötab nii, nagu te eeldate, ei tähenda, et see pole ohtlik.
Hariduse puudumine võib julgustada teid alla laadima tehisintellekti loodud soovitusi veebipõhise autopiloodi käitumise tõttu. Iga sektor on kultuurilise surve all võtta AI oma äritavades kasutusele. Lugematud organisatsioonid ja tööstused, mis on tehnoloogiast kaugel, mängivad AI-tööriistadega, millel on vähe kogemusi ja veelgi hõredam küberturvalisus, et lihtsalt konkurentsis püsida.
Kuidas kaitsta end relvastatud tehisintellekti hallutsinatsioonide eest
Edasiminek on silmapiiril. Pahavara loomine generatiivse AI abil oli lihtne enne, kui ettevõtted kohandasid andmekogumeid ja tingimusi, et vältida ebaeetilisi põlvkondi. Teades ühiskondlikke, tehnilisi ja isiklikke nõrkusi, mis võivad ohtlike tehisintellekti hallutsinatsioonide vastu olla, on mõned võimalused turvalisuse tagamiseks?
Igaüks selles valdkonnas võib töötada närvivõrgu tehnoloogia täiustamise ja raamatukogude kontrollimise kallal. Enne kui vastused lõppkasutajatele jõuavad, peavad olema kontrollid ja tasakaalud. Hoolimata sellest, et see on tööstusharu vajalik edasiminek, on teil ka oma roll enda ja teiste kaitsmisel generatiivsete AI-ohtude eest.
Keskmised kasutajad saab harjutada tehisintellekti hallutsinatsioonide tuvastamist nende strateegiatega:
- Õigekirja- ja grammatikavigade otsimine.
- Näha, millal päringu kontekst ei ühti vastuse kontekstiga.
- Tunnistades, kui arvutinägemispõhised kujutised ei ühti sellega, kuidas inimsilmad seda kontseptsiooni näevad.
Olge Internetist sisu allalaadimisel alati ettevaatlik, isegi kui seda soovitab AI. Kui tehisintellekt soovitab koodi alla laadida, ärge tehke seda pimesi; kontrollige kõiki arvustusi, veendumaks, et kood on õigustatud, ja vaadake, kas leiate teavet looja kohta.
Parim vastupanu AI hallutsinatsioonipõhiste rünnakute vastu on haridus. Oma kogemustest rääkimine ja lugemine, kuidas teised tekitasid kogemata või tahtliku testimise tõttu pahatahtlikke hallutsinatsioone, on tulevikus tehisintellektiga navigeerimisel hindamatu väärtusega.
AI küberturvalisuse parandamine
Tehisintellektiga rääkides peate olema ettevaatlik, mida küsite. Piirake ohtlike tagajärgede võimalust, olles võimalikult konkreetne ja seadnud kahtluse alla kõik, mis ekraanile ilmub. Testige koodi turvalistes keskkondades ja kontrollige muid usaldusväärsena näivat teavet. Lisaks saate teha koostööd teistega, arutada oma kogemusi ja lihtsustada tehisintellekti puudutavat kõnepruuki hallutsinatsioonid ja küberjulgeolekuohud võivad aidata massidel olla valvsamad ja vastupidavamad häkkerid.