Tehisintellekt võib kõlada nagu president. Või võib see kõlada nagu sina või mina. Millist küberjulgeoleku ohtu kujutab endast tehisintellekti hääle kloonimise tarkvara?

Tehisintellekt (AI) on võimas tehnoloogia, mis tõotab meie elu muuta. Kunagi pole see olnud nii selge kui täna, kui võimsad tööriistad on kättesaadavad kõigile, kellel on Interneti-ühendus.

See hõlmab tehisintellekti häälegeneraatoreid, täiustatud tarkvara, mis on võimeline jäljendama inimkõnet nii pädevalt, et nende kahe vahel on võimatu vahet teha. Mida see küberjulgeoleku jaoks tähendab?

Kuidas AI-häälegeneraatorid töötavad?

Kõnesüntees, inimkõne kunstliku tootmise protsess, on eksisteerinud aastakümneid. Ja nagu kogu tehnoloogia, on see aastate jooksul läbi teinud põhjalikud muutused.

Need, kes on kasutanud opsüsteemi Windows 2000 ja XP, võivad mäletada Microsoft Sami, operatsioonisüsteemi vaiketekst kõneks muutvat meestehäält. Microsoft Sam sai töö tehtud, kuid selle tekitatud helid olid robotlikud, jäigad ja ebaloomulikud. Meie käsutuses olevad tööriistad on palju arenenumad, seda suuresti tänu sügavale õppimisele.

Süvaõpe on a masinõppe meetod mis põhineb kunstlikel närvivõrkudel. Nende närvivõrkude tõttu on kaasaegne tehisintellekt võimeline töötlema andmeid peaaegu nii, nagu inimese aju neuronid tõlgendavad teavet. See tähendab, et mida inimlikumaks muutub tehisintellekt, seda paremini suudab see inimkäitumist jäljendada.

Lühidalt öeldes töötavad tänapäevased AI-häälegeneraatorid. Mida rohkem kõneandmeid nad kokku puutuvad, seda osavamaks nad inimkõnet jäljendavad. Selle tehnoloogia suhteliselt hiljutiste edusammude tõttu suudab nüüdisaegne teksti kõneks muutmise tarkvara sisuliselt kopeerida talle edastatavaid helisid.

Kuidas ohunäitlejad AI häälegeneraatoreid kasutavad

Pole üllatav, et ohus osalejad kuritarvitavad seda tehnoloogiat. Ja mitte ainult küberkurjategijad selle sõna tüüpilises tähenduses, vaid ka desinformatsiooni agendid, petturid, musta mütsi turundajad ja trollid.

Hetkel, kui ElevenLabs 2023. aasta jaanuaris oma teksti kõneks muutmise tarkvara beetaversiooni välja andis, hakkasid paremäärmuslikud trollid teadetetahvlil 4chan seda kuritarvitama. Täiustatud tehisintellekti kasutades reprodutseerisid nad selliste isikute hääli nagu David Attenborough ja Emma Watson, mistõttu tundus, et kuulsused korraldavad alatuid ja vihkavaid tiraadi.

Nagu Vice ElevenLabs tunnistas toona, et inimesed kuritarvitavad selle tarkvara, eriti hääle kloonimist. See funktsioon võimaldab igaühel "kloonida" teise inimese häält; kõik, mida pead tegema, on üles laadida üheminutiline salvestis ja lasta tehisintellektil ülejäänu teha. Eeldatavasti, mida pikem on salvestus, seda parem on väljund.

Märtsis 2023 köitis tähelepanu viiruslik TikToki video New York Times. Videos kuulsid kuulsat taskuhäälingusaatjat Joe Roganit ja dr Andrew Hubermanit, kes on The Joe Rogan Experience'i sage külaline, arutlemas "libiidot tõstva" kofeiinijoogi üle. Videost jäi mulje, nagu toetaksid nii Rogan kui ka Huberman toodet ühemõtteliselt. Tegelikkuses klooniti nende hääled AI abil.

Umbes samal ajal kukkus Californias Santa Claras asuv Silicon Valley pank riskijuhtimise vigade ja muude probleemide tõttu kokku ning selle võttis üle osariigi valitsus. Tegemist oli suurima panga pankrotiga Ameerika Ühendriikides pärast 2008. aasta finantskriisi, mistõttu saatis see šokilaineid üle maailma.

Paanikale aitas kaasa USA presidendi Joe Bideni võltsitud helisalvestis. Ilmselt kuuldi salvestusel Bidenit hoiatamas peatse "kokkuvarisemise" eest ja käskimas oma administratsiooni "kasutada kogu meedia jõudu avalikkuse rahustamiseks". Faktikontrollijatele meeldib PolitiFact tegid klipi kiiresti lahti, kuid tõenäoliselt olid miljonid seda selleks hetkeks kuulnud.

Kui AI häälgeneraatoreid saab kasutada kuulsuste kehastamiseks, saab neid kasutada ka tavaliste inimestena ja just seda on küberkurjategijad teinud. Vastavalt ZDNet, langevad tuhanded ameeriklased pettuste alla, mida tuntakse kui vishing või andmepüügi hääl iga aasta. Üks vanem paar jõudis 2023. aastal üleriigilistesse uudistesse, kui neile helistas oma "lapselaps", kes väitis, et on vanglas ja palus raha.

Kui olete kunagi YouTube'i video üles laadinud (või selles esinenud), osalesite suures grupikõnes inimestega, keda te ei ole Kui teate või laadisite oma hääle Internetti üles, võite te või teie lähedased teoreetiliselt ohus olla. Mis takistaks petturil teie häält tehisintellekti generaatorisse üles laadimast, seda kloonimast ja teie perega ühendust võtmast?

AI häälegeneraatorid häirivad küberturvalisuse maastikku

Ei ole vaja küberjulgeolekueksperti, et mõista, kui ohtlik võib tehisintellekt olla valedes kätes. Ja kuigi on tõsi, et sama võib öelda kogu tehnoloogia kohta, on AI ainulaadne oht mitmel põhjusel.

Esiteks on see suhteliselt uus, mis tähendab, et me ei tea tegelikult, mida sellelt oodata. Kaasaegsed AI-tööriistad võimaldavad küberkurjategijatel oma tegevusi enneolematul viisil skaleerida ja automatiseerida, kasutades samas ära avalikkuse suhtelist teadmatust selles küsimuses. Samuti võimaldab generatiivne tehisintellekt väheste teadmiste ja oskustega ohus osalejatel seda teha luua pahatahtlikku koodi, luua petusaite, levitada rämpsposti, kirjutada andmepüügimeile, luua realistlikke pilteja toota lõputult tunde võltsitud heli- ja videosisu.

Oluline on see, et see toimib mõlemal viisil: AI-d kasutatakse ka süsteemide kaitsmiseks ja tõenäoliselt veel aastakümneid. Poleks põhjendamatu eeldada, et meid ootab ees omamoodi AI võidurelvastumine küberkurjategijate vahel ja küberjulgeolekutööstus, kuna nende tööriistade kaitse- ja ründevõime on oma olemuselt võrdne.

Tavainimese jaoks nõuab laialt levinud generatiivse tehisintellekti tulek radikaali turvatavade ümbermõtestamine. Nii põnev ja kasulik kui tehisintellekt ka poleks, võib see vähemalt hägustada piiri tegeliku ja selle vahel ei ole ja halvemal juhul süvendab olemasolevaid turvaprobleeme ja loob ohus osalejatele uut manööverdamisruumi sisse.

Häälegeneraatorid näitavad AI hävitavat potentsiaali

Niipea, kui ChatGPT turule jõudis, tõusid kõnelused AI reguleerimise üle. Iga katse seda tehnoloogiat piirata eeldaks tõenäoliselt rahvusvahelist koostööd määral, mida me pole aastakümneid näinud, mis muudab selle ebatõenäoliseks.

Džinn on pudelist väljas ja parim, mida saame teha, on sellega harjuda. Seda ja loodan, et küberjulgeolekusektor kohaneb vastavalt.