Võib-olla olete kuulnud tehisintellekti ja masinõppega seotud võistlevatest rünnakutest, kuid mis need on? Mis on nende eesmärgid?

Tehnoloogia tähendab sageli, et meie elu on mugavam ja turvalisem. Samal ajal on sellised edusammud aga avanud küberkurjategijatele keerukamaid viise meid rünnata ja meie turvasüsteeme rikkuda, muutes need jõuetuks.

Tehisintellekti (AI) saavad kasutada nii küberjulgeoleku spetsialistid kui ka küberkurjategijad; samamoodi saab masinõppe (ML) süsteeme kasutada nii hea kui kurja jaoks. See moraalse kompassi puudumine on muutnud võistlevad rünnakud ML-is kasvavaks väljakutseks. Mis siis tegelikult on võistlevad rünnakud? Mis on nende eesmärk? Ja kuidas saate nende eest kaitsta?

Mis on masinõppes võistlevad rünnakud?

Võistlevad ML või võistlevad rünnakud on küberrünnakud, mille eesmärk on petta ML-mudelit pahatahtliku sisendiga ja viia seega madalama täpsuse ja halva jõudluseni. Seega, vaatamata nimele, ei ole võistlev ML masinõppe tüüp, vaid mitmesugused tehnikad, mida küberkurjategijad ehk vastased kasutavad ML-süsteemide sihtimiseks.

instagram viewer

Selliste rünnete peamine eesmärk on tavaliselt petta modelli tundlikku teavet edastama, petturlike tegevuste tuvastamata jätmine, valede prognooside tegemine või analüüsipõhise rikkumine aruanded. Kuigi võistlevaid ründeid on mitut tüüpi, on need sageli suunatud sügavale õppimispõhisele rämpspostituvastusele.

Olete ilmselt kuulnud an vastase-keskrünnak, mis on uus ja tõhusam keerukas andmepüügitehnika, mis hõlmab privaatse teabe vargust, seansiküpsiseid ja isegi mitmefaktorilise autentimise (MFA) meetoditest möödahiilimist. Õnneks saate nendega võidelda andmepüügikindel MFA tehnoloogia.

Võistlevate rünnakute tüübid

Lihtsaim viis võistlevate rünnakute liigitamiseks on jagada need kahte põhikategooriasse –suunatud rünnakud ja sihipärased rünnakud. Nagu soovitatakse, on sihitud rünnakutel konkreetne sihtmärk (nagu konkreetne inimene), samas kui sihtimata rünnakutel pole kedagi konkreetset silmas peetud: need võivad sihtida peaaegu kõiki. Pole üllatav, et sihitud rünnakud on vähem aeganõudvad, kuid ka vähem edukad kui nende sihitud kolleegid.

Neid kahte tüüpi saab veelgi jagada valge kast ja must kast võistlevad rünnakud, kus värv viitab teadmistele või teadmiste puudumisele sihitud ML-mudeli kohta. Enne kui sukeldume põhjalikumalt valge kasti ja musta kasti rünnakutesse, vaatame lühidalt kõige levinumaid võistlevate rünnakute liike.

  • Kõrvalehoidmine: Enamasti ründevarastsenaariumide puhul kasutatavad kõrvalehoidmisrünnakud püüavad avastamisest kõrvale hiilida, varjates pahavaraga nakatunud ja rämpsposti kirjade sisu. Katse-eksituse meetodit kasutades manipuleerib ründaja juurutamise ajal andmetega ja rikub ML-mudeli konfidentsiaalsust. Biomeetriline võltsimine on üks levinumaid näiteid kõrvalehoidmise rünnakust.
  • Andmemürgitus: Tuntud ka kui saastavad rünnakud, nende eesmärk on manipuleerida ML-mudeliga koolituse või juurutamise ajal ning vähendada täpsust ja jõudlust. Pahatahtlike sisendite sisseviimisega rikuvad ründajad mudelit ja muudavad turbespetsialistide jaoks raskeks tuvastada, millist tüüpi näidisandmeid rikuvad ML-mudelit.
  • Bütsantsi vead: seda tüüpi rünnak põhjustab süsteemiteenuse kadumise Bütsantsi rikke tõttu süsteemides, mis nõuavad kõigi sõlmede konsensust. Kui üks selle usaldusväärsetest sõlmedest muutub petturlikuks, võib see katkestada teenuse keelamise (DoS) rünnaku ja sulgeda süsteemi, takistades teistel sõlmedel suhelda.
  • Mudeli väljavõtmine: Väljavõtmisrünnaku korral uurib vastane musta kasti ML-süsteemi, et eraldada selle treeningandmed või halvimal juhul mudeli ise. Seejärel, kui vastane on käes ML-mudeli koopia, saaks oma pahavara testida pahavara-/viirusetõrje vastu ja välja mõelda, kuidas sellest mööda minna.
  • Järelduste rünnakud: Nagu ekstraheerimisrünnakute puhul, on ka siin eesmärk panna ML-mudel lekkima teavet oma treeningandmete kohta. Seejärel proovib vastane aga välja selgitada, millist andmekogumit süsteemi treenimiseks kasutati, et nad saaksid ära kasutada selle turvaauke või eelarvamusi.

Valge kast vs. Must kast vs. Halli kasti vastaste rünnakud

Neid kolme tüüpi võistlevaid rünnakuid eristab see, kui palju vastastel on teadmised nende ML-süsteemide töö kohta, mida nad kavatsevad rünnata. Kuigi valge kasti meetod nõuab ammendavat teavet sihitud ML-mudeli kohta (sealhulgas selle arhitektuur ja parameetrid), musta kasti meetod ei nõua teavet ja saab seda ainult jälgida väljundid.

Halli kasti mudel on vahepeal nende kahe äärmuse keskel. Selle kohaselt võib vastastel olla teavet andmekogumi kohta või muid üksikasju ML-mudeli kohta, kuid mitte kogu seda.

Kuidas kaitsta masinõpet võistlevate rünnakute eest?

Kuigi inimesed on endiselt küberturvalisuse tugevdamise otsustava tähtsusega komponent,AI ja ML on õppinud pahatahtlikke rünnakuid tuvastama ja ära hoidma— need võivad suurendada pahatahtlike ohtude tuvastamise, kasutajate tegevuse jälgimise, kahtlase sisu tuvastamise ja palju muu täpsust. Kuid kas nad suudavad tõrjuda võistlevaid rünnakuid ja kaitsta ML-mudeleid?

Üks viis küberrünnakute vastu võitlemiseks on koolitada ML-süsteeme võistlevaid rünnakuid enne tähtaega ära tundma, lisades nende koolitusprotseduuri näiteid.

Erinevalt sellest toore jõu lähenemisviisist soovitab kaitsev destilleerimismeetod kasutada primaarset ja tõhusamat mudelit. välja selgitada sekundaarse, vähem tõhusa mudeli kriitilised omadused ja seejärel parandada sekundaarse mudeli täpsust esmase mudeliga üks. Kaitsva destilleerimisega treenitud ML-mudelid on konkureerivate proovide suhtes vähem tundlikud, mis muudab need ekspluateerimisele vähem vastuvõtlikuks.

Samuti saaksime pidevalt muuta algoritme, mida ML-mudelid andmete klassifitseerimiseks kasutavad, mis võib muuta võistlevad rünnakud vähem edukaks.

Veel üks tähelepanuväärne tehnika on funktsioonide pigistamine, mis vähendab vastastele saadaolevat otsinguruumi, "pigistades välja" mittevajalikud sisestusfunktsioonid. Siin on eesmärk minimeerida valepositiivseid tulemusi ja muuta võistlevate näidete tuvastamine tõhusamaks.

Masinõppe ja tehisintellekti kaitsmine

Võistlevad rünnakud on meile näidanud, et paljud ML-mudelid võivad üllataval viisil puruneda. Lõppude lõpuks on võistlev masinõpe küberjulgeoleku valdkonnas endiselt uus uurimisvaldkond ning sellega kaasnevad AI ja ML jaoks palju keerulisi probleeme.

Kuigi nende mudelite kaitsmiseks kõigi vastastikku mõjuvate rünnakute eest pole maagilist lahendust, tulevik toob tõenäoliselt kaasa arenenumad tehnikad ja nutikamad strateegiad selle kohutava probleemiga toimetulemiseks vastane.