Deepfake tehnoloogiaga võib olla lõbus mängida, kuid selle potentsiaal kahjustada on märkimisväärne. Siin on, mida sügavvõltsingute tulevik tuua võib.

Sügava võltspildi märguandemärke oli varem lihtne märgata, kuid generatiivne AI paneb meid kahtlema peaaegu kõiges, mida praegu näeme ja kuuleme. Iga uue AI-mudeliga, mis välja tuleb, vähenevad võltspildi märguanded ja segaduses, saate nüüd luua sügavalt võltsitud videoid, oma lähedaste häälkloone ja koostada võltsartikleid lihtsalt sekundit.

Selleks, et tehisintellekti süvavõltsingud teid ei petaks, tasub teada, milliseid ohte need endast kujutavad.

Sügavate võltsingute areng

Deepfake näitab, et inimene teeb midagi, mida päriselus pole kunagi juhtunud. See on täiesti võlts. Me naerame sügavate võltsingute üle, kui neid meemi või naljana Internetis jagatakse, kuid väga vähesed inimesed peavad seda naljakaks, kui neid harjutakse meid eksitama.

Varem loodi süvavõltsinguid olemasoleva foto tegemise ja selle pilditöötlustarkvaras, näiteks Photoshopis, muutmise teel. Kuid tehisintellekti süvavõltsimise eristab see, et seda saab süvaõppe algoritme kasutades nullist genereerida.

instagram viewer

The Merriam-Websteri sõnastik defineerib sügava võltsi kui:

Kujutis või salvestis, mida on veenvalt muudetud ja manipuleeritud, et anda kellelegi vale ettekujutus, et ta teeb või ütleb midagi, mida tegelikult ei tehtud või öeldud.

Kuid tehisintellekti tehnoloogia arenguga hakkab see määratlus vananenud tunduma. AI-tööriistade kasutamisega hõlmavad süvavõltsingud nüüd pilte, teksti, videoid ja hääle kloonimist. Mõnikord kasutatakse kõiki nelja AI genereerimise režiimi korraga.

Kuna see on automaatne protsess, mida on uskumatult kiire ja odav kasutada, on see ideaalne tööriist väljapressimiseks sügavvõltsimised kiirusega, mida me pole kunagi varem näinud – seda kõike ilma, et oleks vaja teada fotode, videote või heli.

AI Deepfakesi suured ohud

Võõrustaja AI videogeneraatorid paljude kõrval juba olemas AI häälegeneraatorid. Viska sisse a suur keelemudel nagu GPT-4 ja teil on retsept kõige usutavamate süvavõltsingute loomiseks, mida oleme tänapäeva ajaloos seni näinud.

Üks viis eksitamise vältimiseks on teadlikkus erinevatest tehisintellekti süvavõltsingutest ja sellest, kuidas neid võidakse teie petmiseks kasutada. Siin on vaid mõned tõsised näited selle kohta, kuidas tehisintellekti süvavõltsitud tehnoloogia kujutab endast tõelist ohtu.

1. AI identiteedivargus

Võib-olla olete neid näinud. Esimeste tõeliselt viiruslike tehisintellekti süvavõltsingute hulgas, mis üle maailma levisid, olid pilt Donald Trumpi arreteerimisest ja üks paavst Franciscusest valges puhvis jopes.

Kuigi tundub, et see on süütu kujutluspilt sellest, mida kuulus usutegelane võib jahedal Rooma päeval selga panna; teisel pildil, mis kujutab poliitilist tegelast seadusega tõsises olukorras, on palju suuremad tagajärjed, kui seda tõena võtta.

Seni on inimesed tehisintellekti süvavõltsinguid luues võtnud sihikule peamiselt kuulsused, poliitikud ja teised kuulsad isikud. Osaliselt on põhjuseks see, et kuulsatel isikutel on Internetis neist palju fotosid, mis tõenäoliselt aitasid modelli koolitada.

Tehisintellekti kujutise generaatori nagu Midjourney puhul – mida kasutatakse nii Trumpi kui ka paavsti süvavõltsimises – peab kasutaja lihtsalt sisestama teksti, mis kirjeldab seda, mida ta näha soovib. Kunstistiili (nt foto või fotorealism) määramiseks saab kasutada märksõnu ning tulemusi saab eraldusvõimet suurendades täpsustada.

Saate sama lihtsalt õppida kasutama Midjourney'i ja katsetage seda ise, kuid ilmselgetel moraalsetel ja juriidilistel põhjustel peaksite vältima nende piltide avalikku postitamist.

Kahjuks ei taga see, et olete keskmine, mittekuulus inimene, et olete kaitstud tehisintellekti süvavõltsingute eest.

Probleem seisneb tehisintellekti kujutise generaatorite pakutavas võtmefunktsioonis: võimaluses oma pilti üles laadida ja seda AI-ga manipuleerida. Ja selline tööriist nagu Värvimine DALL-E 2-s saab laiendada olemasolevat pilti väljapoole selle piire, sisestades tekstiviipa ja kirjeldades, mida veel soovite luua.

Kui keegi teine ​​teeks seda teie fotodega, võivad ohud olla oluliselt suuremad kui valges jopes paavsti võltsing – nad võivad seda kasutada kõikjal, teeseldes, et olete teie. Kuigi enamik inimesi kasutab tehisintellekti üldiselt heade kavatsustega, on väga vähe piiranguid, mis takistavad inimestel seda kahju tekitamiseks kasutada, eriti identiteedivarguse korral.

2. Deepfake Voice Clone petturid

AI abil on sügavad võltsingud ületanud piiri, milleks enamik meist polnud valmis: võltshäälekloonid. Vaid väikese hulga originaalheliga – võib-olla kunagi postitatud TikToki videost või YouTube’i videost, milles esinete –, suudab tehisintellekti mudel kopeerida teie ainuhäält.

On ühtaegu kummaline ja hirmutav ette kujutada, et saate telefonikõne, mis kõlab nagu pereliikme, sõbra või kolleegi kõne. Deepfake häälekloonid on piisavalt tõsine probleem, et Föderaalne kaubanduskomisjon (FTC) on selle kohta hoiatuse teinud.

Ära usalda häält. Helistage isikule, kes teiega väidetavalt ühendust võttis, ja kinnitage lugu. Kasutage telefoninumbrit, mille kohta teate, et see on nende oma. Kui te ei saa oma kallimaga ühendust, proovige temaga ühendust saada mõne teise pereliikme või tema sõprade kaudu.

Washington Post teatas juhtum 70ndates eluaastates paarist, kes sai telefonikõne kelleltki, kes kõlas täpselt nagu nende lapselaps. Ta oli vanglas ja vajas kiiresti kautsjoniks raha. Kuna neil polnud muud põhjust kahelda, kellega nad rääkisid, läksid nad edasi ja andsid raha petturile üle.

Samuti pole ohus mitte ainult vanem põlvkond, The Guardian teatas järjekordne näide pangajuhist, kes kiitis heaks 35 miljoni dollari suuruse tehingu pärast mitmeid "sügavalt võltsitud kõnesid" kelleltki, keda nad arvasid olevat pangadirektor.

3. Masstoodetud võltsuudised

Suured keelemudelid, nagu ChatGPT suudavad väga-väga hästi luua teksti, mis kõlab nagu inimene, ja meil pole praegu tõhusaid tööriistu erinevuse tuvastamiseks. Valedes kätes on võltsuudiste ja vandenõuteooriate tootmine odav ja nende ümberlükkamine võtab kauem aega.

Väärinformatsiooni levitamine pole muidugi midagi uut, vaid uurimistöö avaldatud arXiv jaanuaris 2023 selgitab, et probleem seisneb selles, kui lihtne on tehisintellekti tööriistadega väljundit suurendada. Nad nimetavad seda "AI-loodud mõjutuskampaaniateks", mida nende sõnul võivad poliitikud kasutada näiteks oma poliitiliste kampaaniate sisseostmiseks.

Rohkem kui ühe tehisintellekti loodud allika kombineerimine loob kõrgetasemelise süvavõltsimise. Näiteks võib tehisintellekti mudel genereerida hästi kirjutatud ja veenva uudise, mis läheks kõrvuti Donald Trumpi vahistamise võltspildiga. See annab sellele rohkem legitiimsust kui siis, kui pilti jagataks eraldi.

Võltsuudised ei piirdu ka piltide ja kirjutamisega, AI-videote genereerimise areng tähendab, et näeme üha rohkem sügavvõltsitud videoid. Siin on üks Robert Downey juunioridest, mis on poogitud Elon Muski videole, mille postitas YouTube'i kanal Deepfakery.

Deepfake'i loomine võib olla sama lihtne kui rakenduse allalaadimine. Võite kasutada rakendust nagu TokkingHeads, et muuta pildid animeeritud avatarideks, mis võimaldab teil üles laadida oma pildi ja heli, et jätta mulje, nagu inimene räägiks.

Enamasti on see lõbus ja lõbus, kuid samas on ka probleeme. See näitab meile, kui lihtne on kasutada kellegi pilti, et jätta mulje, nagu see inimene lausuks sõnu, mida ta pole kunagi rääkinud.

Ärge laske tehisintellekti süvavõltsingust end petta

Süvavõltsinguid saab kiiresti kasutusele võtta väga väikeste kuludega ja vähese oskusteabe või arvutusvõimsusega. Need võivad olla loodud kujutise, hääleklooni või AI-ga loodud piltide, heli ja teksti kombinatsioonina.

Varem oli sügavvõltsingute loomine palju keerulisem ja töömahukam, kuid nüüd, kus on palju AI-rakendusi, on peaaegu kõigil juurdepääs tööriistadele, mida kasutatakse sügavate võltsingute loomiseks. Kuna tehisintellekti süvavõltsimistehnoloogia areneb üha arenenumaks, tasub sellega kaasnevatel ohtudel tähelepanelikult silma peal hoida.