Kas autentset kunsti saab tõesti AI eest kaitsta? Loomingud tunduvad üha jõuetumad.
Generatiivsed AI-tööriistad, nagu Midjourney ja Stable Diffusion, toodavad üha veenvamaid visuaale. Ometi toetuvad nad oma sisu loomiseks tohututele loominguliste tööde andmebaasidele. Siinkohal võite mõelda, kas on võimalik oma tööd AI-tööriistade eest kaitsta, ja vastus on: see on keeruline.
Generatiivsed AI-tööriistad kasutavad masinõppemudeleid, mis on koolitatud tegema toiminguid, kasutades suuri andmekogumeid. Oletame, et räägime AI-kujutise generaatorist nagu Midjourney. Sel juhul hõlmavad koolituseks kasutatavad andmestikud miljardeid pildi- ja tekstipaare – alates legendaarsete kunstnike, nagu Picasso, töödest kuni pro- ja amatöörloojateni.
AI kunstigeneraatorid kasutavad neid meediumi-teksti sidumisi visuaalse sisu loomiseks vastuseks kasutaja tekstiviipadele. Põhimõtteliselt kasutavad nad olemasolevate kunstnike tööd ja sobitavad mustreid tekstipaaridega (sotsiaalpostitused, pealdised, alternatiivtekst jne), et kasutajad saaksid luua uusi visuaalid sellistelt viipadelt nagu "tähine öötaevas Vincent van Goghi stiilis" või "neo-noir-stseen 1950. aastate kesklinnas viskit joovast detektiivist LA”.
Miks on nii paljud kunstnikud ärritunud?
Loominguliste suurim kaebus on see, et generatiivsed AI-tööriistad kasutavad nende tööd ilma loata. Nad ei kasuta oma tööd lihtsalt algoritmide koolitamiseks.
Turundusjutt generatiivsest tehisintellektist viitab sellele, et need tööriistad loovad ainulaadset sisu, kuid nad seda ei tee. Mida nad tegelikult teevad, on mitmete kunstiteoste andmete kombineerimine ja liitmine, et luua midagi, mis vastab kasutaja viipale.
Mõiste AI genereerimine ise on eksitav. AI replikatsioon oleks täpsem ja nende tööriistade trikk on see, et nad kopeerivad suuri kunstiteoseid ja segavad neid kokku.
Generatiivsed AI-tööriistad on loodud reklaamide asendamiseks ja nad teevad seda oma kunstiteoseid kasutades. Ja nagu see poleks piisavalt halb, teeb enamik AI tööriistu seda kõike luba küsimata, hüvitist pakkumata või isegi algseid loojaid tunnustamata.
Kahjuks on ainus viis takistada AI-tööriistadel teie sisule juurde pääsemast mitte midagi veebis avaldada. See võib tunduda ekstreemne, kuid see on reaalsus. Muidugi saate kasutada oma veebisaidil olevat faili robots.txt blokeerida AI tööriistad teie veebisaiti kraapimast, või kaitsta oma pilte AI eest koolituse andmekogumitest loobumisega, kuid neil meetoditel on mitmeid piiranguid.
Esiteks on failis robots.txt olevad käsud soovituslikud, mis tähendab, et saitidel pole juriidilist kohustust järgida. Teiseks peaksite blokeerima sellisel ettevõttel nagu Google teie veebisaidil roomamise, mis on põhimõtteliselt SEO enesetapp. Ja lõpuks, fail robots.txt annab teile ainult (piiratud) kontrolli teie veebisaidile juurdepääsu üle, see ei kaitse midagi, mida avaldate mujal: sotsiaalmeedias, pilveteenustes jne.
Loominguliste inimeste kahjuks läheb maastik enne paremaks muutumist halvemaks.
Google'i privaatsuspoliitika võib tähendada, et see kasutab AI algoritmide koolitamiseks kogu veebisisu
2023. aasta juulis värskendas Google oma privaatsuspoliitikat, öeldes, et kasutab veebisisu oma tehisintellektisüsteemide (sh Brad, Google Translate ja teised) koolitamiseks. Google kasutab väljendit "avalikult juurdepääsetavad allikad". Siin on tsitaat, mis pärast värskendust mõne häirekella äratas:
„Näiteks võime abistamiseks koguda teavet, mis on veebis või muudest avalikest allikatest avalikult kättesaadav koolitada Google'i AI mudeleid ning luua tooteid ja funktsioone, nagu Google'i tõlge, Bard ja Cloud AI võimalused. – Google'i privaatsuspoliitika
Teisisõnu, Google ütleb nüüd, et kõik, mida veebis avaldate, on haaratav. Vähemalt teeb Google oma privaatsuspoliitika värskenduste võrdlemise lihtsaks, tuues esile kõige värskemad muudatused.
Nagu näete, on sõnastuse muudatused üsna peened, kuid tagajärjed on märkimisväärsed. Varem olid Google'i keelemudelite peamised funktsioonid otsingupäringute tõlgendamine ja teksti tõlkimine teistesse keeltesse.
Nüüd ütleb ettevõte, et võib kasutada kõiki avalikult juurdepääsetavaid allikaid, et koolitada oma täielikku AI mudelite komplekti. See hõlmab selle generatiivset AI-süsteemi Bard ja laieneb keelemudelitest kaugemale, hõlmates kõiki Google'i tehisintellekti tööriistu/funktsioone – kõige ilmsem näide on piltide genereerimine.
Sotsiaalsed võrgustikud saavad kasutada mis tahes sisu, mille nende platvormidel avaldate
Metal on ka piiramatu juurdepääs kõigele, mis on avaldatud Facebookis, Instagramis ja Threadsis. See on sotsiaalplatvormide tavapärane tava, kui loete T&C-sid. Niipea, kui laadite midagi sotsiaalvõrgustikku, on neil õigus seda soovitud viisil kasutada ja taaskasutada.
Piisavalt sotsiaalsed kasutajad on leidnud ettevõtteid, kes kasutavad nende pilte reklaamides ilma loata, sealhulgas reklaamid. Kahjuks on teil õnnetu, kui see ettevõte juhtub olema suhtlusvõrgustik, kuhu pildi üles laadisite, võrgustiku emaettevõte või mõni muu samale emaettevõttele kuuluv bränd.
Enamiku inimeste jaoks on tõenäosus, et platvorm nagu Instagram kasutab mõnda nende pilti reklaamikampaania jaoks, tõsiselt väike. Siiski kasutab Meta peaaegu kindlasti teie pilte, videoid ja postitusi oma AI-algoritmide treenimiseks.
Sellised teenused nagu Adobe võivad pääseda juurde ja kasutada teie tööd oma algoritmide koolitamiseks
2023. aasta jaanuaris kippus Adobe oma T&C-i värskendama. Keel näis vihjavat, et Adobe võiks kasutada oma AI-algoritmide koolitamiseks pilte, mille fotograafid on oma pilveteenustesse üles laadinud.
Konkreetne sõnastus oli järgmine:
"Adobe võib teie sisu analüüsida selliste tehnikate abil nagu masinõpe (nt mustrituvastuseks), et arendada ja täiustada meie tooteid ja teenuseid."
Asja teeb hullemaks see, et Adobe valis kasutajad automaatselt selle sisuanalüüsi süsteemi, mis tähendab, et nad pidid selle oma konto seadetes käsitsi välja lülitama. Arusaadavalt ei vastanud loojad liiga sõbralikult ja Adobe õhutas tuld sellega, et ei vastanud algselt kriitikale.
Nädalapäevad hiljem teatas Adobe, et tema generatiivsete AI-tööriistade koolitamiseks ei kasutata kliendiandmeid. Ettevõte nimetas juhtunut äratuskõneks ja lubas kõik segadused kõrvaldada, muutes oma poliitika sõnastuse täpsemaks.
Mõlemal juhul jääb faktiks, et kui Adobe soovib oma tehisintellektisüsteemide koolitamiseks kasutada kliendiandmeid, keegi ei saa selle vastu midagi teha – peale boikoteerimise. Samal ajal hangib Adobe kuskilt oma andmeid selliste tööriistade jaoks nagu Generative Fill, nii et ta kasutab ühel või teisel viisil kunstnike tööd.
Tehnikaettevõtetel on teie andmetele peaaegu piiramatu juurdepääs... praeguseks
Praegusel ajal on tehnoloogiahiiglastel, nagu Google ja Meta, peaaegu piiramatu juurdepääs reklaamide andmetele. Kontroll nende kasutajaandmete käitlemise üle on peaaegu sama vana kui Internet, kuid privaatsuseeskirjad on endiselt järele jõudmas.
Euroopa Liidul kulus selle rakendamiseks kuni 2018. aastani GDPR privaatsusjuhised ja nad on kasutajaandmete kaitsmiseks vähe teinud.
Generatiivne AI on täiesti uus miiniväli, millel pole peaaegu mingeid eeskirju, mis piiraksid tehnoloogiaettevõtete tegevust selles valdkonnas. Praegu saavad ettevõtted, nagu Google ja OpenAI, meie andmetega teha peaaegu kõike, mida nad tahavad, ja see ei muutu niipea.
Lõppkokkuvõttes on kunstnike AI eest kaitsmiseks vaja kohtuasju ja määrusi
Kuni generatiivne tehisintellekt ja selle juurdepääs kasutajaandmetele pole reguleeritud, on reklaamid peaaegu võimetud tehnoloogiat peatama. Kõige tõenäolisem stsenaarium oleks autoriõiguse seaduste muudatused või potentsiaalselt uued loomeomandiga seotud andmekaitsemeetmed. Mõlemal juhul võtab uute eeskirjade kasutuselevõtt ja seejärel jõustamine kaua aega.
Loominguliste jaoks on oluline, et generatiivse tehisintellekti vastu algatatud kohtuasjad kuhjuvad kiiresti ja see võib kiirendada juriidilist reageerimist. Halb uudis on see, et mõnel asjaomastel tehnoloogiaettevõtetel on seaduslikud vahendid, et need juhtumid läbi viia kõige aeganõudvamate nõuetekohaste menetluste kaudu.
Vahepeal jäävad AI-kunsti põlvkonna kohal rippuvad eetilised küsimused.