Idee, et tehisintellekti tehnoloogiaid tuleb reguleerida, on levinud arvamus. Enamik valitsusi, AI tootearendajaid ja isegi tavalisi tehisintellektitoodete kasutajaid nõustuvad sellega. Kahjuks on parim viis selle kiiresti kasvava valdkonna reguleerimiseks lahendamata mõistatus.
Kui seda ei kontrollita, võivad AI-tehnoloogiad negatiivselt häirida meie eluviisi ja ohustada meie olemasolu. Kuid kuidas saavad valitsused selle kiiresti areneva valdkonnaga kaasnevate väljakutsete labürindis navigeerida?
1. Andmete privaatsuse ja kaitse eeskirjad
Üks AI-tehnoloogiate peamisi probleeme on andmete privaatsus ja turvalisus. Tehisintellekti süsteemid on andmenäljas masinad. Nad vajavad töötamiseks andmeid, tõhususe tagamiseks rohkem andmeid ja täiustamiseks veelgi rohkem andmeid. Kuigi see pole probleem, on nende andmete hankimise viis, nende olemus ning töötlemine ja salvestamine üks suurimaid kõneainet tehisintellekti eeskirjadega seotud teemadel.
Seda arvestades on loogiline tee kehtestada ranged andmete privaatsusreeglid, mis reguleerivad andmeid kogumine, säilitamine ja töötlemine, samuti üksikisikute õigused – kelle andmeid kasutatakse – juurdepääsuks ja kontrollimiseks nende andmed. Küsimused, mida need määrused tõenäoliselt käsitleksid, on järgmised:
- Milliseid andmeid saab koguda?
- Kas mõningaid privaatseid andmeid tuleks AI-s pidada tabuks?
- Kuidas peaksid tehisintellekti ettevõtted käsitlema tundlikke isikuandmeid, nagu tervisekaardid või biomeetriline teave?
- Kas tehisintellekti ettevõtted peaksid olema kohustatud rakendama mehhanisme, et üksikisikud saaksid taotleda oma isikuandmete hõlpsat kustutamist või parandamist?
- Millised on tagajärjed tehisintellekti ettevõtetele, kes ei järgi andmekaitsereegleid? Kuidas tuleks järgimist jälgida ja kuidas tagada jõustamine?
- Võib-olla kõige olulisem on see, millist standardit peaksid tehisintellekti ettevõtted rakendama, et tagada nende valduses oleva teabe tundliku olemuse ohutus?
Need ja mõned muud küsimused moodustasid tuumiku miks ChatGPT Itaalias ajutiselt keelati. Kui neid probleeme ei lahendata, võib tehisintellekti ruum olla andmete privaatsuse jaoks metsik lääs ja Itaalia keeld võib osutuda teiste riikide keelude malliks kogu maailmas.
2. Eetilise tehisintellekti raamistiku väljatöötamine
Tehisintellekti ettevõtted kiidavad sageli oma pühendumusega tehisintellektisüsteemide arendamisel eetilistele juhistele. Vähemalt paberil on nad kõik vastutustundliku tehisintellekti arendamise pooldajad. Meedias on Google'i juhid rõhutanud, kuidas ettevõte võtab tehisintellekti ohutust ja eetikat tõsiselt. Samamoodi on "Ohutu ja eetiline AI" mantra OpenAI tegevjuhi Sam Altmani jaoks. Need on üsna kiiduväärt.
Aga kes teeb reegleid? Kes otsustab, millised AI eetilised juhised on piisavalt head? Kes otsustab, kuidas turvaline tehisintellekti arendamine välja näeb? Praegu tundub, et igal tehisintellektiettevõttel on vastutustundliku ja eetilise tehisintellekti arendamise osas oma suund. OpenAI, Anthropic, Google, Meta, Microsoft, kõik. Ainuüksi tehisintellekti ettevõtetele õigete toimingute loomine on ohtlik.
The Kontrollimata tehisintellekti ruumi tagajärjed võivad olla katastroofilised. Üksikutel ettevõtetel lastakse otsustada, milliseid eetilisi juhiseid järgida ja millest loobuda, on sarnane uneskõndimisega tehisintellekti apokalüpsisesse. Lahendus? Selge eetiline tehisintellekti raamistik, mis tagab:
- AI-süsteemid ei sea inimesi või teatud rühmi ebaõiglaselt ebasoodsasse olukorda ega diskrimineeri neid rassi, soo või sotsiaalmajandusliku staatuse alusel.
- AI-süsteemid on turvalised, turvalised ja usaldusväärsed ning minimeerivad soovimatute tagajärgede või kahjuliku käitumise riski.
- AI-süsteemid on üles ehitatud tehisintellektitehnoloogiate laiemat ühiskondlikku mõju silmas pidades.
- Et inimesed säilitaksid lõpliku kontrolli tehisintellektisüsteemide ja nende otsuste tegemise üle läbipaistvalt.
- AI-süsteeme piiratakse tahtlikult viisil, mis on inimestele kasulik.
3. Spetsiaalne reguleeriv agentuur
Tänu oma võimalikule mõjule inimtsivilisatsioonile on tehisintellekti ohutuse teemaline arutelu tavaliselt paralleelne tervisekriisi või tuumakatastroofi ohuga. Võimalike tuumaintsidentide vältimiseks on vaja spetsiaalset agentuuri nagu USA NRC (Nuclear Regulatory Commission). Ohtlike tervisekriiside ohu vältimiseks on vaja asutada FDA (Food and Drug Administration)
Samamoodi on vaja selleks, et tehisintellektis asjad valesti ei läheks, FDA ja NRC-ga sarnane spetsiaalne agentuur, kuna tehisintellekt jätkab agressiivset tungimist meie elu kõikidesse valdkondadesse. Kahjuks on riigisiseste tehisintellekti reguleerimise küsimus keeruline. Iga spetsiaalse reguleeriva asutuse töö on ilma piiriülese koostööta tõenäoliselt piinavalt raske. Täpselt nagu USA NRC (Nuclear Regulatory Commission) peab töötama käsikäes rahvusvahelise aatomienergiaga Agentuur (IAEA) oleks oma parimal moel vaja, et iga riigisisene tehisintellekti reguleeriv asutus vajaks rahvusvahelist analoogi.
Selline asutus vastutaks järgmise eest:
- AI regulatsioonide väljatöötamine
- Nõuete täitmise ja jõustamise tagamine
- AI projektide eetilise läbivaatamise protsessi jälgimine
- Tehisintellekti ohutuse ja eetika alane koostöö ja riikidevaheline koostöö
4. Autoriõiguse ja intellektuaalomandiga seotud probleemide käsitlemine
Olemasolevad autoriõiguse seadused ja õigusraamistikud lagunevad tehisintellekti ees. AI-tööriistade, eriti generatiivsete AI-tööriistade kujundamise viis tundub, et need on avalikult kinnitatud autoriõiguste rikkumise masin, millega te ei saa midagi ette võtta.
Kuidas? Noh, paljusid tänapäevaseid tehisintellektisüsteeme koolitatakse autoriõigustega kaitstud materjalide abil. Teate küll, autoriõigustega kaitstud artiklid, autoriõigustega kaitstud laulud, autoriõigusega kaitstud pildid jne. Nii meeldivad tööriistad ChatGPT, Bing AI ja Google Bard suudavad teha neid suurepäraseid asju, mida nad teevad.
Kuigi need süsteemid kasutavad selgelt ära inimeste intellektuaalomandit, on see, kuidas need AI-süsteemid seda teevad ei erine inimesest, kes loeb autoriõigustega kaitstud raamatut, kuulab autoriõigustega kaitstud laule või vaatab autoriõigustega kaitstud lugusid pilte.
Saate lugeda autoriõigustega kaitstud raamatut, õppida sellest uusi fakte ja kasutada neid fakte oma raamatu alusena. Saate kuulata ka autoriõigustega kaitstud lugu, et saada inspiratsiooni oma muusika loomiseks. Mõlemal juhul kasutasite autoriõigustega kaitstud materjale, kuid see ei tähenda tingimata, et tuletistoode rikub originaali autoriõigusi.
Kuigi see on loogiline seletus, et selgitada välja segadus, mille AI teeb autoriõiguse seadustega, kahjustab see siiski autoriõiguste ja intellektuaalomandi omanikke. Seda arvesse võttes on eeskirjad vajalikud, et:
- Määratlege selgelt kõigi tehisintellekti süsteemi elutsükliga seotud osapoolte vastutus ja kohustused. See hõlmab iga osapoole rollide selgitamist tehisintellekti arendajatest lõppkasutajateni, et tagada vastutus osapooled vastutavad AI poolt toime pandud autoriõiguste või intellektuaalomandi rikkumiste eest süsteemid.
- Tugevdada olemasolevaid autoriõiguse raamistikke ja võib-olla võtta kasutusele AI-spetsiifilised autoriõiguse seadused.
- Tehisintellekti ruumi innovatsiooni tagamiseks, kaitstes samal ajal algsete loojate õigusi, on AI määrused peaksid uuesti määratlema õiglase kasutamise ja muutva töö mõisted kontekstis AI loodud sisu. Vaja on selgemaid määratlusi ja juhiseid tagamaks, et tehisintellekti ruum saaks jätkuvalt paraneda, austades samal ajal autoriõiguste piire. Oluline on leida tasakaal innovatsiooni ja sisuloojate õiguste säilitamise vahel.
- Selged teed koostööks õiguste valdajatega. Kui AI-süsteemid nagunii kasutavad inimeste intellektuaalomandit, peaksid tehisintellekti arendajatele ja arendajatele olema selged teed või raamistikud. õiguste omanikud tegema koostööd, eriti rahaliste hüvitiste osas, kui selliste intellektuaalomandite tuletatud töö on kommertsialiseerunud.
AI määrus on hädasti vajalik parandus
Kuigi tehisintellekt on paljudele meie ühiskondlikele probleemidele paljutõotav lahendus, muutub tehisintellekt ise kiiresti probleemiks, mis vajab kiiret lahendust. On aeg astuda samm tagasi, mõtiskleda ja teha vajalikud parandused, et tagada tehisintellekti positiivne mõju ühiskonnale. Vajame hädasti oma lähenemisviisi AI-süsteemide ehitamisele ja kasutamisele kiiresti ümber kalibreerima.