AI areng liigub kiiresti edasi, kuid kes peaks juhendama tehisintellekti ja selle mõju maailmale?
Võtmed kaasavõtmiseks
- AI vajab rangemat järelevalvet, kuna küberturvalisuse haavatavused ja privaatsusprobleemid ilmnevad jätkuvalt.
- Valitsusel, tehnoloogiaettevõtetel ja lõppkasutajatel on AI reguleerimisel oma roll, kuid igal lähenemisviisil on oma piirangud.
- Tehisintellekti reguleerimisse panustavad ka meediaväljaanded, mittetulundusühingud, tehnoloogiatööstuse ühendused, akadeemilised institutsioonid ja õiguskaitseorganid.
Üldsusel on tehisintellekti suhtes erinevad seisukohad – mõned usuvad, et masinad asendavad täielikult inimtöölisi, samas kui teised väidavad, et tehisintellekt on moeröögatus. Üks asi, millega kõik nõustuvad, on see, et AI vajab rangemat järelevalvet.
Vaatamata tehisintellekti reguleerimise tähtsusele on see koolitusel tagaplaanile jäänud. Arendajad on suuruselt järgmise AI mudeli loomisest nii kinnisideeks, et kauplevad küberturvalisusega kiireks edasiminekuks. Küsimus pole selles, kas AI vajab reguleerimist; see on see, milline juhtorgan, kellel on piisav rahastamine, inimressursid ja tehnoloogiline suutlikkus, võtab initsiatiivi.
Niisiis, kes peaks AI-d reguleerima?
Valitsusorganid
Erinevad inimesed, tarbijatest kuni tehnoloogiajuhid, loodan, et valitsus reguleerib tehisintellekti. Riiklikult rahastatavatel asutustel on selleks vahendid. Isegi Elon Musk ja Sam Altman, kaks peamist tehisintellekti võidusõitu, usuvad, et mõned AI-ga seotud privaatsusprobleemid on juhtorganitele liiga ohtlikud, et neid tähelepanuta jätta.
Tehisintellekti reguleerimise ülevõtmisel peaks valitsus keskenduma oma valijate privaatsuse ja kodanikuvabaduste kaitsmisele. Küberkurjategijad leiavad pidevalt viise, kuidas oma skeemides tehisintellektisüsteeme ära kasutada. Inimesi, kes ei tunne tehisintellektiga hästi, võivad sünteesitud hääled, võltsitud videod ja robotiga juhitavad võrguprofiilid kergesti petta saada.
Tehisintellekti reguleeriva valitsuse üks peamisi probleeme on aga see, et see võib innovatsiooni tahtmatult lämmatada. AI on keeruline ja arenev tehnoloogia. Kui juurutamist, arendust ja koolitusjuhiseid jälgivad ametnikud ei mõista tehisintellekti toimimist, võivad nad teha ennatlikke ja ebatõhusaid otsuseid.
AI arendajad, tehnikaettevõtted ja laborid
Arvestades võimalikke takistusi, mis võivad tuleneda valitsuse jälgivast tehisintellektist, sooviksid paljud pigem, et tehnoloogiaettevõtted juhiksid reguleerimist. Nad usuvad, et arendajad peaksid vastutama välja antud tehnoloogia eest. Isereguleerimine võimaldab neil innovatsiooni juhtida ja keskenduda nende süsteemide tõhusale edendamisele.
Lisaks aitab nende põhjalik arusaam AI-st koostada õiglasi ja teadlikke juhiseid, mis seavad esikohale kasutajate ohutuse, ilma funktsionaalsust kahjustamata. Nagu iga tehnoloogia puhul, lihtsustavad tööstuse teadmised järelevalvet. Koolituseta ametnike määramine tehnoloogiate reguleerimiseks, millest nad vaevu aru saavad, võib tekitada rohkem probleeme kui kasu.
Võtke näiteks 2018. aasta USA senati arutelu Facebooki andmekaitseseaduste kohta. Selles aruandes autor Washington Post, näete, et paljud seadusandjad on Facebooki põhifunktsioonidega segaduses. Nii et kui USA senat ei loo ainsat tehnikaspetsialistide osakonda, ei ole nad tõenäoliselt kvalifitseeritud reguleerima sellist arenenud ja pidevalt muutuvat süsteemi nagu AI.
Ennast reguleerivate tehnoloogiaettevõtete peamine probleem on aga see, et varjulised ettevõtted võivad oma võimu kuritarvitada. Ilma sekkumiseta kolmanda osapooleta on neil põhimõtteliselt vabadus teha kõike, mida nad tahavad.
Lõppkasutajad
Mõned kardavad, et valitsus ja eraettevõtted kuritarvitavad tehisintellekti süsteeme. Nad pole kindlad, kas anda käputäiele juhtorganitele täielik kontroll selliste võimsate tehnoloogiate üle, eriti kuna AI alles areneb. Nad võivad lõpuks võidelda võimu pärast, mitte töötada tõhusa reguleerimise nimel.
Nende riskide maandamiseks usuvad skeptikud, et lõppkasutajad väärivad vaba voli kasutada tehisintellekti mudeleid nii, nagu nad soovivad. Nad ütlevad, et valitsusasutused peaksid sekkuma ainult siis, kui tehisintellekti kasutajad rikuvad seadust. See on ambitsioonikas eesmärk, kuid seda saaks tehniliselt saavutada, kui avatud lähtekoodiga tehisintellekti arendajad domineeriksid turuosades.
Sellegipoolest seab see seadistus ebasoodsasse olukorda inimesed, kes ei ole tehnikateadlikud. Kasutajad vastutavad oma süsteemides piirangute seadmise eest – kahjuks pole kõigil selleks ressursse.
Samuti on lühinägelik patenditud mudelite turult eemaldamine. Levik avatud lähtekoodiga AI mudelitel on mitmeid positiivseid ja negatiivseid mõjusid; mõne jaoks kaaluvad miinused üles plussid.
Muud üksused, mis mängivad rolli AI reguleerimises
Kuigi suured üksused juhivad tehisintellekti reguleerimist, on organeid, mis mängivad olulist rolli:
Meediaväljaanded mängivad kriitilist rolli avalikkuse ettekujutuse kujundamisel tehisintellektist. Nad annavad aru tööstuse arengutest, jagavad uusi tööriistu, tõstavad teadlikkust tehisintellekti kahjulikest kasutusviisidest ja küsitlevad eksperte asjakohaste probleemide kohta.
Enamik fakte, mida lõppkasutajad AI kohta teavad, pärinevad peamiselt meediaväljaannetest. Valeandmete avaldamine, kas tahtlikult või mitte, põhjustab pöördumatut kahju – te ei saa alahinnata, kui kiiresti desinformatsioon levib.
2. Valitsusvälised organisatsioonid
Mitmed mittetulundusühingud on keskendunud tehisintellekti kasutajate privaatsuse ja kodanikuvabaduste kaitsmisele. Nad harivad avalikkust tasuta ressursside kaudu, propageerivad uut poliitikat, teevad koostööd valitsusametnikega ja avaldavad tähelepanuta jäänud muresid.
Mittetulundusühingute ainus probleem on see, et neil on tavaliselt napib ressursse. Kuna nad ei ole valitsusega seotud, toetuvad nad igapäevaseks tegevuseks erataotlustele ja annetustele. Kahjuks saavad vaid vähesed organisatsioonid piisavat rahastamist.
3. Tehnikatööstuse ühendused
AI-le keskendunud tehnoloogiatööstuse ühendused võivad esindada avalikkuse õigusi ja huve. Nagu mittetulundusühingud, teevad nad koostööd seadusandjatega, esindavad asjassepuutuvaid inimesi, propageerivad õiglast poliitikat ja tõstavad teadlikkust konkreetsetest probleemidest.
Erinevus seisneb aga selles, et neil on sageli sidemed eraettevõtetega. Nende liikmed teevad endiselt taotlusi, kuid tavaliselt saavad nad oma emaorganisatsioonidelt piisavalt raha, kuni nad annavad tulemusi.
4. Akadeemilised institutsioonid
Kuigi tehisintellektiga kaasnevad mitmed riskid, on see oma olemuselt neutraalne. Kõik eelarvamused, privaatsusprobleemid, turvavead ja võimalikud küberkuritegevused tulenevad inimestest, seega pole AI iseenesest midagi karta.
Kuid väga vähesed juba mõistavad, kuidas kaasaegsed AI mudelid töötavad. Väärarusaamad moonutavad inimeste ettekujutust tehisintellektist, põlistades alusetuid hirme, nagu AI inimkonna ülevõtmine või töökohtade varastamine.
Akadeemilised asutused saaksid need hariduslüngad täita juurdepääsetavate ressursside abil. Kaasaegsete LLM-ide ja NLP-süsteemide kohta pole veel liiga palju teaduslikke töid. Avalikkus saab tehisintellekti vastutustundlikumalt kasutada ja küberkuritegudega võidelda, kui nad mõistavad täielikult selle toimimist.
5. Õiguskaitseasutused
Õiguskaitseorganid peaksid ootama rohkem kohtumist AI-toega küberrünnakud. Generatiivsete mudelite leviku tõttu saavad kelmid kiiresti hääli sünteesida, luua sügavaid võltspilte, kraapida isikut tuvastav teave (PII) ja isegi luua täiesti uusi isikuid.
Enamik asutusi ei ole nende kuritegude lahendamiseks ette valmistatud. Nad peaksid investeerima uutesse süsteemidesse ja koolitama oma ohvitsere kaasaegsete küberkuritegude alal; vastasel juhul on neil probleeme nende kelmide tabamisega.
AI määruse tulevik
Arvestades tehisintellekti kiiret olemust, on ebatõenäoline, et üks juhtorgan seda kontrolliks. Jah, tehnoloogiajuhtidel on rohkem võimu kui tarbijatel, kuid erinevad üksused peavad tegema koostööd, et hallata tehisintellekti riske ilma edusamme takistamata. Parim on seada kontrollimeetmed kohe, kui tehisintellekt (AGI) on veel kauge eesmärk.
See tähendab, et AI regulatsioon on sama kaugel kui AGI. Seni peavad kasutajad järgima ohutustavasid, et võidelda tehisintellektist tingitud ohtudega. Head harjumused, nagu inimeste piiramine, kellega võrgus suhtlete, ja digitaalse isikut tõendava teabe turvamine on juba kaugele jõudnud.