AI-tööriistad, nagu ChatGPT, on suurepärased, kuid on mitmeid põhjuseid, miks peaksite loetusse suhtuma näputäie soolaga.

AI muudab maailma sellisel kujul, nagu me seda teame, ja selle mõju on tunda kõigis tööstusharudes. Kuid mitte kõik need muutused pole tingimata positiivsed. Kuigi tehisintellekt pakub paljudes valdkondades uusi põnevaid võimalusi, ei saa me eirata tõsiasja, et sellel puudub otsuste tegemisel omane moraalne kompass või faktide kontrollimise süsteem.

Seetõttu peaksite alati kontrollima kõike, mida teile öeldakse, kuna maailm muutub tehisintellekti-kesksemaks. Teatud tehisintellekti tööriistad võivad teabega manipuleerida, kontekstist täielikult valesti aru saada ja samal ajal kindlalt eksida, mistõttu on tehisintellekti pimesi usaldamine halb mõte.

1. AI võib kindlalt eksida

Inimesed loodavad üha enam AI vestlusbotid selliste ülesannete jaoks nagu kirjutamine, kohtumiste planeerimine ja isegi oluliste otsuste tegemine. Nende vestlusrobotite mugavuse eest tuleb aga sageli maksta märkimisväärseid kulusid – need võivad kindlasti eksida.

Selle illustreerimiseks palusime ChatGPT-l rääkida meile esimesest Pythoni õppimiseks kirjutatud raamatust. See reageeris järgmiselt:

Kas said veast aru? Kui me selle kohta ChatGPT-le helistasime, parandas see end kiiresti. Kahjuks, kuigi ta tunnistas oma viga, näitab see, kuidas AI võib mõnikord olla täiesti vale.

AI vestlusrobotidel on piiratud teave, kuid need on programmeeritud reageerima mõlemal viisil. Need toetuvad oma treeningandmetele ja võivad pärineda ka teie suhtlusest masinõppega. Kui tehisintellekt keeldub reageerimast, ei saa ta õppida ega ennast parandada. Sellepärast AI kohati enesekindlalt eksib; ta õpib oma vigadest.

Kuigi see on praegu vaid AI olemus, näete, kuidas sellest võib saada probleem. Enamik inimesi ei kontrolli oma Google'i otsinguid faktide põhjal ja sama kehtib ka vestlusrobotite nagu ChatGPT puhul. See võib viia valeinformatsioonini ja meil on seda juba palju, mis toob meid teise punktini.

2. Seda saab hõlpsasti kasutada teabega manipuleerimiseks

Pole saladus, et tehisintellekt võib olla ebausaldusväärne ja vigadele kalduv, kuid üks selle salakavalamaid omadusi on kalduvus teabega manipuleerida. Probleem on selles, et tehisintellektil puudub nüansirikas arusaam teie kontekstist, mistõttu ta muudab fakte vastavalt oma eesmärkidele.

Täpselt nii juhtus Microsofti Bing Chatiga. Üks kasutaja Twitteris küsis uue Avatari filmi näitamisaegu, kuid vestlusbot keeldus teavet andmast, väites, et filmi pole veel välja antud.

Muidugi saate selle lihtsalt vea või ühekordse veana maha kanda. See aga ei muuda tõsiasja, et need AI-tööriistad on ebatäiuslikud, ja me peaksime tegutsema ettevaatlikult.

3. See võib teie loovust takistada

Paljud spetsialistid, nagu kirjanikud ja disainerid, kasutavad nüüd tehisintellekti tõhususe maksimeerimiseks. Siiski on oluline mõista, et tehisintellekti tuleks vaadelda pigem tööriista kui otseteena. Kuigi viimane kõlab kindlasti ahvatlevalt, võib see teie loovust tõsiselt mõjutada.

Kui AI vestlusroboteid kasutatakse otseteena, kipuvad inimesed ainulaadsete ideede genereerimise asemel sisu kopeerima ja kleepima. See lähenemine võib tunduda ahvatlev, sest säästab aega ja vaeva, kuid ei haara meelt ega edenda loovat mõtlemist.

Näiteks saavad disainerid kasutage kunsti loomiseks Midjourney AI-d, kuid ainult tehisintellektile toetumine võib loovuse ulatust piirata. Uute ideede uurimise asemel võite kopeerida olemasolevaid kujundusi. Kui olete kirjanik, saate seda teha kasutage uurimistööks ChatGPT-d või muid AI-vestlusboteid, kuid kui kasutate seda otseteena sisu genereerimiseks, jääb teie kirjutamisoskus soiku.

AI kasutamine uurimistöö täiendamiseks erineb ideede genereerimisel ainult sellele toetumisest.

4. AI-d saab kergesti kuritarvitada

AI on toonud kaasa mitmeid läbimurdeid erinevates valdkondades. Kuid nagu iga tehnoloogia puhul, on ka väärkasutuse oht, mis võib viia kohutavate tagajärgedeni.

Tehisintellekti võime inimesi alandada, ahistada, hirmutada ja vaigistada on muutunud oluliseks probleemiks. AI väärkasutuse näidete hulka kuuluvad süvavõltsingute loomine ja muu hulgas teenuse keelamise (DoS) rünnakud.

AI-ga loodud süvavõltsingute kasutamine pahaaimamatutest naistest selgesõnaliste fotode loomiseks on häiriv trend. Küberkurjategijad kasutavad ka AI-põhiseid DoS-rünnakuid, et takistada seaduslikel kasutajatel teatud võrkudele juurdepääsu. Sellised rünnakud muutuvad üha keerukamaks ja nende peatamine on keerulisem, kuna neil on inimesele sarnased omadused.

AI-võimaluste kättesaadavus avatud lähtekoodiga raamatukogudena on võimaldanud igaühel juurdepääsu sellistele tehnoloogiatele nagu pildi- ja näotuvastus. See kujutab endast märkimisväärset küberjulgeolekuriski, kuna terrorirühmitused võivad neid tehnoloogiaid kasutada terrorirünnakute korraldamiseks

5. Piiratud konteksti mõistmine

Nagu varem mainitud, on AI-l väga piiratud arusaam kontekstist, mis võib olla otsustamisel ja probleemide lahendamisel märkimisväärne väljakutse. Isegi kui annate tehisintellektile kontekstuaalset teavet, võib see nüansse märkamata jätta ja anda ebatäpset või mittetäielikku teavet, mis võib viia valede järeldusteni või otsusteni.

Seda seetõttu, et tehisintellekt töötab eelprogrammeeritud algoritmidel, mis tuginevad andmete analüüsimisel ja töötlemisel statistilistele mudelitele ja mustrituvastusele.

Mõelge näiteks vestlusrobotile, mis on programmeeritud aitama kliente toote kohta päringute tegemisel. Kuigi vestlusbot võib vastata põhilistele küsimustele toote funktsioonide ja spetsifikatsioonide kohta, võib see siiski olla on raske pakkuda isikupärastatud nõu või soovitusi, mis põhinevad kliendi ainulaadsetel vajadustel ja eelistustel.

6. See ei saa asendada inimlikku otsustusvõimet

Keerulistele küsimustele vastuseid otsides või subjektiivsetel eelistustel põhinevaid otsuseid tehes võib üksnes tehisintellektile toetumine olla riskantne.

Paluda tehisintellekti süsteemil määratleda sõpruse mõiste või valida kahe elemendi vahel subjektiivsete kriteeriumide alusel, võib olla asjatu. Selle põhjuseks on asjaolu, et tehisintellektil puudub võime arvestada inimeste emotsioone, konteksti ja selliste kontseptsioonide mõistmiseks ja tõlgendamiseks vajalikke mittemateriaalseid elemente.

Näiteks kui palute AI-süsteemil valida kahe raamatu vahel, võib see soovitada seda, millel on kõrgem hinnanguid, kuid see ei saa arvesse võtta teie isiklikku maitset, lugemiseelistusi ega eesmärki, milleks vajate raamat.

Teisest küljest saab arvustaja anda raamatule nüansirikkama ja isikupärasema ülevaate, hinnates selle kirjanduslik väärtus, asjakohasus lugeja huvidele ja muud subjektiivsed tegurid, mida ei saa mõõta objektiivselt.

Olge tehisintellektiga ettevaatlik

Kuigi tehisintellekt on erinevates valdkondades osutunud uskumatult võimsaks tööriistaks, on oluline olla teadlik selle piirangutest ja võimalikest eelarvamustest. AI pimesi usaldamine võib olla riskantne ja sellel võivad olla märkimisväärsed tagajärjed, kuna tehnoloogia on alles lapsekingades ega ole kaugeltki täiuslik.

Oluline on meeles pidada, et tehisintellekt on tööriist, mitte inimteadmiste ja otsustusvõime asendaja. Seetõttu proovige seda kasutada ainult uurimistöö täiendusena, kuid ärge lootke ainult sellele oluliste otsuste tegemisel. Kuni tunnete puudusi ja kasutate tehisintellekti vastutustundlikult, peaksite olema kindlates kätes.