Üha enam ettevõtteid keelab ChatGPT töökohal, kuid mis on keeldude taga?
Vaatamata muljetavaldavatele võimetele on mitmed suuremad ettevõtted keelanud oma töötajatel ChatGPT kasutamise.
2023. aasta mais keelas Samsung ChatGPT ja muude generatiivsete AI tööriistade kasutamise. Seejärel, 2023. aasta juunis, järgis Austraalia Ühenduse pank koos selliste ettevõtetega nagu Amazon, Apple ja JPMorgan Chase & Co. Mõned haiglad, advokaadibürood ja valitsusasutused on samuti keelanud töötajatel kasutamise ChatGPT.
Niisiis, miks keelab üha rohkem ettevõtteid ChatGPT? Siin on viis peamist põhjust.
1. Andmelekked
ChatGPT vajab tõhusaks treenimiseks ja töötamiseks suurt hulka andmeid. Vestlusbotit koolitati tohutul hulgal Internetist saadud andmetega ja seda koolitatakse jätkuvalt.
Vastavalt OpenAI abileht, kõik andmed, sealhulgas konfidentsiaalsed kliendiandmed, ärisaladused ja tundlik äri Jutubotile söödava teabe vaatavad tõenäoliselt üle selle koolitajad, kes võivad teie andmeid täiustamiseks kasutada nende süsteemid.
Paljudele ettevõtetele kehtivad ranged andmekaitsereeglid. Seetõttu on nad isikuandmete jagamisel väliste üksustega ettevaatlikud, kuna see suurendab andmelekete ohtu.
Pealegi ei paku OpenAI lollikindel andmekaitset ja konfidentsiaalsuse tagatist. 2023. aasta märtsis OpenAI kinnitas viga, mis võimaldab mõnel kasutajal vaadata vestluste pealkirju teiste aktiivsete kasutajate ajaloos. Kuigi see viga parandati ja OpenAI käivitas bug bounty programmi, ei taga ettevõte kasutajaandmete turvalisust ja privaatsust.
Paljud organisatsioonid on otsustanud piirata töötajatel ChatGPT kasutamist, et vältida andmeleket, mis võib kahjustada nende mainet, tuua kaasa rahalisi kaotusi ning kahjustada nende kliente ja töötajaid risk.
2. Küberjulgeoleku riskid
Kuigi pole selge, kas ChatGPT on tõesti küberjulgeolekuriskidele kalduv, on tõenäoline, et selle kasutuselevõtt organisatsioonis võib tuua kaasa potentsiaalseid haavatavusi, mida küberründajad saavad ära kasutada.
Kui ettevõte integreerib ChatGPT ja vestlusroboti turvasüsteemis on nõrkusi, võivad ründajad saada turvaauke ära kasutada ja pahavara koode sisestada. Lisaks on ChatGPT võime luua inimsarnaseid vastuseid andmepüügiründajate jaoks kuldmuna, kes võivad konto üle või esineda seaduslike üksustena, et petta ettevõtte töötajaid jagama tundlikku teavet teavet.
3. Isikupärastatud vestlusrobotite loomine
Vaatamata uuenduslikele funktsioonidele võib ChatGPT esitada valet ja eksitavat teavet. Selle tulemusena on paljud ettevõtted loonud tööks tehisintellekti vestlusrobotid. Näiteks palus Commonwealth Bank of Australia oma töötajatel kasutada selle asemel tehisintellekti (AI) vestlusbotti Gen.ai, mis kasutab vastuste andmiseks CommBanki teavet.
Sellised ettevõtted nagu Samsung ja Amazon on välja töötanud täiustatud loomuliku keele mudelid, nii et ettevõtted saavad olemasolevate ärakirjade põhjal hõlpsasti luua ja juurutada isikupärastatud vestlusroboteid. Nende majasiseste vestlusrobotite abil saate ära hoida andmete väärkäitlemisega seotud õiguslikke ja maine tagajärgi.
4. Regulatsiooni puudumine
Tööstusharudes, kus ettevõtetele kehtivad regulatiivsed protokollid ja sanktsioonid, on ChatGPT regulatiivsete juhiste puudumine punane lipp. Ilma täpsete regulatiivsete tingimusteta, mis reguleerivad ChatGPT kasutamist, võivad ettevõtted AI-vestlusrobotit oma tegevuses kasutades seista silmitsi tõsiste õiguslike tagajärgedega.
Lisaks võib regulatsiooni puudumine vähendada ettevõtte vastutust ja läbipaistvust. Enamik ettevõtteid võib olla segaduses selle selgitamisel AI keelemudeli otsustusprotsessid ja turvameetmed oma klientidele.
Ettevõtted piiravad ChatGPT-d, kartes privaatsusseaduste ja valdkonnapõhiste eeskirjade võimalikke rikkumisi.
5. Töötajate vastutustundetu kasutamine
Paljudes ettevõtetes toetuvad mõned töötajad sisu loomiseks ja oma ülesannete täitmiseks ainult ChatGPT vastustele. See tekitab töökeskkonnas laiskust ning loovust ja uuendusmeelsust.
AI-sõltuvus võib takistada teie võimet kriitiliselt mõelda. See võib kahjustada ka ettevõtte usaldusväärsust, kuna ChatGPT pakub sageli ebatäpseid ja ebausaldusväärseid andmeid.
Kuigi ChatGPT on võimas tööriist, võib selle kasutamine keerukate päringute lahendamiseks, mis nõuavad domeenispetsiifilisi teadmisi, kahjustada ettevõtte tegevust ja tõhusust. Mõned töötajad ei pruugi meeles pidada faktide kontrollimist ja AI vestlusroti vastuseid, käsitledes vastuseid kõigile sobiva lahendusena.
Selliste probleemide leevendamiseks seavad ettevõtted vestlusrobotile keelud, et töötajad saaksid keskenduda oma ülesannetele ja pakkuda kasutajatele veatuid lahendusi.
ChatGPT keelud: parem ohutu kui kahetseda
Ettevõtted, mis keelavad ChatGPT, viitavad küberjulgeoleku riskidele, töötajate eetikastandarditele ja eeskirjade järgimise väljakutsetele. ChatGPT suutmatus neid väljakutseid leevendada, pakkudes samal ajal tööstuslikke lahendusi, annab tunnistust selle piirangutest ja vajadustest edasi areneda.
Vahepeal lähevad ettevõtted üle alternatiivsetele vestlusrobotidele või lihtsalt piiravad töötajate kasutamist ChatGPT, et vältida võimalikke andmetega seotud rikkumisi ning ebausaldusväärseid turva- ja regulatiivseid protokolle, mis on seotud vestlusrobot.