Samsungi töötajad lekitasid kogemata eraettevõtte andmeid ChatGPT kaudu – näide sellest, miks tehisintellekt on teie privaatsusele ja turvalisusele nii suur oht.

ChatGPT-st on saanud suur turva- ja privaatsusprobleem, kuna liiga paljud meist jagavad selle kohta hajameelselt oma privaatset teavet. ChatGPT logib kõik vestlused, mis teil sellega on, sealhulgas kõik teie jagatud isikuandmed. Sellegipoolest ei tea te seda, kui te pole OpenAI privaatsuspoliitikat, teenusetingimusi ja KKK-lehte selle koostamiseks läbi uurinud.

Enda teabe lekitamine on piisavalt ohtlik, kuid arvestades, et suured ettevõtted kasutavad iga päev teabe töötlemiseks ChatGPT-d, võib see olla andmelekke katastroofi algus.

Samsung lekkis ChatGPT kaudu konfidentsiaalset teavet

Vastavalt GizmodoSamsungi töötajad lekitasid 20 päeva jooksul kolmel korral ChatGPT kaudu ekslikult konfidentsiaalset teavet. See on vaid üks näide sellest, kui lihtne on ettevõtetel privaatset teavet kompromiteerida.

ChatGPT on oma privaatsusprobleemide tõttu avalikult kriitika all, nii et Samsung lasi sellel juhtuda märkimisväärne möödalask.

Mõned riigid on isegi ChatGPT ära keelanud kaitsta oma kodanikke seni, kuni see parandab nende privaatsust, nii et arvate, et ettevõtted oleksid hoolikamad selle suhtes, kuidas nende töötajad seda kasutavad.

Õnneks tundub, et Samsungi kliendid on vähemalt praegu turvalised. Rikkutud andmed puudutavad ainult ettevõttesiseseid äritavasid, mõnda patenteeritud koodi, mille tõrkeotsingut nad kasutasid, ja meeskonna koosoleku protokolle, mis kõik on töötajate esitatud. Samas oleks töötajatel olnud sama lihtne tarbijate isikuandmeid lekitada ja on vaid aja küsimus, millal me näeme, et mõni teine ​​ettevõte täpselt seda teeb. Kui see juhtub, võiksime oodata andmepüügipettuste arvu tohutu kasv ja identiteedivargus.

Siin on ka teine ​​riskikiht. Kui töötajad kasutavad ChatGPT-d vigade otsimiseks nagu Samsungi lekke puhul, salvestatakse nende vestluskasti sisestatud kood samuti OpenAI serveritesse. See võib kaasa tuua rikkumisi, mis avaldavad avaldamata toodete ja programmide tõrkeotsingut tegevatele ettevõtetele tohutut mõju. Võime isegi lekkida sellist teavet nagu avaldamata äriplaanid, tulevased väljalasked ja prototüübid, mille tulemuseks on tohutu tulude vähenemine.

Kuidas ChatGPT andmelekked juhtuvad?

ChatGPT privaatsuspoliitika teeb selgeks, et see salvestab teie vestlused ja jagab logisid teiste ettevõtete ja oma AI koolitajatega. Kui keegi (näiteks Samsungi töötaja) sisestab dialoogiboksi konfidentsiaalset teavet, salvestatakse see ja salvestatakse ChatGPT serveritesse.

On väga ebatõenäoline, et töötajad on seda tahtlikult teinud, kuid see on hirmutav osa. Enamik andmetega seotud rikkumisi on põhjustatud inimlikest eksimustest. Sageli on põhjuseks see, et ettevõte pole suutnud oma töötajaid harida selliste tööriistade nagu AI kasutamisega kaasnevate privaatsusriskide kohta.

Näiteks kui nad kleebivad vestlusesse suure kontaktiloendi ja paluvad tehisintellektil klientide telefoninumbrid andmetest eraldada, salvestab ChatGPT need nimed ja telefoninumbrid oma kirjetesse. Teie privaatne teave on ettevõtete meelevallas, kellega te seda ei jaganud, mis ei pruugi seda teie turvalisuse tagamiseks piisavalt hästi kaitsta. Siin on mõned asjad, mida saate teha kaitske end pärast andmetega seotud rikkumist, kuid ettevõtted peaksid vastutama lekete vältimise eest.

Loo moraal: ärge rääkige ChatGPT-le oma saladusi

Saate ChatGPT-d turvaliselt kasutada sadade erinevate ülesannete jaoks, kuid konfidentsiaalse teabe korraldamine pole üks neist. Peate olema ettevaatlik, et vältida vestluskasti midagi isiklikku, sealhulgas oma nime, aadressi, e-posti aadressi ja telefoninumbrit. Seda viga on lihtne teha, seega peaksite hoolikalt kontrollima oma viipasid, et veenduda, et midagi pole kogemata sisse sattunud.

Samsungi leke näitab meile, kui reaalne on ChatGPT-ga seotud andmelekke oht. Kahjuks näeme seda tüüpi vigu rohkem, võib-olla palju suurema mõjuga, kuna tehisintellektist saab enamiku ettevõtete protsesside põhiosa.