Teiesugused lugejad aitavad MUO-d toetada. Kui teete ostu meie saidil olevate linkide abil, võime teenida sidusettevõtte komisjonitasu. Loe rohkem.

Apple teatas 2021. aasta augustis plaanist skannida teie iCloudi sisu laste seksuaalse kuritarvitamise materjali (CSAM) suhtes, et kaitsta lapsi röövloomade kuritarvitamise eest.

Ettevõte kavatses käivitada iCloud Photos uue CSAM-i tuvastamise funktsiooni, mis otsiks sellist sisu ja teataks Apple'ile sobivatest piltidest, säilitades samal ajal kasutaja privaatsuse.

Uus funktsioon leidis aga vastakaid reaktsioone. Üle aasta pärast esialgset teadaannet loobub Apple ametlikult plaanist skannida iCloud Photos CSAM-i jaoks.

Apple loobub plaanist kontrollida iCloudi laste väärkohtlemise materjali tuvastamiseks

Vastavalt aruandele ÜHENDATUD, Apple loobub plaanist skannida teie iCloudi laste väärkohtlemise sisu suhtes. Tööriist skanniks iCloudi salvestatud fotosid, et leida need, mis vastavad teadaolevatele CSAM-piltidele, mille on tuvastanud laste turvaorganisatsioonid. Seejärel võib ta neist piltidest teatada, kuna CSAM-piltide omamine on enamikus jurisdiktsioonides, sealhulgas USA-s, ebaseaduslik.

instagram viewer

Miks Apple tühistas iCloudi fotode skannimise plaani?

Pärast esialgset teadet 2021. aastal seisis Apple silmitsi klientide, rühmade ja üksikisikute vastureaktsiooniga, kes propageerisid digitaalset privaatsust ja turvalisust kogu maailmas. iPhone'id pakuvad tavaliselt rohkem turvalisust kui Android-seadmed, ja paljud pidasid seda sammuks tagasi. Kuigi see oli laste turvaorganisatsioonide võit, kirjutas üle 90 poliitikarühma hiljem samal kuul Apple'ile avaliku kirja, milles käskis ettevõttel plaan tühistada.

Kirjas väideti, et kuigi tööriist kavatseb kaitsta lapsi väärkohtlemise eest, võib seda kasutada sõnavabaduse tsenseerimiseks ning kasutajate privaatsuse ja turvalisuse ohustamiseks. Kasvava surve tõttu peatas Apple oma käivitamisplaanid tagasiside kogumiseks ja funktsiooni vajalike muudatuste tegemiseks. Tagasiside aga ei soosinud Apple'i plaani skaneerida iCloud Photos, nii et ettevõte loobub ametlikult plaanidest lõplikult.

Ettevõte ütles WIREDile tehtud avalduses:

"Meil on... otsustasime mitte edasi liikuda meie varem pakutud CSAM-i tuvastamise tööriistaga iCloud Photos jaoks. Lapsi saab kaitsta ilma, et ettevõtted isikuandmeid läbi kammiksid ning me jätkame koostööd valitsuste, lastekaitsjate ja teisi ettevõtteid, et aidata kaitsta noori, säilitada nende õigust privaatsusele ja muuta internet lastele ja meile turvalisemaks kõik."

Apple'i uus plaan laste kaitsmiseks

Apple suunab oma jõupingutusi ümber kommunikatsiooniohutuse funktsioonide täiustamiseks, millest teatati 2021. aasta augustis ja mis käivitati sama aasta detsembris.

Suhtlemisohutus on valikuline ning seda saavad kasutada vanemad ja eestkostjad, et kaitsta lapsi iMessage'is vulgaarsete piltide saatmise ja vastuvõtmise eest. Funktsioon hägustab sellised fotod automaatselt ja last hoiatatakse kaasnevate ohtude eest. Samuti hoiatab see kõiki, kui nad üritavad Apple'i seadmetes CSAM-i otsida.

Kuna plaanid käivitada CSAM-tuvastustööriist on tühistatud, ootab ettevõte selle funktsiooni edasist täiustamist ja selle laiendamist rohkematele suhtlusrakendustele.