Selgitatakse: kuidas Apple otsib seadmetes laste ärakasutamise pilte ja miks see kulme kergitab
Esialgu loodetakse USA-s avaldada. Funktsioonid hõlmavad uue tehnoloogia kasutamist, et piirata CSAM-i levikut võrgus, eriti Apple'i platvormi kaudu.

Apple on sellest teatanud tarkvarauuendused sel aastal toovad kaasa uusi funktsioone mis aitab kaitsta lapsi kiskjate eest, kes kasutavad nende värbamiseks ja ärakasutamiseks suhtlusvahendeid, ning piirab laste seksuaalse kuritarvitamise materjali (CSAM) levikut.
Esialgu loodetakse USA-s avaldada. Funktsioonid hõlmavad uue tehnoloogia kasutamist, et piirata CSAM-i levikut võrgus, eriti Apple'i platvormi kaudu.
Seejärel kaitstakse lapsi seadmes tundliku sisu saatmise või vastuvõtmise eest koos mehhanismidega, mis hoiatavad vanemaid, kui kasutaja on alla 13-aastane. Apple sekkub ka siis, kui CSAM-iga seotud teemade otsimiseks kasutatakse Siri või otsingut. .
Milliseid tehnoloogiaid Apple teeb, et takistada CSAM-i levikut võrgus?
Blogipostituses selgitas Apple, et kasutab iOS-i ja iPadOS-i kaudu krüptograafiarakendusi, et sobitada iCloud Photosse salvestatud teadaolevaid CSAM-pilte. Tehnoloogia sobitab kasutaja iCloudis olevad pildid teadaolevate lastekaitseorganisatsioonide pakutavate piltidega. Ja seda tehakse pilti tegelikult nägemata ja ainult sõrmejälje vastet otsides. Kui vasted ületavad läve, teatab Apple nendest juhtudest riiklikule kadunud ja ärakasutatud laste keskusele (NCMEC).
Apple selgitas, et selle tehnoloogia peab silmas kasutajate privaatsust ja seetõttu muudetakse andmebaas loetamatuks räsikomplektiks, mis on turvaliselt salvestatud kasutajate seadmetesse. Ta lisas, et enne mis tahes kujutise iCloudi üleslaadimist võrdleb operatsioonisüsteem selle teadaolevate CSAM-räsidega, kasutades krüptograafilist tehnoloogiat, mida nimetatakse privaatsete komplektide ristumiskohaks. See tehnoloogia määrab ka vaste ilma tulemust avaldamata.
Sel hetkel loob seade mängutulemuse ja täiendavate krüptitud andmetega krüptograafilise turvavautšeri ning salvestab selle koos pildiga iCloudi. Threshold salajase jagamise tehnoloogia tagab, et Apple ei saa neid vautšereid tõlgendada, välja arvatud juhul, kui iCloud Photosi konto ületab teadaoleva CSAM-sisu läve. Ajaveebi väitel on see lävi kehtestatud selleks, et tagada ülikõrge täpsus ja see tagab vähem kui ühe triljoni võimaluse aastas, et antud konto märgitakse valesti. Seega ei käivita üks pilt tõenäoliselt hoiatust.
Kui aga lävi on ületatud, saab Apple ohutusvautšerite sisu tõlgendada ja iga aruande käsitsi üle vaadata, keelata kasutaja konto ja saata aruande NCMEC-ile. Apple ütles, et kasutajad saavad edasi kaevata, kui nad arvavad, et nad on valesti märgistatud.
Kuidas teised funktsioonid töötavad?
Apple'i uus sõnumite suhtlusohutus hägustab tundliku pildi ja hoiatab last sisu olemuse eest. Kui see on taustaprogrammist sisse lülitatud, võib lapsele ka öelda, et tema vanemaid on vaadatud sõnumist teavitatud. Sama kehtib ka siis, kui laps otsustab saata tundliku sõnumi. Apple ütles, et Messages kasutab pildimanuste analüüsimiseks seadmes masinõpet ja teeb kindlaks, kas foto on seksuaalselt vulgaarne ja et Apple ei pääse sõnumitele juurde. Funktsioon tuleb värskendusena kontodele, mis on iCloudis perekondadena seadistatud uusimate operatsioonisüsteemi versioonide jaoks.
Kui kasutaja proovib värskendusega potentsiaalseid CSAM-i teemasid otsida, selgitavad Siri ja otsing, miks see võib olla kahjulik ja problemaatiline. Kasutajad saavad ka juhiseid laste ärakasutamise kohta aruande esitamiseks, kui nad seda nõuavad.
| Selgitatud: kuidas ja miks pakub Google lastele võrgus suuremat kaitset
Miks Apple seda teeb ja millised on murekohad?
Suured tehnoloogiaettevõtted on aastaid olnud surve all, et nad piiraksid oma platvormi kasutamist laste ärakasutamiseks. Paljudes aruannetes on aastate jooksul rõhutatud, kuidas ei tehtud piisavalt, et takistada tehnoloogial CSAM-i sisu laiemalt kättesaadavaks tegemast.
Apple'i teade on aga pälvinud kriitikat ja paljud on rõhutanud, et see on täpselt selline seiretehnoloogia, mida paljud valitsused sooviksid omada ja mida armastavad kuritarvitada. Asjaolu, et see on tulnud Apple'ilt, mis on pikka aega olnud privaatsuse taga, on paljusid üllatanud.
Samuti on krüptograafiaeksperdid, nagu Matthew Green Johns Hopkinsi ülikoolist, väljendanud kartust, et süsteemi võidakse kasutada süütute inimeste raamimiseks, kes saadavad neile pilte, mis on mõeldud CSAM-i vastete käivitamiseks. Teadlased on suutnud seda üsna lihtsalt teha, ütles ta NPR-ile, lisades, et selliseid algoritme on võimalik lollitada.
Kuid The New York Times tsiteeris Apple'i privaatsusametnikku Erik Neuenschwanderit, kes ütles, et need funktsioonid ei tähenda tavakasutajate jaoks midagi muud.
Kui talletate CSAM-materjali kogu, siis jah, see on teie jaoks halb, ütles ta väljaandele.
Infoleht| Klõpsake, et saada oma postkasti päeva parimad selgitused
Kas teistel suurtel tehnoloogiaettevõtetel on sarnaseid tehnoloogiaid?
Jah. Tegelikult on Apple sündmuskohal suhteliselt hilja, kuna Microsoft, Google ja Facebook on õiguskaitseorganeid CSAM-piltide eest hoiatanud. Apple on maha jäänud, sest mis tahes selline tehnoloogia oleks läinud vastuollu tema palju reklaamitud pühendumusega kasutajate privaatsusele. Selle tulemusena sai Apple 2020. aastal, kui Facebook teatas NCMEC-ile 20,3 miljonist CSAM-i rikkumisest, vaid 265 juhtumist, teatas The New York Times.
Alles nüüd on suudetud leida tehnoloogia maguskoht, et seda teha tavakasutajaid mõjutamata või vähemalt neid hirmutamata. Kuid nagu esialgne tagasilöök on näidanud, on tegemist siiski köielkõnniga.
Jagage Oma Sõpradega: