Apple a dezvaluit planuri de a scana iPhone-urile din SUA pentru imagini de abuz sexual asupra copiilor, obtinand aprobarea grupurilor de protectie a copiilor, dar ingrijorarea unor cercetatori din domeniul securitatii este ca sistemul ar putea fi folosit necorespunzator.
Instrumentul conceput pentru a detecta imaginile de abuz sexual asupra copiilor identificate anterior, numit „neuralMatch”, va scana imaginile inainte de a fi incarcate pe iCloud . Daca gasiti o potrivire, imaginea va fi examinata de o persoana. Daca pornografia infantila este confirmata, contul utilizatorului va fi dezactivat si autoritatile vor fi anuntate.
Sistemul va semnala doar imaginile care sunt deja inregistrate in baza de date a centrului cu pornografie infantila . Parintii care fac fotografii nevinovate ale unui copil in cada nu trebuie sa-si faca griji. Cu toate acestea, cercetatorii spun ca acest instrument de potrivire, care nu „vede” acele imagini, ci mai degraba „amprentele” matematice care le reprezinta, ar putea avea utilizari mai nefaste.
Un cercetator a avertizat ca sistemul ar putea fi folosit pentru a incadra oameni nevinovati, trimitandu-le imagini aparent inofensive concepute pentru a obtine potriviri cu pornografia infantila . Acest lucru ar putea pacali algoritmul Apple si ar putea alerta autoritatile. „ Expertii sunt capabili sa o faca destul de usor ”, a spus el.
Alte abuzuri ale instrumentului ar putea include spionarea guvernului asupra dizidentilor sau protestatarilor . „ Ce se intampla cand guvernul chinez spune: „Iata o lista de fisiere pe care vrem sa le scanati”? intreba Green. „ Apple spune ca nu? Sper ca va spune nu, dar tehnologia lui nu va spune nu ”.
Companii tehnologice precum Microsoft, Google, Facebook si altele au impartasit de ani de zile „amprentele digitale” ale imaginilor identificate anterior de abuz sexual asupra copiilor . Apple le-a folosit pentru a scana fisierele stocate de utilizatori pe serviciul sau iCloud, care nu este la fel de criptat ca datele de pe dispozitivele lor, pentru pornografia infantila.
Compania a fost sub presiunea guvernului pentru a permite mai multa supraveghere a datelor criptate . Crearea noilor masuri de securitate necesita ca Apple sa faca un act de echilibru intre lupta impotriva abuzului asupra copiilor si mentinerea angajamentului sau de a proteja confidentialitatea utilizatorilor sai.
Insa un pionier al libertatilor civile online, a numit miscarea Apple privind protectia vietii private „ o schimbare socanta a cursului pentru utilizatorii care s-au bazat pe conducerea companiei in ceea ce priveste protectia vietii private.” confidentialitate si securitate ”.
La randul sau, informaticianul care a inventat PhotoDNA in urma cu mai bine de un deceniu , tehnologia folosita de agentiile de aplicare a legii pentru a identifica pornografia infantila pe Internet , a recunoscut posibilitatea ca sistemul Apple sa fie folosit gresit , dar a spus ca este depasit cu tine. sa creasca cu imperativul de a lupta impotriva abuzului sexual asupra minorilor .
″ Este posibil? Desigur. Dar este ceva care ma ingrijoreaza? Nu ”, a spus un cercetator care sustine ca o serie de alte programe concepute pentru a proteja dispozitivele de diverse amenintari nu au vazut „acest tip de misiune ”. -to-end de criptare pentru a le proteja confidentialitatea, dar foloseste si un sistem pentru a detecta malware si a avertiza utilizatorii sa nu faca clic pe linkuri rau intentionate.
Apple a fost una dintre primele companii care a adoptat criptarea „end-to-end” , in care mesajele sunt criptate astfel incat doar expeditorii si destinatarii lor sa le poata citi. Insa autoritatile fac presiuni de mult timp sa li se permita accesul la aceste informatii pentru a investiga infractiuni precum terorismul sau exploatarea sexuala a copiilor .
Potrivit Apple , cele mai recente modificari vor fi lansate in acest an, ca parte a actualizarilor software-ului sau de operare pentru iPhone, Mac si Apple Watches .
Extinderea de catre Apple a protectiei pentru copii este o schimbare a jocului . Cu atat de multi oameni care folosesc produse Apple, aceste noi masuri de siguranta au potentialul de a salva vietile copiilor .
Tehnologia Apple echilibreaza „ nevoia de confidentialitate cu siguranta digitala a copiilor ”. Thorn, o organizatie nonprofit fondata de Demi Moore si Ashton Kutcher, foloseste tehnologia pentru a ajuta la protejarea copiilor impotriva abuzului sexual, identificand victimele si colaborand cu platforme tehnologice.
Dar, intr-o mustrare dura, s-a cerut ca Apple sa renunte la modificari, despre care a spus ca distrug garantia companiei de criptare end-to-end . Scanarea mesajelor pentru continut sexual explicit pe telefoane sau computere distruge securitatea in practica , a spus el.
Organizatia a pus sub semnul intrebarii tehnologia Apple pentru a face distinctia intre continutul periculos si ceva la fel de inofensiv precum arta sau un meme. Astfel de tehnologii sunt foarte predispuse la erori.
Apple neaga ca modificarile sunt o usa din spate care ii degradeaza criptarea . Acesta sustine ca acestea sunt inovatii bine studiate care nu perturba confidentialitatea utilizatorului, ci o protejeaza ferm.
In plus, Apple a spus ca aplicatia sa de mesagerie va folosi invatarea automata de pe dispozitiv pentru a identifica si estompa fotografiile sexual explicite de pe telefoanele copiilor si va putea, de asemenea, sa avertizeze parintii despre cei mici prin mesaje text. De asemenea, a mai spus ca software-ul sau va „interveni” atunci cand utilizatorii vor incerca sa caute subiecte legate de abuzul sexual asupra copiilor .
Pentru a primi avertismente despre imaginile sexuale pe dispozitivele copiilor lor, parintii vor trebui sa inregistreze telefonul copilului. Cei peste 13 ani se pot dezainscrie, ceea ce inseamna ca parintii adolescentilor nu vor primi notificari.
Apple a spus ca nicio caracteristica nu va compromite securitatea comunicatiilor private si nici nu va notifica politia .