A Appleanunciou que vai pôr em uso um sistema para localizar material de abuso sexual infantil (CSAM, em inglês) nos dispositivos. Inicialmente, a empresa vai realizar o teste nos Estados Unidos (EUA). As medidas serão lançadas nas próximas atualizações, ainda esse ano.
“Antes que uma imagem seja armazenada nas fotos do iCloud, um processo de correspondência no dispositivo é executado para essa imagem em relação ao material de abuso sexual infantil conhecido”, disse a Apple.
As imagens, passarão por uma tecnologia que irá procurar correspondências com o material de pornografia infantil, se detectado, as imagens serão analisadas manualmente antes de serem entregues às autoridades. Além de, desabilitar a conta do usuário, conforme o comunicado oficial publicado.
O sistema vai comparar as imagens de um banco de dados (hashes) fornecido pelo Centro Nacional de Crianças Desaparecidas e Exploradas nos EUA e de outras organizações, ou seja, códigos numéricos que podem ser combinados com imagens dos dispositivos, mesmo que tenham sido editadas, antes de serem armazenadas no iCloud.
Segundo a Apple, o recurso é projetado para ter, no máximo, umfalso positivo por trilhão de análises. Todo o processo é conduzido por uma tecnologiacriptografada que determina se a imagem está sendo usada para fins de pornografia infantil. O dispositivo então codifica o resultado e cria uma criptografia de segurança junto à imagem e os armazena.
Privacidade
A exploração de crianças e adolescentes é um problema mundialmas o que se questiona na iniciativa da Apple é a segurança e privacidade, uma vez que, pequenas mudanças nesse sistema poderiam ser usadas, no futuro, por autoridades governamentais ou hackers para invadir a privacidade do usuário.
O pesquisador de segurança, Matthew Green, da Universidade Johns Hopkins (EUA), avaliou em seu perfil no Twitter que, para a Apple, “é seguro construir sistemas que examinam os telefones dos usuários em busca de conteúdo proibido”.