epois de causar muita discussão, a Apple publicou um novo documento onde explica “equívocos” vindos de suas medidas de monitoramento de iPhones e outros dispositivos. Na última semana, a empresa de Cupertino informou que passaria a fazer varreduras em dispositivos de sua marca, a fim de identificar materiais e usuários que se valessem de sua segurança para veicular materiais de pedofilia – ao que a companhia se refere pela sigla “CSAM” (ou “Material de Abuso Sexual de Crianças”, na descrição traduzida).
Na ocasião do anúncio, a Apple recebeu diversos elogios sobre as medidas e seu objetivo primário. Entretanto, entidades como a Electronic Frontier Foundation (EFF) se mostraram “decepcionadas”, haja vista que a empresa liderada por Tim Cook é conhecida pelo seu imenso apreço pela privacidade, e essa flexibilização, por mais nobre que fosse, poderia abrir caminho para o mau uso por hackers ou autoridades governamentais.
O novo documento da Apple toca em três pontos principais sobre o monitoramento de iPhones, iPads e afins: alertas explícitos via iMessage para crianças inseridas em grupos familiares dentro do iCloud; detecção de fotos contendo CSAMs (via traços digitais únicos) e interações com a Siri e mecanismos de buscas relacionados a CSAMs, que resultarão em alertas e redirecionamento para links de ajuda profissional.
O ponto mais volátil que a Apple dedica boa parte do documento de seis páginas para esclarecer é a questão da tecnologia aplicada: a detecção das imagens no iCloud e os alertas via iMessage não são a mesma coisa. Com a palavra, a própria Apple:
Em outros pontos, a Apple resume o discurso:
- Mensagens enviadas por e recebidas por crianças nunca serão compartilhadas com autoridades policiais
- O Messages continuará com criptografia de ponta a ponta
- Crianças com pais abusivos podem procurar, com segurança, por ajuda por meio do Messages caso utilizem apenas texto (não imagens)
- Os pais só receberão alertas de visualização de CSAMs pelos seus filhos se as crianças com 12 anos ou menos de idade, ainda que um resultado positivo na base de dados de CSAMs sejam revisados manualmente antes de informados à polícia
Outro ponto levantado pela EFF foi o de que, ainda que hoje esse sistema seja desenhado para funcionar apenas contra a pornografia infantil, agências governamentais poderiam fornecer à Apple uma base de dados com outros materiais que –elas– considerem inadequados. Um exemplo foi o caso do “Rebelde Desconhecido” (também chamado de “Homem dos Tanques”) – uma imagem que mostra um homem carregando sacolas de compra posicionado, sozinho, em frente a vários tanques do Exército Chinês.
A imagem remete ao Massacre da Praça da Paz Celestial em 1989, um episódio de repressão militar do governo chinês que matou algo entre “várias centenas” e “milhares” de manifestantes (dependendo de qual fonte você consultar) que pediam por uma reforma política completa e menor repressão por parte das autoridades.
A foto do “Rebelde Desconhecido” é proibida de ser veiculada na China, e menções online à Praça Tian’anmen – o nome do local no idioma chinês – são monitoradas e reprimidas.
Na prática, porém, a história pode ser outra: segundo diversos especialistas, essa “recusa” da Apple depende de ela ter o arcabouço jurídico que lhe permite negar tais pedidos. Novamente citando a China, a nação asiática conseguiu fazer com que a Apple removesse de sua loja aplicações de VPN, notícias e algumas redes sociais, bem como armazenar dados de usuários do iCloud em um parque de servidores controlado pelo governo local.
De uma forma resumida e prática, não há como a Apple garantir que seu monitoramento de iPhones e outros dispositivos obedeça aos mesmos parâmetros em todo lugar. Por essa razão, tal política estará inicialmente posicionada nos EUA, com a empresa de Cupertino ressaltando que sua implementação em outras nações será analisada “país por país”. A legalidade disso em outras regiões, porém, dependerá de análises mais aprofundadas.
Via Olhardigital