Tribuna Ribeirão
Ciência e Tecnologia

Em novo documento, Apple explica “equívocos” sobre monitoramento de iPhones

© Reuters/Direitos Reservados

epois de causar muita discussão, a Apple publicou um novo documento onde explica “equívocos” vindos de suas medidas de monitoramento de iPhones e outros dispositivos. Na última semana, a empresa de Cupertino informou que passaria a fazer varreduras em dispositivos de sua marca, a fim de identificar materiais e usuários que se valessem de sua segurança para veicular materiais de pedofilia – ao que a companhia se refere pela sigla “CSAM” (ou “Material de Abuso Sexual de Crianças”, na descrição traduzida).

Na ocasião do anúncio, a Apple recebeu diversos elogios sobre as medidas e seu objetivo primário. Entretanto, entidades como a Electronic Frontier Foundation (EFF) se mostraram “decepcionadas”, haja vista que a empresa liderada por Tim Cook é conhecida pelo seu imenso apreço pela privacidade, e essa flexibilização, por mais nobre que fosse, poderia abrir caminho para o mau uso por hackers ou autoridades governamentais.

Imagem mostra uma mãe preocupada abraçando a sua filha. A mãe tem cabelos longos e pretos, enquanto a menina tem o cabelo amarrado em duas partes.

Assunto veio à tona após Apple anunciar monitoramento de iPhones e outros dispositivos para combater a distribuição de pornografia infantil.
O combate ao abuso infantil recebeu ganhou na Apple um aliado extremamente poderoso, mas a forma como a empresa quer atacar o problema gerou debate vindo de especialistas em segurança e privacidade. Imagem: fizkes/Shutterstock

O novo documento da Apple toca em três pontos principais sobre o monitoramento de iPhones, iPads e afins: alertas explícitos via iMessage para crianças inseridas em grupos familiares dentro do iCloud; detecção de fotos contendo CSAMs (via traços digitais únicos) e interações com a Siri e mecanismos de buscas relacionados a CSAMs, que resultarão em alertas e redirecionamento para links de ajuda profissional.

O ponto mais volátil que a Apple dedica boa parte do documento de seis páginas para esclarecer é a questão da tecnologia aplicada: a detecção das imagens no iCloud e os alertas via iMessage não são a mesma coisa. Com a palavra, a própria Apple:

“A segurança da comunicação no Messages é feita para dar aos pais e filhos mais ferramentas para proteger as crianças de enviarem e receberem imagens sexualmente explícitas pelo app. Ela somente funciona em imagens enviadas ou recebidas pelo Messages de usuários de contas infantis criadas por meio do recurso de Compartilhamento Familiar. Essa função analisa as mensagens pelo próprio dispositivo, então não muda as certezas conferidas pela privacidade do Messages. Quando uma conta infantil envia ou recebe mensagens sexualmente explícitas, essa imagem estará desfocada e a criança será avisada, terá apresentados diversos recursos e reassegurada de que está tudo bem se ela não quiser ver ou enviar a foto. Como uma medida de proteção adicional, crianças mais jovens podem também ser informadas que, para garantir a sua segurança, seus pais serão notificados se ela ver a imagem.

A segunda função, detecção de CSAMs pelo iCloud, é desenhada para manter esses materiais fora da nuvem sem entregar à Apple informações sobre quaisquer outras imagens que não aquelas que batam com registros conhecidos de CSAM. Tais imagens são de posse ilegal na maioria dos países, incluindo os Estados Unidos. Essa função só traz impacto para usuários que tenham escolhido o iCloud para armazenar suas fotos. Ela não afeta aqueles que não usem o iCloud. Também não há impacto para qualquer outra informação no dispositivo. E essa função não se aplica ao Messages”.

Em outros pontos, a Apple resume o discurso:

  • Mensagens enviadas por e recebidas por crianças nunca serão compartilhadas com autoridades policiais
  • O Messages continuará com criptografia de ponta a ponta
  • Crianças com pais abusivos podem procurar, com segurança, por ajuda por meio do Messages caso utilizem apenas texto (não imagens)
  • Os pais só receberão alertas de visualização de CSAMs pelos seus filhos se as crianças com 12 anos ou menos de idade, ainda que um resultado positivo na base de dados de CSAMs sejam revisados manualmente antes de informados à polícia

Outro ponto levantado pela EFF foi o de que, ainda que hoje esse sistema seja desenhado para funcionar apenas contra a pornografia infantil, agências governamentais poderiam fornecer à Apple uma base de dados com outros materiais que –elas– considerem inadequados. Um exemplo foi o caso do “Rebelde Desconhecido” (também chamado de “Homem dos Tanques”) – uma imagem que mostra um homem carregando sacolas de compra posicionado, sozinho, em frente a vários tanques do Exército Chinês.

A imagem remete ao Massacre da Praça da Paz Celestial em 1989, um episódio de repressão militar do governo chinês que matou algo entre “várias centenas” e “milhares” de manifestantes (dependendo de qual fonte você consultar) que pediam por uma reforma política completa e menor repressão por parte das autoridades.

A foto do “Rebelde Desconhecido” é proibida de ser veiculada na China, e menções online à Praça Tian’anmen – o nome do local no idioma chinês – são monitoradas e reprimidas.

“Poderiam os governos forçar a Apple a adicionar imagens que não sejam CSAMs à lista? A Apple vai recusar qualquer demanda do tipo. A capacidade de detecção de CSAMs é construída exclusivamente para encontrar imagens de sexualidade explícita envolvendo crianças que estejam armazenadas no iCloud e que tenham sido catalogadas por experts do Centro Nacional para Crianças Desaparecidas e Exploradas [NCMEC, na sigla em inglês] e outros grupos de proteção infantil. Nós já enfrentamos, no passado, exigências de entrega de mudanças encomendadas por governos para degradar e enfraquecer a privacidade e a segurança de usuários, e veementemente recusamos tais pedidos. Nós continuaremos a negá-los no futuro. Seremos muito claros: essa tecnologia é limitada exclusivamente a CSAMs armazenadas no iCloud e nós não vamos aceitar nenhum pedido de nenhum governo para expandí-la. Mais além, a Apple conduz revisões humanas antes de relatar esse material ao NCMEC. No caso do sistema marcar fotos que não são identificadas nas bases de dados CSAM já conhecidas, a conta em questão não será desligada e nenhum compartilhamento será feito com o NCMEC”.

Na prática, porém, a história pode ser outra: segundo diversos especialistas, essa “recusa” da Apple depende de ela ter o arcabouço jurídico que lhe permite negar tais pedidos. Novamente citando a China, a nação asiática conseguiu fazer com que a Apple removesse de sua loja aplicações de VPN, notícias e algumas redes sociais, bem como armazenar dados de usuários do iCloud em um parque de servidores controlado pelo governo local.

De uma forma resumida e prática, não há como a Apple garantir que seu monitoramento de iPhones e outros dispositivos obedeça aos mesmos parâmetros em todo lugar. Por essa razão, tal política estará inicialmente posicionada nos EUA, com a empresa de Cupertino ressaltando que sua implementação em outras nações será analisada “país por país”. A legalidade disso em outras regiões, porém, dependerá de análises mais aprofundadas.

Via Olhardigital

Postagens relacionadas

Apagão global na internet – Apps de bancos brasileiros apresentam falhas

Redação 10

Extinção em massa pode ter sido causada por dano na camada de ozônio

Redação 1

Cápsula Dragon, da SpaceX, leva ratos e robô flutuante à Estação Espacial Internacional

Redação 1

Utilizamos cookies para melhorar a sua experiência no site. Ao continuar navegando, você concorda com a nossa Política de Privacidade. Aceitar Política de Privacidade

Social Media Auto Publish Powered By : XYZScripts.com