WhatsApp acusa Apple de criar sistema de vigilância ao verificar abuso infantil em fotos
O chefe do mensageiro afirma que o novo recurso pode ser ruim para a privacidade dos demais usuários. Função deve ser lançada ainda em 2021.
A para descobrir potencial abuso infantil em fotos do iPhone já chegou gerando controvérsias. E nesta sexta-feira (6), apenas um dia após o anúncio, Will Cathcart, chefe do WhatsApp, disse que a empresa se recusaria a adotar o software, alegando que a novidade apresenta uma série de questões jurídicas e de privacidade.
“Eu li a informação que a Apple divulgou ontem (quinta-feira, 5) e estou preocupado. Acho que essa abordagem é errada e um revés para a privacidade das pessoas em todo o mundo. As pessoas perguntam se vamos adotar esse sistema para o WhatsApp. A resposta é não”, Cathcart em sua conta pessoal no Twitter.
O executivo criou uma sequência de mensagens para elaborar essas preocupações, citando a capacidade dos governos e empresas de spyware de interceptarem o software da Apple, violando, assim, a privacidade de milhões de usuários do iPhone. “Este software de digitalização no seu telefone pode ser à prova de erros? Os pesquisadores não tiveram permissão para descobrir. Por que não? Como saberemos quantas vezes os erros estão violando a privacidade das pessoas?”, questionou.
I read the information Apple put out yesterday and I'm concerned. I think this is the wrong approach and a setback for people's privacy all over the world. People have asked if we'll adopt this system for WhatsApp. The answer is no.Em seu anúncio na quinta-feira (5), a Apple disse que havia programado a atualização para um lançamento no final de 2021, como parte de uma série de mudanças que a empresa planejava implementar para proteger as crianças de predadores sexuais. O sistema usaria uma chamada NeuralHash, para determinar se as imagens no dispositivo de um usuário correspondem às impressões digitais de material de abuso sexual infantil conhecido (CSAM, na sigla em inglês).— Will Cathcart (@wcathcart)
Conforme o Gizmodo , o recurso não foi totalmente bem visto por especialistas em segurança. , Matthew Green, professor associado do Instituto de Segurança da Informação Johns Hopkins, alertou pelo Twitter que a ferramenta poderia eventualmente se tornar um precursor para “adicionar vigilância aos sistemas de mensagens criptografadas”.
“Tive a confirmação independente de várias pessoas de que a Apple está lançando uma ferramenta do lado do cliente para digitalização CSAM. Esta é uma ideia realmente ruim. Essas ferramentas permitirão que a Apple escaneie as fotos do seu iPhone em busca de imagens que correspondam a um hash perceptivo específico e as relate aos servidores da empresa se muitos deles aparecerem”, . Mas, de acordo com a Apple, a afirmação de Cathcart sobre o software ser usado para “escanear” dispositivos não é exatamente precisa. Embora a digitalização implique um resultado, o novo sistema executaria uma comparação de quaisquer imagens que um determinado usuário escolher enviar para o iCloud usando a ferramenta NeuralHash. Os resultados dessa varredura estariam guardados em um banco de segurança criptográfico, e o conteúdo precisaria ser enviado para ser lido. Em outras palavras: a Apple não estaria coletando dados de bibliotecas de fotos de usuários individuais como resultado de tal varredura — a menos que estivessem acumulando material criminosos do tipo CSAM. Segundo a Apple, apesar de existir o potencial para uma leitura errada, a taxa de usuários lidos de maneira equivocada seria inferior a um em 1 trilhão por ano.