Apple irá verificar iPhones em busca de imagens ilegais de abuso infantil, gerando debate sobre privacidade

Por Jack Phillips

A Apple anunciou na quinta-feira que planeja escanear todos os iPhones nos Estados Unidos em busca de imagens de abuso infantil, alertando os especialistas em segurança que disseram que o plano poderia permitir à empresa vigiar dezenas de milhões de dispositivos pessoais por motivos não relacionados.

Em uma postagem no blog, a empresa confirmou relatos dizendo que a nova tecnologia de digitalização é parte de um pacote de programas de proteção infantil que iria “evoluir e se expandir”. Ele será lançado como parte do iOS 15, que deve ser lançado em agosto.

A Apple, que muitas vezes se autodenomina uma empresa que promete salvaguardar o direito dos usuários à privacidade, parece tentar evitar as preocupações com a privacidade, dizendo que o software irá aprimorar essas proteções, evitando a necessidade de realizar varredura de imagem generalizada em seus servidores em nuvem .

“Esta nova tecnologia inovadora permite que a Apple forneça informações valiosas e acionáveis ​​para [o Centro Nacional para Crianças Desaparecidas e Exploradas] e à aplicação da lei sobre a proliferação de CSAM conhecidos”, disse a empresa, referindo-se a uma sigla para material de abuso sexual infantil. “E faz isso enquanto fornece benefícios de privacidade significativos sobre as técnicas existentes, uma vez que a Apple só fica sabendo das fotos dos usuários se eles tiverem uma coleção de CSAM conhecidos em sua conta do iCloud Photos. Mesmo nesses casos, a Apple só aprende sobre as imagens que correspondem ao CSAM conhecido. ”

O gigante da tecnologia com sede em Cupertino disse que o sistema utilizará tecnologia de criptografia inovadora e inteligência artificial para encontrar material abusivo quando armazenado no iCloud Photos, disse a empresa em seu blog. As imagens serão comparadas a um banco de dados conhecido de imagens ilegais, disse a empresa, acrescentando que, se um determinado número dessas imagens for carregado para o iCloud Photos, a empresa irá analisá-las.

Essas imagens – se forem consideradas ilegais – serão denunciadas ao Centro Nacional para Crianças Desaparecidas e Exploradas. O software não será aplicado a vídeos, acrescentou a Apple.

“A proteção ampliada da Apple para crianças é uma virada de jogo”, disse John Clark, presidente e CEO do Centro Nacional para Crianças Desaparecidas e Exploradas, em um comunicado na quinta-feira sobre a iniciativa. “A realidade é que a privacidade e a proteção da criança podem coexistir”.

Mas alguns especialistas em segurança e pesquisadores, que enfatizaram que apoiam os esforços para combater o abuso infantil, disseram que o programa pode apresentar problemas significativos de privacidade.

Ross Anderson, professor de engenharia de segurança da Universidade de Cambridge, descreveu o sistema proposto pela Apple como “uma ideia absolutamente terrível”, de acordo com o Financial Times. “Isso levará à vigilância distribuída em massa de … nossos telefones e laptops”, observou ele.

Quando a notícia da proposta foi divulgada na noite de quarta-feira, o professor e criptógrafo da Universidade John Hopkins, Matthew Green, concordou com essas preocupações.

“Esse tipo de ferramenta pode ser uma bênção para encontrar pornografia infantil nos telefones das pessoas”, escreveu Green no Twitter . “Mas imagine o que isso poderia fazer nas mãos de um governo autoritário?”

Green disse que “se você acredita que a Apple não permitirá que essas ferramentas sejam mal utilizadas [emoji de dedos cruzados], ainda há muito com que se preocupar”, observando que tais “sistemas dependem de um banco de dados de ‘hashes de mídia problemáticos’ que você, como consumidor, não pode revisar. ”

O especialista disse à  Associated Press que teme que a Apple possa ser pressionada por outros governos mais autoritários a procurar outros tipos de informação.

A Microsoft criou o PhotoDNA para ajudar as empresas a identificar imagens de abuso sexual infantil na Internet, enquanto o Facebook e o Google implementaram sistemas para sinalizar e revisar conteúdo possivelmente ilegal.

O Epoch Times entrou em contato com a Apple para comentar.

Entre para nosso canal do Telegram

Siga o Epoch Times no Gettr

 
Matérias Relacionadas