ONU adverte que IA pode representar uma ameaça ‘negativa e até mesmo catastrófica’ aos direitos humanos

Por Katabella Roberts

A Organização das Nações Unidas advertiu que os sistemas de inteligência artificial (IA) podem representar uma ameaça “negativa, até mesmo catastrófica” aos direitos humanos e pediu que as aplicações de IA que não sejam usadas em conformidade com os direitos humanos sejam banidas.

A chefe de Direitos Humanos da ONU, Michelle Bachelet, pediu em 15 de setembro aos Estados membros que banissem temporariamente a venda e o uso de IA até que os riscos potenciais que isso representa sejam resolvidos e as salvaguardas adequadas sejam postas em prática para garantir que a tecnologia não seja abusada.

“Não podemos continuar jogando quando se trata de IA, permitindo seu uso com limite ou supervisão limitada ou sem supervisão e lidar com as consequências quase inevitáveis ​​para os direitos humanos após o fato”, disse Bachelet em um comunicado .

“O poder da IA ​​para servir às pessoas é inegável, mas também ha sua capacidade de alimentar violações dos direitos humanos em grande escala e praticamente sem visibilidade. É necessário agir agora para colocar barreiras aos direitos humanos no uso da IA, para o bem de todos nós , acrescentou a responsável pelos direitos humanos.

Seus comentários foram feitos logo depois que seu escritório publicou um relatório examinando como a IA afeta o direito das pessoas à privacidade, bem como uma série de outros direitos relacionados à saúde, educação, liberdade de movimento e liberdade de expressão, entre outros.

O documento inclui uma avaliação de criação de perfil, tomada de decisão automatizada e outras tecnologias de aprendizado de máquina.

Embora o relatório indique que a IA pode ser bem aproveitada e pode ajudar “as sociedades a superar alguns dos grandes desafios de nosso tempo”, seu uso como ferramenta de previsão e criação de perfil pode afetar drasticamente “os direitos à privacidade, um julgamento justo, a não detenção arbitrária e o direito à vida”.

De acordo com o relatório, muitos estados e empresas muitas vezes não conseguem passar pela papelada necessária quando correm para adotar os aplicativos de IA e, em alguns casos, isso levou a erros perigosos, já que algumas pessoas foram supostamente abusadas e até presas devido a falhas no reconhecimento facial dos Programas.

Por outro lado, o reconhecimento facial tem o potencial de permitir o rastreamento ilimitado de pessoas, o que pode levar a uma série de problemas relacionados à discriminação e à proteção de dados.

Um robô de IA desenvolvido pela empresa chinesa CloudMinds na Mobile World Conference em Xangai em 27 de junho de 2018 (AFP / Getty Images)
Visitantes veem um sistema de cidade inteligente iFLY AI no 2018 International Smart Transportation Industry Expo em Hangzhou, província de Zhejiang, leste da China, em dezembro de 2018 (STR / AFP / Getty Images)

Uma vez que muitos sistemas de IA são baseados em grandes conjuntos de dados, as questões adicionais relacionadas a como esses dados são armazenados a longo prazo também representam um risco, e há a possibilidade de que esses dados sejam aproveitados no futuro, o que pode representar um risco significativo de segurança nacional.

“A complexidade do ambiente de dados, algoritmos e modelos que fundamentam o desenvolvimento e operação de sistemas de IA, bem como o sigilo intencional do governo e atores privados, são fatores que minam os caminhos apropriados para o público entender os efeitos dos sistemas de IA sobre os direitos humanos e a sociedade ”, afirma o relatório.

Tim Engelhardt, um oficial de direitos humanos da Seção de Estado de Direito e Democracia, alertou que a situação é “terrível” e que só piorou com o passar dos anos, pois alguns países e empresas adotaram aplicativos de IA sem investigar os múltiplos riscos potenciais associados à tecnologia.

Ao saudar o acordo da UE para “apertar os padrões de controle”, ele observou que a solução para a miríade de problemas em torno da IA ​​não virá no próximo ano e que os primeiros passos para resolver este problema devem ser dados agora. Ou “muitas pessoas no mundo irão pagar um preço alto”.

“Quanto maior o risco para os direitos humanos, mais rígidos devem ser os requisitos legais para o uso da tecnologia de IA”, acrescentou Bachelet.

O relatório e as declarações de Bachelet surgem depois que se soube, em julho, que um programa de espionagem, conhecido como Pegasus, foi usado para hackear smartphones de milhares de pessoas em todo o mundo, incluindo jornalistas, funcionários do governo e ativistas de direitos humanos.

O número de telefone do ministro da Economia francês, Bruno Le Maire , foi apenas um dos investigados no âmbito do hack com o programa de spyware, desenvolvido pela empresa israelita NSO Group.

O Grupo NSO emitiu uma declaração a vários meios de comunicação não abordando as alegações, mas afirmou que a empresa “continuará a fornecer serviços de inteligência e forças de segurança em todo o mundo com tecnologias que salvam vidas para combater o terrorismo e/ ou o crime”.

Falando na audiência do Conselho da Europa sobre as implicações da controvérsia do spyware Pegasus, Bachelet disse que as divulgações não foram uma surpresa, dado o “nível sem precedentes de vigilância em todo o mundo por atores estatais e privados”.

 
Matérias Relacionadas