A ONU está preocupada com a inteligência artificial. O Chefe de Direitos Humanos das Nações Unidas pediu uma moratória sobre o uso de inteligência artificial que poderia representar um risco substancial para os direitos humanos, incluindo sistemas de reconhecimento facial que podem rastreá-lo em público. O relatório inicial também afirma que, se as nações não começarem a desenvolver salvaguardas eficazes agora, o lançamento de aplicativos de inteligência artificial na vida diária pode rapidamente se tornar mais prejudicial do que benéfico para a condição humana.

Países e empresas têm se esforçado para implantar a inteligência artificial

A Alta Comissária das Nações Unidas para os Direitos Humanos, Michelle Bachelet, também afirmou que os países devem proibir explicitamente todos os aplicativos de inteligência artificial que vão contra a lei de direitos humanos, enfatizando que os aplicativos de “pontuação social” não devem ser aplicados pelos governos, citando que esses sistemas prejudiciais dividem as populações humanas com base na etnia ou gênero. Enquanto ela afirma o valor de uso muito real das tecnologias de inteligência artificial na melhoria da condição humana, Bachelet advertiu que elas também podem “ter efeitos negativos, até mesmo catastróficos, se forem usadas sem considerar como afetam os direitos humanos das pessoas”, conforme a declaração.

Os comentários de Bachelet ocorreram em meio a um novo relatório das Nações Unidas que refletiu sobre como os países e empresas têm se esforçado para implementar sistemas de inteligência artificial que afetam drasticamente as vidas e meios de subsistência dos cidadãos comuns antes de garantir o estabelecimento de salvaguardas capazes de prevenir a discriminação de forma significativa, o que pode excluir pessoas de lares, empregos, cuidados de saúde e a dignidade básica dos direitos humanos. “Não se trata de não ter IA”, disse a diretora do Escritório de Direitos Humanos, Peggy Hicks, sobre o envolvimento temático durante uma apresentação em Genebra. “Trata-se de reconhecer que, se a IA for usada nessas áreas de funções de direitos humanos — muito críticas, isso deve ser feito da maneira certa”.

Segundo o relatório, países e empresas muitas vezes correram para incorporar aplicativos de inteligência artificial, deixando de realizar a devida diligência. Ele afirma que tem havido vários casos de pessoas sendo tratadas injustamente devido ao uso indevido de inteligência artificial, como não receberem benefícios da previdência social por causa de ferramentas de IA defeituosas ou presas por causa de software de reconhecimento facial defeituoso.

Outra solução cada vez mais procurada por Estados, organizações internacionais e empresas de tecnologia são as tecnologias biométricas, que, segundo o relatório, são uma área “em que mais orientações sobre direitos humanos são urgentemente necessárias”. Essas tecnologias, que incluem o reconhecimento facial, são cada vez mais utilizadas para identificar pessoas em tempo real e à distância, permitindo potencialmente o rastreamento ilimitado de indivíduos.

“E simplesmente ainda não implementamos uma estrutura que garanta que isso aconteça.” Bachelet não defendeu o banimento de toda tecnologia de reconhecimento facial, mas ela enfatizou que os governos precisam parar de escanear os recursos das pessoas em tempo real até que essas nações possam provar que a tecnologia é precisa, é livre de discriminação e atende privacidade e dados específicos protocolos de proteção.

O relatório reitera os apelos por uma moratória sobre seu uso em espaços públicos, pelo menos até que as autoridades possam demonstrar não haver problemas significativos com precisão ou impactos discriminatórios e que esses sistemas de IA cumprem com robustos padrões de privacidade e proteção de dados. Os autores do relatório das Nações Unidas decidiram não citar quais países, já que isso poderia ser contraproducente e causar reações que poderiam representar risco para os direitos humanos.

Vários processos judiciais na Austrália e nos Estados Unidos foram suficientes para revelar a implementação antiética da inteligência artificial. O escândalo do spyware Pegasus, revelado por um consórcio internacional de jornalistas em julho, demonstrou como tecnologias destrutivas atuam de forma caótica — no caso do Pegasus, espionando políticos, jornalistas e ativistas a mando de clientes da empresa privada israelense fabricante do programa; os clientes variaram de pessoas físicas, a entidades privadas a governos autoritários.

Mas o relatório das Nações Unidas também fala com cautela sobre as ferramentas projetadas para deduzir os estados mentais ou emocionais das pessoas por meio da avaliação das expressões faciais, ou movimentos corporais, uma vez que essas tecnologias são extremamente suscetíveis a preconceitos e são interpretações errôneas sem qualquer embasamento científico subjacente.

O documento também destaca a necessidade de uma transparência muito maior por parte das empresas e dos Estados em como estão desenvolvendo e usando a inteligência artificial. “A complexidade do ambiente de dados, algoritmos e modelos subjacentes ao desenvolvimento e operação de sistemas de IA, bem como o sigilo intencional do governo e atores privados são fatores que minam formas significativas para o público entender os efeitos dos sistemas de IA nos direitos humanos e na sociedade”, afirma o relatório.

Sabiá

revista o sabiá é uma revista independente, digital e sem fins lucrativos. Surgimos com o propósito de democratizar o acesso à informação de qualidade para a juventude brasileira, seja ela a informação acadêmica, jornalística, científica ou cultural.

Acreditamos que tanto o jornalismo como a comunicação possuem o potencial de mudar o mundo, sendo necessário reaver a sua função social. Ao longo da história moderna, o senso comum costuma lembrar do lado negativo que a imprensa ao contribuir ou participar de narrativas políticas polêmicas. Nós, pelo contrário, gostamos de pensar que a imprensa teve um papel essencial em eventos como o Maio de 1968, a Primavera Árabe e muitos outros.