China cria um ‘promotor’ de inteligência artificial


Até o momento, a máquina é capaz de identificar oito crimes comuns, segundo pesquisadores.

Pesquisadores na China afirmam ter conseguido desenvolver uma inteligência artificial que pode acusar pessoas de crimes com mais de noventa porcento de acerto, segundo os pesquisadores, e ocupar o espaço de promotor. A máquina foi construída e testada pela Procuradoria Popular de Shanghai Pudong, a maior promotoria distrital do país.

A equipe construiu a máquina a partir de uma ferramenta de inteligência artificial existente, chamada System 206. Os promotores na China já estavam usando o sistema para ajudar a avaliar as provas e determinar se um suspeito de crime era ou não perigoso para o público em geral.

A antiga ferramenta era considerada ‘limitada’ por não poder participar do processo de tomada de decisão de apresentar acusações e sugerir sentenças, segundo pesquisadores. Isso exigiria que a inteligência artificial conseguisse identificar, processar e remover informações irrelevantes em um caso, e processar a linguagem humana em sua rede neural.

Já a nova máquina consegue avaliar os arquivos de casos de tal forma. Ela pode identificar e acusar os criminosos dos oito crimes mais comuns do distrito: fraude de cartão de crédito, jogo, direção imprudente ou perigosa, agressão, desacato, roubo, fraude e até mesmo dissidência política.

Shi Yong, cientista chefe do programa e diretor do laboratório Big Data e Gestão do Conhecimento, em tradução livre, na Academia Chinesa de Ciências, apontou que a tecnologia pode reduzir a carga de trabalho dos promotores, dando espaço para que eles se concentrem em tarefas ou casos mais difíceis. Em entrevista a imprensa chinesa, também acrescentou que “o sistema pode, até certo ponto, substituir o papel dos promotores no processo decisório”.

Shi Yong disse a imprensa chinesa que os promotores de inteligência artificial em breve serão atualizados e suas funções se tornarão mais poderosas, incluindo a capacidade de identificar crimes menos comuns e de apresentar múltiplas acusações contra o mesmo suspeito.

No entanto, até mesmo alguns procuradores chineses levantaram questionamentos sobre quem deve ser responsabilizado caso a máquina dê sentenças incorretas.

Um promotor em Guangzhou disse, em depoimento anônimo durante entrevista a imprensa chinesa, estar profundamente preocupado com os promotores de inteligência artificial. “Do ponto de vista técnico, 97% de precisão pode ser alta, mas há sempre a possibilidade de erro. Uma vez que ocorre um erro, quem deve ser o responsável? O promotor, a máquina ou o projetista do algoritmo?

“A inteligência artificial pode ajudar a encontrar erros, mas não pode substituir os humanos na tomada de decisões”

Ele também acrescentou um comentário pessoal, alegando que muitos promotores de justiça humanos não querem que os computadores interfiram com seu trabalho.

Não seria a primeira e nem a última vez que uma inteligência artificial participou, diretamente ou indiretamente, na condenação ou perseguição injusta de um indivíduo ao redor do mundo.

Dois anos atrás, a polícia dos Estados Unidos prendeu um homem inocente porque uma tecnologia de reconhecimento facial apontou que ele seria suspeito de um crime. Robert Julian-Borchak Williams foi preso em janeiro depois que a polícia de Detroit lhe disse para se entregar.

Quando chegou à delegacia, ele foi preso porque a inteligência artificial de reconhecimento facial determinou que ele era a pessoa vista nas imagens de vigilância de um furto anos antes. Foi uma incompatibilidade clara — mas ele ainda precisou passar mais de vinte horas na prisão por conta de uma tecnologia defeituosa.

“Este não sou eu”, disse ele ao oficial. O policial respondeu: “O computador diz que é você”.

Robert Julian-Borchak Williams, relatando seu caso para União Americana pelas Liberdades Civis (ACLU, sigla em inglês)

Seu caso virou uma ação civil, e Williams processou o departamento não somente por sua prisão injusta, mas para tentar banir a tecnologia. A queixa argumenta que a falsa prisão de Williams foi um resultado direto de um erro no sistema de reconhecimento facial e que “este caso de prisão e prisão injusta exemplifica o grave dano causado pelo uso indevido e dependência da tecnologia de reconhecimento facial”.

O reconhecimento facial é somente uma das inteligências artificiais, mas durante seu curto período de aplicação em forças policiais, já criou bastante problema. Existem incontáveis casos ao redor do mundo onde civis denunciaram que a inteligência artificial poderia ser usada contra a população — durante protestos do Black Lives Matter nos Estados Unidos, senadores manifestaram preocupação que a tecnologia fosse utilizada para identificar e perseguir manifestantes.

Acreditar que a tecnologia é neutra, é uma infantilidade. Assim como um promotor de carne e osso terá viés em razão da sua formação individual, desde educação escolar até religião, uma máquina terá um viés por conta de quem a construiu.


O mito da neutralidade tecnológica

As tecnologias que estão sendo implementadas hoje, em sua maioria, servem a um propósito político e/ou econômico maior que a simples ideia de eficiência e liberdade promovida por quem as cria.




Propomos te explicar algo importante em até quarenta minutos, todos os sábados pela manhã. Você pode ler mais sobre alguns dos assuntos falados em nosso site, e acompanhar os debates em nossas redes.

A revista o sabiá é um veículo de mídia independente e sem fins lucrativos, que busca usar o jornalismo e a comunicação como um mecanismo de mudança no futuro das novas gerações.