Existe uma discussão interessante para quem tem apreço (ou medo) pela tecnologia: devemos realmente nos preocupar com a inteligência artificial, ou nossa ansiedade sobre esse progresso é somente uma consequência de toda a representação artística e polêmica sobre o tópico consumidas ao longo das décadas? Para tentar responder essa pergunta, o cientista Stuart Russell se reuniu em outubro com o Departamento de Defesa do Reino Unido. Britânico de nacionalidade, o professor da Universidade da Califórnia em Berkeley Stuart Russell é um pioneiro no campo da pesquisa em inteligência artificial. Nos últimos dez anos, ele fez esforços tremendos para evitar que a IA fosse usada para encontrar e matar pessoas.

Durante a reunião em outubro deste ano, o pioneiro pesquisador de inteligência artificial — que passou a última década tentando proibir a utilização de IAs para encontrar e assassinar alvos humanos — deu uma advertência grave: a incorporação de inteligência artificial em armas pode eliminar a humanidade. “As mortes de humanos não deveriam ser automatizadas com base em fórmulas algorítmicas”, disse o professor, em entrevista sobre o tema para uma rádio britânica. “Essa desumanização das decisões de vida e morte por parte de sistemas autônomos de armas deve ser proibida em todo o mundo”.

Para explicar o porque estamos em perigo, o professor separa dois argumentos que merecem destaque. O primeiro é que embora algoritmos não estejam nem perto de se assemelhar as capacidades humanas gerais, quando você coloca bilhões deles em execução, eles podem ter um efeito muito grande no mundo. O outro motivo de preocupação é que é inteiramente plausível — e a maioria dos especialistas pensa muito provável — que teremos inteligência artificial de uso geral nas próximas décadas, ou antes.

Penso que se a IA de propósito geral for criada no contexto atual de rivalidade de superpotência, então suponho que os resultados poderiam ser os piores possíveis.

Stuart Russell, em entrevista para a emissora britânica BBC.

O professor acredita que armas leves, baratas e fáceis de fabricar usando tecnologias de inteligência artificial podem se tornar tão onipresentes quanto rifles automáticos, mais de cem milhões dos quais estão em mãos privadas. Segundo ele, as armas movidas a IA não são mais apenas ficção científica e se tornaram uma indústria de rápido desenvolvimento e totalmente desregulamentada. Ele também considera urgente o tempo em que vivemos: as discussões sobre armas com inteligência artificial da última década saíram do campo das ideias e passaram a ser fabricadas e vendidas.

Em novembro de 2017, um fabricante de armas turco chamado STM anunciou o Kargu, um drone militar totalmente autônomo. Este ano, noticiamos nesta revista que o drone havia perseguido e ferido uma pessoa sem ter sido instruído para isso. O dispositivo, projetado justamente para guerras e operações antiterroristas, pode ser direcionado para detonar no momento do impacto, estava operando em um modo autônomo “altamente eficaz” que não exigia nenhum controlador humano. Ele também é equipado com uma carga explosiva e o drone pode ser direcionado a um alvo em um ataque kamikaze, detonando automaticamente o impacto.

Drones da empresa turca foram usados ​​para retornar seletivamente aos alvos no conflito na Líbia ano passado, apesar do embargo à venda de armas para a Líbia, segundo as Nações Unidas. Russell usa de exemplo a empresa para falar que, se uma corporação pequena e baseada em um país que não é considerado líder em tecnologia, a Turquia, devemos assumir que existem programas e dispositivos em andamento em muitos países para desenvolver esse tipo de arma autônoma — sobretudo países de primeiro mundo que possuem programas militares evasivos, como os Estados Unidos, o Reino Unido ou a China.

Além do Kargu, outra arma descrita pelo professor como motivo para preocupação foi a Harpia, dispositivo israelense: uma aeronave que carrega cargas explosivas, também sendo considerada ‘um drone suicida’. Os dispositivos podem voar remotamente ou de forma autônoma após a geografia do local e os alvos terem sido especificados por operadores humanos.

Russell alertou que a proliferação de armas de IA representa uma ameaça de existência iminente. “Um quadricóptero com IA mortal pode ser tão pequeno quanto uma lata de engraxate. Cerca de três gramas de explosivos são suficientes para matar uma pessoa à queima-roupa. Em um recipiente normal. Pode conter um milhão de armas mortais. Todos eles podem ser enviados para fazer seu trabalho de uma vez”.

O ponto final inevitável é que as armas autônomas serão armas baratas e seletivas de destruição em massa.

Stuart Russell

Durante dois dias de reunião, Russell, outros especialistas e membros do governo britânico concordaram que deveria ser obrigatório especificar um peso mínimo e tamanho do explosivo, assim, as armas autônomas não podem ser usadas como rebanho. “Você está tentando evitar dois caminhões quebrados que disparam um milhão de armas”, disse Russell.

Em última análise, ele acredita que a única maneira de convencer governos como os Estados Unidos, Rússia e Reino Unido de que ainda resistem à proibição é recorrer ao senso de autopreservação. Como ele disse, “Se os problemas técnicos forem muito complicados, seu filho provavelmente poderá explicá-los”.