Antropomorfização tecnológica: a nova distração das Big Techs

A ideia de robôs sencientes inspirou décadas de obras de ficção científica. A busca por alcançar a tecnologia idealizada por cientistas e autores também não é nova e atualmente muitos laboratórios focam na construção de uma Inteligência Artificial que possa alcançar ou até mesmo superar a inteligência humana, sem haver sucesso nessa empreitada. No entanto, pesquisadores e entusiastas vem suscitando a ideia de que a consciência desses sistemas está próxima de ser alcançada.

O rumor foi intensificado no início deste mês (junho de 2022) quando as manchetes foram tomadas pela notícia de que a nova Inteligência Artificial de linguagem do Google, LaMDA (Language Model for Dialogue Applications), pode estar se tornando senciente. A notícia veio à tona quando um engenheiro da empresa, Blake Lemoine, responsável por testar a I.A em relação à presença de vieses e discursos de ódio, veio a público relatar sua experiência, afirmando que “sabe quando está conversando com uma pessoa”.

O que é consciência e o que significa ser senciente? 

Segundo o dicionário Michaelis, a palavra consciência designa a capacidade, intelectual e emocional, da qual o ser humano possui a percepção de considerar; reconhecer a realidade exterior ou interior, como a própria existência. É a percepção que permite que o ser humano conheça valores ou mandamentos morais e o aplique em diferentes situações, estabelecendo julgamentos interiores que propiciam sentimentos como o de alegria ou tristeza. Em semelhança, um ser senciente é aquele que possui a capacidade de sentir e ter sensações, de ser sensível e receber impressões, de desenvolver sensações e sentimentos específicos de acordo com aquilo que vivência. 

Para que uma Inteligência Artificial (I.A) pudesse ser considerada senciente, portanto, ela deveria conseguir agir por conta própria e ter percepção da relação causal e da lógica por trás de suas ações; a capacidade de perceber as coisas por si mesma e as interpretar; a capacidade de ter pensamentos abstratos; sentir empatia ou qualquer outro sentimento; ter criatividade. Uma I.A consegue trabalhar no contexto no qual ela foi treinada. Uma I.A treinada para dirigir automóveis provavelmente não poderá jogar xadrez e vice-versa. Um ser senciente pode navegar a realidade, experienciando situações ainda que não tenham conhecimento ou informações prévias sobre aquilo.

Devido aos avanços na arquitetura, técnica, processamento e volume de dados, os modelos de Inteligência Artificial de linguagem hoje podem produzir resultados impressionantes, que se parecem com a fala e a criatividade humanas, no entanto, esses modelos dependem de reconhecimento de padrões, isto é, eles funcionam com base no processamento de linguagem de textos e conversas produzidos por humanos. Esses sistemas, essencialmente, imitam a linguagem e conversação de milhões de textos e frases incluídas em suas bases de dados. A LaMDA, por exemplo, usa informações sobre determinados assuntos para melhorar o diálogo e torná-lo mais natural, mantendo a conversa fluindo. 

Os seres humanos sempre se viram nas tecnologias que criam. Cientistas da computação chegaram a cunhar o termo efeito ELIZA, para ilustrar essa tendência do ser humano de atribuir significados mais profundos às respostas computacionais e a atribuir qualidades antropomórficas a sistemas de Inteligência Artificial. 

Por mais que a interação entre o engenheiro Blake e a LaMDA passe a impressão de que o sistema possua sentimentos e emoções e tenha consciência de sua própria existência, o que realmente acontece é que a I.A está simplesmente reproduzindo padrões de linguagem e conversação que lhe foram introduzidos em seu treinamento e base de dados. Portanto, a I.A não precisa ser senciente para parecer ter uma consciência, o que não indica que ela realmente a tenha. 

Uma distração deliberada

Meredith Whittaker, pesquisadora de I.A e professora na escola de engenharia da Universidade de Nova Iorque, ex-funcionária do Google, se manifestou sobre o assunto afirmando que os pesquisadores são constantemente forçados a refutar esse tipo de “bobagens”, enquanto as grandes empresas de tecnologia se beneficiam dessa narrativa, se expandindo, assumindo o controle de tomada de decisões e da infraestrutura de instituições sociais e políticas. Segundo ela, essa discussão que veio à tona após a publicação do teste da LaMDA por Blake Lemoine se parece com uma distração deliberada, com o intuito de desviar a atenção e a pressão exercida sob as Big Techs e a ética de seus sistemas automatizados. 

Esses rumores desviam a atenção de um tópico muito mais grave, mais palpável e mais urgente do que a discussão sobre a presença de consciência em sistemas de IA. Os vieses e discriminações humanas estão presentes nas tecnologias de IA ainda que essas não sejam sencientes, sendo mascaradas justamente pelo discurso de que a tecnologia é objetiva e neutra. 

Ao passo em que a discussão se espalha e vira tema de manchetes, as preocupações sobre os vieses apresentados por I.A, que são fundamentadas em perigos reais, vão ficando em segundo plano. O próprio Google chegou a demitir recentemente diversos pesquisadores de ética em AI após discordâncias internas sobre os impactos desses sistemas. E ainda que essas empresas ainda tenham em suas equipes pesquisadores que buscam garantir que os sistemas criados respeitem preceitos mínimos de ética, os seus exemplos de Inteligências Artificiais que apresentaram “comportamentos” discriminatórios seguem aumentando, causando danos reais às vidas de milhares de pessoas. No entanto, para cada problema do mundo, a resposta das Big Techs é sempre a mesma: produzir mais “tecnologia” (algoritmos, sistemas etc.) ou processar mais “informações” (ou dados). 

Embora essas respostas possam ser soluções privadas lucrativas, elas não são respostas eficazes para  resolver os problemas públicos e complexos, decorrentes de causas estruturais profundas, mas, ainda assim, novos sistemas tecnológicos destinados a resolver grandes problemas sociais são criados todos os anos.

As soluções tecnológicas, em sua maioria, não visam atingir a raiz do problema, mas o redefinem como se eles fossem causados justamente pela insuficiência de informações, para que assim, o aumento da coleta e processamento de dados seja justificado. Esse é o caso de sistemas tecnológicos criados com o fim de combater a criminalidade por meio da coleta e processamento de dados, no intuito de se obter “predições” da região geográfica em que há maior propensão de ocorrência de crimes, ou da probabilidade de determinada pessoa reincidir na criminalidade. Quando na verdade, o cerne da questão da criminalidade está no modelo econômico, nas estruturas institucioanis e sociais e na discriminação racial e contra outro grupos sociais minoritários. 

E não para por aí. Além de não conseguir resolver o problema a que foi destinado, alguns desses sistemas, se não todos, ainda estão reproduzindo os vieses e discriminações existentes no racional humano. E porque não o fariam? Essas tecnologias são criadas e treinadas pelo ser humano, com dados que refletem as lógicas enviesadas por trás das decisões humanas. 

A senciência de Inteligências Artificiais pode estar restrita a obras de ficção científica por mais um longo período de tempo, mas os danos causados por essas tecnologias à sociedade já estão presentes em nosso dia-a-dia. É sobre isso que deveríamos estar discutindo. 



TEM UMA PAUTA?
ESTAMOS AQUI!

Toda ideia tem o potencial de ser uma boa ideia. Gostamos de ouvir ideias de pauta, denúncias ou sugestões de nossos leitores. Se quiser compartilhar, conte conosco — e olha, pode ser anônimo, tá?


Em destaque

RECENTES

A revista o sabiá é um veículo de mídia independente e sem fins lucrativos, que busca usar o jornalismo e a comunicação como um mecanismo de mudança no futuro das novas gerações.