Novo plano da Apple levanta questionamentos sobre segurança

A Apple pretende instalar um software em iPhones norte-americanos para escanear imagens de abuso infantil, de acordo com jornalistas que foram informados do plano, alertando os pesquisadores de segurança que podem abrir a porta para a vigilância de dispositivos pessoais de milhões de pessoas.

A empresa detalhou seu sistema proposto – conhecido como “neuralMatch” – para alguns acadêmicos dos Estados Unidos no início desta semana. Os planos podem ser divulgados de forma mais ampla ainda esta semana, afirmaram.

O sistema automatizado alertaria proativamente uma equipe de revisores humanos se ela acreditar que imagens ilegais foram detectadas, que entrariam então em contato com as autoridades se o material puder ser verificado. O esquema será implementado inicialmente apenas nos Estados Unidos.

Para alguns, essas propostas são uma tentativa da empresa de encontrar um meio-termo entre sua própria promessa de proteger a privacidade de seus clientes e as demandas contínuas de governos, agências de inteligência e defensores de uma maior assistência de empresas de tecnologia em investigações criminais.

Por diversas vezes, a Apple se recusou a dar acesso às autoridades norte-americanas aos telefones e contas de terroristas ou criminosos, sob a justificativa de estar protegendo a privacidade do cliente. A tensão entre empresas de tecnologia, como a Apple ou Facebook, que defenderam o uso crescente de criptografia em seus produtos e serviços.

Pesquisadores da área, embora apoiem os esforços para combater o abuso infantil e a pornografia infantil, estão preocupados com o risco da Apple permitir que governos em todo o mundo busquem acesso aos dados pessoais de seus cidadãos, potencialmente além de sua intenção original. Embora o sistema seja atualmente treinado para detectar abuso sexual infantil, ele poderia ser adaptado para procurar qualquer outra imagem e texto direcionados, por exemplo, decapitações por terrorismo ou sinais antigovernamentais em protestos, dizem os pesquisadores. O precedente da Apple também pode aumentar a pressão sobre outras empresas de tecnologia para usar técnicas semelhantes.

“O método da Apple para detectar CSAM (material de abuso sexual infantil, sigla traduzida do inglês) conhecido é projetado com a privacidade do usuário em mente”, disse um comunicado a imprensa da Apple. “Em vez de digitalizar imagens na nuvem, o sistema executa a correspondência no dispositivo usando um banco de dados de hashes de imagem CSAM conhecidos fornecidos pelo NCMEC (Centro Nacional para Crianças Desaparecidas e Exploradas) e outras organizações de segurança infantil. A Apple transforma ainda mais esse banco de dados em um ilegível conjunto de hashes armazenado com segurança nos dispositivos dos usuários.”

A empresa também forneceu mais detalhes sobre o sistema de detecção de material de abuso infantil em um resumo técnico e disse que seu sistema usa um limite “definido para fornecer um nível extremamente alto de precisão e garante menos de uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta.”

Além de escanear dispositivos em busca de imagens que correspondam ao banco de dados de material de abuso infantil, a Apple disse que vai atualizar o aplicativo Mensagens para “adicionar novas ferramentas para alertar as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas”. “O Mensagens usa aprendizado de máquina no dispositivo para analisar anexos de imagem e determinar se uma foto é sexualmente explícita. O recurso foi projetado para que a Apple não tenha acesso às mensagens”, disse a empresa.

Quando uma imagem no aplicativo de mensagens é sinalizada, “a foto ficará desfocada e a criança será avisada, apresentada com recursos úteis e terá a certeza de que está tudo bem se não quiser ver esta foto.” O sistema permitirá que os pais recebam uma mensagem se os filhos virem uma foto sinalizada e “proteções semelhantes estão disponíveis se uma criança tentar enviar fotos sexualmente explícitas. A criança será avisada antes que a foto seja enviada e os pais receberão uma mensagem se a criança decidir enviá-lo”, disse a Apple.

A Apple disse que vai atualizar o Siri e o Search para “fornecer aos pais e filhos mais informações e ajuda se eles se depararem com situações inseguras”. Os sistemas Siri e Search irão “intervir quando os usuários realizarem pesquisas para consultas relacionadas ao CSAM” e “explicar aos usuários que o interesse neste tópico é prejudicial e problemático e fornecer recursos de parceiros para obter ajuda com este problema.”

A empresa está sendo acusada de construir “infraestrutura para vigilância”

“A Apple está substituindo seu sistema de mensagens criptografadas de ponta a ponta padrão da indústria por uma infraestrutura para vigilância e censura, que será vulnerável a abusos e aumento de escopo não apenas nos Estados Unidos, mas em todo o mundo”, disse Greg Nojeim, co-diretor do Projeto de Segurança e Vigilância do Center for Democracy & Technology – o projeto, de acordo com o site, trabalha para promover valores democráticos, moldando a política de tecnologia e arquitetura, com foco nos direitos do indivíduo. “A Apple deve abandonar essas mudanças e restaurar a fé de seus usuários na segurança e integridade de seus dados em dispositivos e serviços Apple.”

Durante anos, a Apple resistiu à pressão do governo dos Estados Unidos para instalar um “backdoor” em seus sistemas de criptografia, afirmando que isso prejudicaria a segurança de todos os usuários. A empresa foi elogiada por especialistas em segurança por esta posição. Mas com seu plano de implantar software que realiza varredura no dispositivo e compartilhar resultados selecionados com as autoridades, a Apple está perigosamente perto de agir como uma ferramenta de vigilância governamental.

O whistleblower da NSA e presidente da organização Freedom of Press, Edward Snowden, também foi um dos críticos ao projeto. No Twitter o plano da Apple de começar a monitorar as fotos dos usuários em iPhones e seus outros produtos, escrevendo haver transformado os dispositivos em “iNarcs”. “A Apple diz para‘ proteger as crianças ’, eles estão atualizando cada iPhone para comparar continuamente suas fotos e armazenamento em nuvem com uma lista negra secreta”, escreveu Snowden em um resumo do plano da Apple na quinta-feira, anunciado no início do dia. “Se encontrar um hit, eles chamam a polícia. O iOS também avisará seus pais se você vir uma nudez no iMessage.”



TEM UMA PAUTA?
ESTAMOS AQUI!

Toda ideia tem o potencial de ser uma boa ideia. Gostamos de ouvir ideias de pauta, denúncias ou sugestões de nossos leitores. Se quiser compartilhar, conte conosco — e olha, pode ser anônimo, tá?


Em destaque

RECENTES

A revista o sabiá é um veículo de mídia independente e sem fins lucrativos, que busca usar o jornalismo e a comunicação como um mecanismo de mudança no futuro das novas gerações.