A Apple disse na sexta-feira que fará algumas mudanças em seu plano para que iPhones e outros dispositivos digitalizem fotos de usuários em busca de imagens de abuso sexual infantil. Mas a Apple disse que ainda implementará o sistema após realizar “melhorias” para lidar com as críticas.

A empresa emitiu um comunicado para agências de imprensa na última sexta-feira (3).

“No mês passado, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de Material de Abuso Sexual Infantil [CSAM]. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e realizar melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.”

A declaração é vaga e não diz quais categorias de mudanças a Apple fará ou mesmo de quais grupos de defesa e pesquisadores ela coletará informações. Mas, dada a reação negativa que a Apple recebeu de pesquisadores de segurança, defensores da privacidade e clientes preocupados com a privacidade, parece provável que a Apple tentará abordar as preocupações sobre a privacidade do usuário e a possibilidade de que a Apple possa dar aos governos acessos mais amplos às fotos dos clientes.

“Assim que esse recurso for integrado aos produtos Apple, a empresa e seus concorrentes enfrentarão uma enorme pressão — e requisitos potencialmente legais — de governos em todo o mundo para digitalizar fotos não apenas para CSAM, mas também para outras imagens que um governo considere questionáveis”, noventa grupos ativistas internacionais afirmaram em uma carta aberta à Apple no mês passado. “Essas imagens podem ser de abusos de direitos humanos, protestos políticos, imagens que as empresas rotularam como ‘terrorista’ ou conteúdo extremista violento, ou mesmo imagens nada lisonjeiras dos próprios políticos que vão pressionar a empresa para fazer a varredura. E essa pressão pode se estender a todas as imagens armazenadas no dispositivo, não apenas aquelas carregadas para o iCloud. Assim, a Apple terá lançado as bases para a censura, vigilância e perseguição em uma base global.”

A Apple anunciou anteriormente que os dispositivos com o iCloud Photos habilitado irão escanear as imagens antes de serem carregadas para o iCloud. Dado que um iPhone carrega todas as fotos para o iCloud logo após serem tiradas, a digitalização de novas fotos aconteceria quase imediatamente se um usuário já tivesse ativado o Fotos do iCloud.

A empresa também afirmou que adicionará uma ferramenta ao aplicativo de mensagens que “analisará os anexos de imagens e determinará se uma foto é sexualmente explícita”. O sistema será opcional para os pais, que poderão habilitá-lo para que os aparelhos Apple “avisem as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas”.