A eterna corda-bamba entre privacidade e segurança é motivo de embates desde que os seres humanos passaram a se organizar em sociedade, e com o advento dos meios digitais a questão passou a ser ainda mais profunda: em que ponto nós dividimos o direito à privacidade de cada um da capacidade de as forças competentes combaterem crimes?
Bom, ao que tudo indica, um novo capítulo desse cabo de guerra começará a ser escrito em breve pela Apple. Segundo Matthew Green, professor de criptografia na Universidade Johns Hopkins, a Maçã lançará em breve uma ferramenta que poderá escanear fotos nos iPhones dos usuários para detectar sinais de abuso e pornografia infantil.
As descobertas de Green foram confirmadas por múltiplas fontes e corroboradas pelo Financial Times. O sistema, chamado internamente de Neuro Match, deverá entrar em ação inicialmente nos Estados Unidos e poderá acionar equipes de revisão humanas para verificar determinados conteúdos; por outro lado, especialistas apontam problemas na questão da privacidade e possíveis ameaças quanto ao mau uso desse sistema.
Entendemos a questão por partes, portanto. Primeiramente, quanto ao sistema em si: ele usa algoritmos de hashing para detectar os sinais de abuso infantil nas fotos. A Wikipédia traz uma explicação muito mais completa do que eu jamais poderia fornecer, mas basicamente o hash permite identificar conteúdos semelhantes em diferentes arquivos por meio de pontos de interseção ou valores em comum.
No caso das imagens, que é o que a Apple pretende escanear, isso se traduz em “formas” bem rudimentares geradas pelo algoritmo. Se o sistema detecta hashes similares em determinados conteúdos, pode concluir que aquele conjunto de arquivos faz parte de um mesmo “grupo” — podendo, potencialmente, detectar usuários com posse de pornografia infantil.
O sistema desenvolvido pela Apple, segundo Green, funciona da seguinte forma: caso o NeuralMatch detecte muitos arquivos com hashes relacionados a abuso infantil, uma equipe de revisão humana poderá entrar em ação e analisar os conteúdos. Caso algo ilegal seja de fato encontrado nas fotos, a equipe poderá acionar as autoridades.
Imagine que alguém lhe manda um arquivo sobre política totalmente inofensivo e você o compartilha com seus amigos. Mas e se esse arquivo tiver o mesmo hash de um conteúdo conhecido de pornografia infantil? Ainda que iniciativas para combater o abuso infantil sejam sempre louváveis, o sistema desenvolvido pela Apple tem uma série de problemas, segundo Green. O primeiro deles está no fato de que o algoritmo usado pelo Neuro Match é proprietário e fechado — isto é, ninguém fora da Apple sabe como ele funciona, e portanto não há como fazer uma auditoria do seu funcionamento.
É bom lembrar, inclusive, que a Apple já utiliza técnicas parecidas para detectar sinais de abuso infantil, mas apenas em fotos armazenadas no iCloud — uma prática empregada também por basicamente todas as companhias que oferecem serviços de armazenamento em nuvem. Nesta nova fase, ainda não confirmada por Cupertino, a verificação seria feita localmente, nos próprios iPhones dos usuários — aí sim, uma coisa inédita na indústria tecnológica.
O segundo ponto de preocupação é imaginar o que poderia acontecer no caso de uma extrapolação desse sistema ou no seu uso por governos autoritários e agências de investigação não muito preocupadas com mandatos ou restrições.
A Apple já se comprometeu a nunca usar o Neuro Match em outros serviços, como o iMessage, mas nunca se sabe como será o dia de amanhã — em alguns casos, a empresa já cedeu anteriormente a pressões externas relacionadas à privacidade, como a não criptografia dos backups do iCloud, supostamente exigida pelo FBI, e o armazenamento dos dados de usuários chineses em servidores na própria China.
O fato é que, por ora, nada está oficializado. Segundo Green, a Apple já mostrou o sistema a uma série de acadêmicos nos EUA e deverá falar mais sobre ele (publicamente) nas próximas semanas, então ficaremos de olho sobre possíveis mais detalhes.