Vinte estados das cinco regiões do Brasil utilizam ou estão implementando a tecnologia de reconhecimento facial na segurança pública local. Outros três estudam sua implementação e apenas quatro estados não utilizam, não tiveram contato com o sistema ou planejam utilizar. Os dados foram levantados pela Folha por meio das secretarias estaduais de Segurança e das polícias Civil e Militar.
A tecnologia também será usada pela Polícia Federal. O órgão anunciou a implementação de um sistema que irá coletar, armazenar e cruzar dados pessoais sensíveis de 50,2 milhões de brasileiros. Para isso, o programa utilizará registros provenientes do reconhecimento facial e impressão digital, além de unificar dados das secretarias de Segurança estaduais.
No combate ao crime, a tecnologia é usada para capturar foragidos e procurados da Justiça, mas os governos locais também a utilizam para buscar desaparecidos. Na maioria dos casos, as polícias mantêm a operação 24 horas por dia. Em outros, apenas em grandes eventos como o Carnaval.
Em São Paulo, o sistema foi implementado em 2020, com o objetivo de ser usado como apoio às investigações policiais. São cerca de 30 milhões de faces registradas, o que, segundo a Secretaria de Segurança Pública do estado, “permite maior celeridade, confiabilidade e capacidade de processamento das demandas cotidianas”.
A pasta não respondeu como a polícia opera quando alguém é reconhecido. Declarou que as faces utilizadas pelo sistema são provenientes do banco de dados da Polícia Civil, mas não informou a origem das informações do banco.
A Bahia usa o reconhecimento facial desde 2018, quando foram investidos 18 milhões de reais para sua implementação. Segundo a Secretaria de Segurança Pública do estado, mesmo pessoas com máscaras podem ser identificadas.
O sistema é alimentado pelo Banco Nacional de Mandados de Prisão, que possui cerca de 333,5 mil foragidos e procurados da Justiça. Até o dia 16 de junho, 209 procurados tinham sido presos com o auxílio da tecnologia.
Nenhum algoritmo desenvolvido até agora, no entanto, oferece 100% de precisão. Todos estão sujeitos a erros. No caso da população negra, as chances de reconhecimentos falhos são ainda maiores.
Em 2018, o projeto Gender Shades, desenvolvido pelas pesquisadoras em inteligência artifical Joy Buolamwini e Timnit Gebru, verificou a precisão do reconhecimento facial em quatro diferentes categorias: mulheres de pele mais escura, homens de pele mais escura, mulheres de pele mais clara e homens de pele mais clara.
Foram avaliadas tecnologias desenvolvidas pela Microsoft, a IBM e a chinesa Megvii. As pesquisadoras utilizaram 1.270 rostos de três países africanos e três países nórdicos. O algoritmo que se saiu melhor tinha precisão de 100% para homens de pele mais clara e 79,2% para mulheres de pele mais escura. O que teve o pior desempenho reconhecia homens de pele mais clara com 99,7% de precisão, enquanto mulheres de pele mais escura com 65,3%.
Para que um rosto seja reconhecido com o maior nível de similaridade possível, o algoritmo precisa ser treinado com um grande número de faces de pessoas de diferentes tons de pele, gênero e idade. A maioria dos sistemas desenvolvidos até agora foi treinada com pessoas brancas, o que dificulta o reconhecimento de outras raças.
A explicação é de Pablo Nunes, coordenador do CESeC (Centro de Estudos de Segurança e Cidadania) e responsável pelo Panóptico, um monitor de projetos de reconhecimento facial no Brasil. Ele conta que o local onde o algoritmo é criado também influencia na sua precisão, por refletir seus criadores e a população local.
“Algoritmos de reconhecimento facial confeccionados nos Estados Unidos e Europa, por exemplo, têm muita dificuldade não só com pessoas negras, mas principalmente com mulheres negras e pessoas asiáticas”, diz.
Na sua avaliação, a aplicação desses sistemas na segurança pública brasileira pode agravar problemas já existentes. Não aumentaria, por exemplo, a efetividade policial, pois seriam muitos os recursos gastos com agentes atendendo falsos positivos, devido à rapidez da tecnologia. Por outro lado, poderia escalar a violência nas abordagens de pessoas negras.
“O algoritmo já tem um viés racial, ou seja, pessoas negras vão ser mais confundidas. O banco de dados de procurados também é racializado, com a maioria negra. Então um banco de dados alvo majoritariamente negro e um algoritmo que tem viés racial vão causar maior abordagem de pessoas negras.”
Um estudo da Rede de Observatórios de Segurança monitorou prisões e abordagens feitas com a tecnologia nos estados da Bahia, Ceará, Paraíba, Rio de Janeiro e Santa Catarina. Entre março e outubro de 2019, a pesquisa contabilizou 151 pessoas presas. Nos casos em que as informações sobre raça estavam disponíveis, 90,5% eram negras.
A presença de milhares, às vezes milhões de faces nos sistemas de reconhecimento facial utilizados na segurança pública sem diretrizes nacionais para sua utilização denuncia a falta de regulamentação. A LGPD (Lei Geral de Proteção de Dados), que dispõe sobre o tratamento de dados pessoais no Brasil, não se aplica a essa finalidade.
Ana Carolina Lima, advogada e diretora executiva do AqualtuneLab, um laboratório jurídico sobre raça, tecnologia e direito, afirma ser necessário criar leis específicas sobre o tema.
“Quando empresas e órgãos públicos de segurança pública colhem dados sobre pessoas a fim de fiscalizar, vigiar, monitorar comportamentos, isso precisa ser feito com a máxima transparência possível”, diz.
Nos Estados Unidos, a falta de regulamentação e as prisões injustas com o auxílio da tecnologia fizeram com que cidades como São Francisco e Boston barrassem o uso do sistema em seus departamentos de polícias. Uma pesquisa realizada pela Georgetown Law (faculdade de direito da Universidade de Georgetown) afirma que metade dos adultos do país tem seus rostos em bases de dados de agências de segurança.
No último dia 15, foi proposto no Congresso americano um projeto de lei que proíbe o governo federal de utilizar o reconhecimento facial na segurança pública sem que existam leis específicas sobre o tema.
–
A proposição segue parte do relatório de Princípios Orientadores Para o Uso da Tecnologia de Reconhecimento Facial pela Polícia, feito pela IACP (associação internacional de chefes de polícia) e o Ijis Institute (instituto de sistemas integrados de informações de justiça).
Uma das cinco diretrizes estabelecidas pelo documento diz que a tecnologia só deve ser usada em investigações, e não deve ser considerada como o único motivo para a ação da polícia.
No Brasil, em estados como o de São Paulo e do Rio de Janeiro, o reconhecimento do suspeito não é o único fator levado em consideração nas investigações. Isso gera, porém, o alargamento da porta de entrada para o sistema carcerário, de acordo com Enedina do Amparo Alves, advogada e doutora em Ciência Sociais pela PUC (Pontifícia Universidade Católica).
“O problema é enxergar essa tecnologia como uma nova forma de diluição do racismo via dispositivos digitais”, disse. “Parte-se da ideia de que esses dispositivos possuem uma neutralidade no reconhecimento de pessoas, quando na verdade eles contribuirão para o encarceramento em massa.”