A promessa de prever a ocorrência de crimes através da tecnologia provoca questionamentos em um país onde oito a cada 10 pessoas presas com uso de reconhecimento facial são negras
Prever onde crimes podem acontecer é desejo antigo de acadêmicos, gestores públicos e forças policiais. Mas quais os problemas por trás desse Minority Report? O chamado policiamento preditivo começou a ganhar atenção no início dos anos 2010. Mais recentemente, algumas cidades americanas como Chicago, Nova Iorque e Nova Orleans já testaram ou seguem utilizando esse tipo de ferramenta no trabalho policial. Assim, a ideia de um Minority Report da vida real saiu do papel e companhias como a PredPol e a Palantir começaram a ganhar dinheiro vendendo suas soluções e fizeram alguns experimentos secretos com essa tecnologia. Em 2021, essa ideia está desembarcando no Brasil.
Ignorando os debates estabelecidos há anos sobre esta ideia já em vigor em outros países, o Instituto Igarapé, que se autodenomina um think and do tank, quer selecionar dois municípios brasileiros para testarem uma ferramenta tecnológica chamada CrimeRadar. Com a utilização de algoritmos, a promessa é prever a ocorrência de crimes e auxiliar os gestores a distribuir viaturas e policiais pelo território. A tecnologia exige o processamento de uma quantidade imensa de dados mas, de acordo com o edital do Instituto, não é possível saber como essas informações serão levantadas e armazenadas. Foram feitos vários questionamentos nas redes sociais acerca do potencial vigilantista dessa ferramenta, sobretudo a respeito de quais seriam as implicações deste tipo de tecnologia para a população negra em um país onde oito a cada 10 pessoas presas com uso de reconhecimento facial são negras.
São muitos os problemas do policiamento preditivo. A questão central dessas novas tecnologias de vigilância são os dado que as alimentam. É sabido há muito tempo que o trabalho das policiais brasileiras e de todo sistema de justiça criminal é estruturado pelo racismo.
Os negros são os mais abordados pelas polícias sendo as favelas e periferias as únicas partes das cidades brasileiras onde a polícia entra com viaturas blindadas e helicópteros, sentindo-se à vontade para atirar. Os negros são a parcela majoritária da população carcerária, são eles também os que menos recebem favorecimento jurídico durante a audiência de custódia, são os que mais morrem por homicídios, além de serem a maioria das vítimas fatais das forças de segurança. São esses os dados produzidos por décadas de racismo e violência contra a população negra que serão utilizados nos modelos de predição de crimes. O que a máquina vai aprender com esse histórico?
A discussão sobre racismo e tecnologia vem sendo feita por estudiosos mundo afora e já pode ser vista em documentários como Coded Bias, que mostra como pesquisadores das Universidades do MIT e Columbia identificaram a perpetuação do racismo com nova roupagem: a tecnologia. As máquinas aprendem o racismo e o reproduzem.
O Instituto Igarapé responde a essas críticas pontuando que o CrimeRadar não é apenas uma solução de policiamento preditivo, mas também uma ferramenta que possui uma “estratégia de impacto social”. O instituto, no entanto, não apresenta quais e quantas ações eles desenvolvem para “consertar” o viés de séculos de perseguição dos corpos negros pelas forças do Estado. Nesse quesito, a organização recai em um ponto fundamental que tem sido a tônica de toda solução tecnológica aplicada no Brasil e no mundo: a falta de transparência e de debate público. Depois da repercussão, o Instituto Igarapé resolveu suspender na terça-feira (28/09) o edital do CrimeRadar.
As tecnologias de reconhecimento facial tem se espalhado pelo país sem muito alarde, justamente pela falta de transparência com que corporações policiais e secretarias de segurança pública tratam o assunto. O projeto Panóptico, desenvolvido pelo Centro de Estudos de Segurança e Cidadania (CESeC), busca jogar luz sobre o assunto, produzindo e divulgando dados sobre prisões, abordagens, contratos do Governo e financiamento para que seja possível entender como essa tecnologia tem sido utilizada e quais são os seus impactos, principalmente para a população negra.
Levantamento feito em 2020 mostra que ao menos 22 Estados brasileiros já testaram, utilizam ou estão em processo de aquisição de sistemas de reconhecimento facial. O projeto conseguiu monitorar a prisão de 184 pessoas com uso dessa tecnologia em 2019 —90% delas eram negras e foram presas por crimes sem violência.
Estados, municípios e o Governo federal têm se dedicado nos últimos anos a aumentar a vigilância sobre a população. Drones, câmeras de reconhecimento facial e de leitura de placas, ferramentas que vasculham perfis de redes sociais e bancos de dados genéticos são algumas das novidades que têm sido utilizadas para aumentar a vigilância nas ruas das cidades brasileiras, principalmente nas periferias e favelas onde a maioria dos moradores é negra.
Por isso, é ainda mais chocante notar que não apenas o poder público está interessado nessas tecnologias falhas e racistas, mas também parte da sociedade civil. Neste ano, a Central Única das Favelas (CUFA) utilizou reconhecimento facial para cadastramento de pessoas que buscavam ajuda para amenizar os impactos da pandemia. O sistema foi cedido pela Unico e não ficou claro à época qual o papel da empresa no armazenamento e tratamento dos dados. Diante de questionamentos e críticas, a CUFA decidiu suspender o projeto, levando a Unico a se posicionar, pontuando sua adequação com a Lei Geral de Proteção de Dados, que regula o uso de dados pessoais no Brasil e classifica informações biométricas como dados sensíveis
Esses casos demonstram a necessidade do diálogo entre instituições e pesquisadores especialistas no tema. Um debate público e esclarecido sobre algo novo e apresentado como “evolução” é essencial para que se garanta a construção de soluções de segurança que não passem pela vitimização de uma população que já se vê violada em muitos dos seus direitos básicos. Os algoritmos devem servir à sociedade. A sociedade não deve servir aos algoritmos. Não estamos em uma ficção cinematográfica. No mundo real, não podemos nos dar ao luxo de permitir que essas tecnologias sejam mais um fator de violação de direitos.
Pablo Nunes é doutor em Ciência Política. Coordenador adjunto do Centro de Estudos de Segurança e Cidadania (CESeC).