Enquanto espera pelo trem na estação, caminha pela rua ou relaxa em uma praia, você pode estar sendo vigiado por câmeras de segurança, que enviam imagens diretamente para um centro de controle policial. Lá, um programa de computador acessa o banco de dados com rostos de suspeitos de crimes e compara com as imagens das câmeras. O que parece roteiro de ficção científica, é realidade há um tempo em diferentes partes do país, onde sistemas de reconhecimento facial vêm sendo cada vez mais usados na segurança pública.
O caso mais recente foi a adesão de concessionárias do transporte público no Rio de Janeiro à tecnologia controlada pela Polícia Militar. Mais de 1.000 câmeras posicionadas em estações e vias estão agora disponíveis para o trabalho da corporação.
Enquanto autoridades defendem a medida como eficaz para o combate à criminalidade, especialistas em direitos humanos e segurança apontam os riscos de ampliação do racismo e da privação de liberdade.
Horrara Moreira é advogada e coordenadora da campanha Tire Meu Rosto da Sua Mira, que defende o “banimento total do uso das tecnologias digitais de reconhecimento facial na segurança pública no Brasil”. Ela diz que o primeiro problema a ser considerado é a ocorrência de prisões equivocadas.
“Há o problema da identificação, quando acontece algum erro nas informações biométricas do rosto e na comparação delas com o banco de dados. E existem os erros decorrentes dos trâmites do próprio sistema de justiça, como mandados de prisão que estão vencidos ou que já foram cumpridos”, alerta Horrara.
E se fosse possível melhorar as tecnologias disponíveis, a ponto de praticamente zerar o número de erros? Mesmo assim, Horrara afirma que não impediria um outro problema grave, a característica inerentemente racista do sistema.
“Muitas tecnologias de reconhecimento facial usam a inteligência artificial como regra de processamento matemático. Ela pode ser de deep learning ou de machine learning, em que você fornece previamente um banco de dados, para que ela aprenda a identificar os rostos de pessoas no geral. E você também precisa definir critérios de quem é homem, mulher, branco, negro, e ensinar a máquina a identificar esses padrões. Qualquer enviesamento nesse treinamento da máquina vai influenciar na taxa de precisão. E o treinamento não é transparente. Se eu dou mais informações para a máquina sobre pessoas negras, ela pode indicar que pessoas negras cometem mais crimes do que pessoas brancas”, avalia a advogada.
Thalita Lima coordena o Panóptico, projeto sobre reconhecimento facial do Centro de Estudo de Segurança e Cidadania (CESeC). Ela defende que a tecnologia não produz impacto significativo na redução da criminalidade e cita os exemplos de Salvador e do Rio de Janeiro para corroborar o argumento.
“O estado que mais utilizou reconhecimento facial no Brasil foi a Bahia, onde mais de 60 municípios já o adotaram como medida de segurança pública. Salvador é permeada por câmeras que usam essa tecnologia. E um estudo do Panóptico mostra que entre 2019 e 2022, os índices criminais de roubo a transeuntes e de atentados contra a vida não tiveram mudanças significativas”, diz Thalita.
“Assim como no estudo sobre o Rio de Janeiro, de um projeto piloto que aconteceu em 2019 em Copacabana e no Maracanã, quando foi verificado que a criminalidade aumentou. Segurança pública envolve medidas que são muito mais estruturais do que simplesmente adotar câmeras de reconhecimento facial”, acrescenta Thalita.
A pesquisadora enfatiza que também é preciso estar alerta à ampliação da vigilância sobre a população. Em termos morais e políticos, quais os riscos à privacidade e ao direito de livre circulação nas cidades?
“Temos a vigilância em escala ampliada em ambientes de grande circulação de pessoas, e precisamos analisar que outras camadas de direito vão ser flexibilizadas. Não apenas o de se locomover, o de mobilidade, o direito à cidade, aos espaços onde se possa circular e não ter o risco de ser abordado erroneamente, mas também é preciso resguardar o direito à privacidade e à livre expressão nesses espaços. No Brasil, tem aumentado cada vez mais o uso dessa tecnologia sem uma reflexão dos riscos e sem relatórios de impacto dela”, afirma.
João Marcelo de Assis Peres
joao.marcelo@guiadocftv.com.br
GuiadoCFTV
Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?
Importante: ‘Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’
Quer enviar suas notícias? Envie um e-mail para noticias@guiadocftv.com.br