Metrô de SP não garante segurança de dados de reconhecimento facial
Documentos apresentados em ação movida pelo Idec e outras entidades revelam que empresa não tomou medidas necessárias para garantir a segurança dos usuários do transporte público
O Metrô de São Paulo não produziu relatório de impacto para a contratação de tecnologia de reconhecimento facial, tampouco possui estudos que comprovam a segurança dos bancos de dados a serem utilizados para a implementação do novo sistema de vigilância. Além disso, não elaborou qualquer política de proteção de dados para crianças e adolescentes, que possuem proteção constitucional especial.
A conclusão é fruto de ação judicial de produção de provas movida pelo Idec (Instituto Brasileiro de Defesa do Consumidor) em conjunto com as Defensorias Públicas do Estado e da União e organizações da sociedade civil – Coletivo de Advocacia em Direitos Humanos (CADHu), Intervozes e Artigo 19.
As instituições ingressaram na Justiça em fevereiro deste ano para cobrar provas (como documentos, relatórios e atas) do Metrô de São Paulo sobre a implementação de um sistema de câmeras com reconhecimento facial. Segundo as organizações, um investimento dessa natureza e que gerará impacto na vida de milhões de pessoas deveria ser precedido da divulgação ampla e transparente das informações de interesse dos usuários do sistema, em especial sobre adequação da iniciativa aos princípios estabelecidos pela Lei Geral de Proteção de Dados (LGPD).
Com o deferimento do pedido pela 1ª Vara da Fazenda Pública de São Paulo, no último dia 28 de abril o Metrô apresentou apenas os documentos que nortearam a licitação e que revelam que o Metrô de São Paulo não atendeu aos requisitos básicos para garantir a segurança na governança dos dados a serem coletados e armazenados, a privacidade dos usuários e a proteção de crianças e adolescentes.
“A falta de cuidados mínimos para a garantia dos direitos dos usuários é muito preocupante. Enquanto governos e empresas estão abandonando o uso dessa tecnologia por violação em massa à privacidade e por seu potencial discriminatório, o Metrô não observou inclusive questões elementares”, comenta o coordenador do programa de Telecomunicaçõe e Direitos Digitais do Idec, Diogo Moyses.
Nas últimas semanas, empresas como Microsoft, IBM e Amazon informaram que vão suspender a venda de soluções de reconhecimento facial para o uso policial, por potencial violação aos direitos humanos.
Diversas pesquisas apontam falhas nas tecnologias de reconhecimento facial. A Universidade de Essex, por exemplo, apontou que o reconhecimento facial utilizado pela Polícia Metropolitana de Londres possui 81% de chance de falhar. No Brasil, a tecnologia usada em algumas cidades também já apresentou falhas.
A ineficácia da tecnologia, agressiva e invasiva por natureza, além de produzir ações discriminatórias contra os passageiros, pode piorar a já precarizada experiência do usuário de transporte público, que pode ter seu longo e cansativo trajeto diário interrompido em virtude de “falsos positivos”. Sem informações precisas, também é questionável a prioridade de se gastar milhões em um monitoramento falho em vez de investir na necessária melhoria e expansão do sistema de transportes sobre trilhos.
origem: IDEC
Sirlei Madruga de Oliveira
Editora do Guia do CFTV
Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?
Importante:
Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’