A consulta pública aberta pelo governo federal sobre a Estratégia Brasileira de Inteligência Artificial propôs uma série de perguntas para a sociedade, dentre as quais a seguinte: “Seria necessário estabelecer salvaguardas para o uso da IA em determinados campos particularmente sensíveis (por exemplo, no campo da segurança pública, na educação, na guerra ou na saúde)?”.
A resposta mais direta e incisiva partiu de pesquisadores da USP, mais precisamente Glauco Arbix, diretor do Instituto de Estudos Avançados da Universidade de São Paulo (IEA/USP) e ex-presidente da Finep, e Rodrigo Brandão, pesquisador da mesma instituição. Os dois escreveram: “No caso específico dos sistemas de reconhecimento facial, não restam dúvidas: deve ser banido, em um período de até cinco anos, o uso desses sistemas em espaços públicos – seja por agentes privados ou mesmo por agentes públicos.”
Os pesquisadores argumentam que o banimento temporário serviria para entender melhor como regular o desenvolvimento de tal tecnologia. E lembram que a Comissão Europeia estuda tal medida enquanto alguns governos locais, como aqueles das cidades norte-americanas de São Francisco e Somerville, proibiram o uso dessa tecnologia por forças policiais. Além disso, França e Suécia proibiram a utilização especificamente em escolas.
É alegado que os sistemas de reconhecimento facial ainda apresentam falhas que podem provocar injustiças, como a reprodução de preconceitos. Os pesquisadores da USP citam um estudo do NIST (National Institute of Science and Technology), dos EUA, com 189 softwares de 99 desenvolvedores, que indicou que a ocorrência de falsos positivos em soluções de reconhecimento facial é até 100 vezes mais provável em rostos de pessoas afrodescendentes e asiáticos. “Não temos razões para crer que os softwares brasileiros estão em situação superior à de seus congêneres de outros países, inclusive dos EUA”, comentam.
É alertado ainda o risco de os dados biométricos dos rostos dos cidadãos brasileiros serem vazados ou mesmo comercializados por conta dos níveis de segurança baixos dos sistemas de reconhecimento facial, no entendimento dos pesquisadores.
O InternetLab, um centro de pesquisa sobre direito e tecnologia, também apresentou na consulta pública propostas especificamente sobre essa tecnologia. Sugeriu que o reconhecimento de um indivíduo suspeito por um sistema de de reconhecimento facial “nunca deve ser considerado suficiente para identificá-lo indubitavelmente, devendo sempre haver outras formas de averiguar sua identidade”. E também que sejam adotadas regras para evitar a baixa acurácia de tais sistemas, como a proibição do uso de fotos com baixa resolução ou com partes do rosto cortadas, a edição das imagens para identificação de suspeitos; ou o uso de desenhos no lugar de fotos.
Origem: Mobile Time
Eng. Marcelo Peres
Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?
Gostaria de sugerir alguma notícia ou entrar em contato, clique Aqui!
Importante: ‘Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’