Paradoxo matemático expõe limites da Inteligência Artificial
Limites da inteligência artificial
Os humanos geralmente são bons em reconhecer quando erram, mas os sistemas de inteligência artificial não têm essa sagacidade.
Do mesmo modo que algumas pessoas, os sistemas de IA geralmente têm um grau de confiança que excede em muito suas habilidades reais. E, como uma pessoa superconfiante, muitos sistemas de inteligência artificial não sabem quando estão cometendo erros. Às vezes, é ainda mais difícil para um sistema de IA perceber quando está cometendo um erro do que produzir um resultado correto.
E este problema pode não ter correção porque a IA sofre de limitações inerentes devido a um paradoxo matemático centenário.
Pesquisadores da Universidade de Cambridge (Reino Unido) e da Universidade de Oslo (Noruega) afirmam que a instabilidade é o calcanhar de Aquiles da IA moderna, e que um paradoxo matemático mostra as limitações da inteligência artificial.
O problema está nas redes neurais, a ferramenta de última geração em IA, que imita aproximadamente as ligações entre os neurônios do cérebro. Os três pesquisadores demonstraram que existem problemas para os quais existem redes neurais estáveis e precisas, mas nenhum algoritmo consegue produzir tal rede – somente em casos específicos os algoritmos podem computar redes neurais estáveis e precisas.
O trio até propõe uma teoria de classificação que descreve quando as redes neurais podem ser treinadas para fornecer um sistema de IA confiável – o que só acontece, reforçando, sob certas condições específicas.
Paradoxo de Turing e Godel
O paradoxo identificado pelos pesquisadores remonta a dois gigantes da matemática do século 20: Alan Turing e Kurt Godel.
No início do século passado, os matemáticos estavam tentando justificar a matemática como a linguagem consistente definitiva da ciência. No entanto, Turing e Godel mostraram um paradoxo no coração da própria ciência dos números: É impossível provar se certas afirmações matemáticas são verdadeiras ou falsas, e alguns problemas computacionais não podem ser resolvidos com algoritmos.
E, na asserção mais conhecida de Turing e Godel, sempre que um sistema matemático é rico o suficiente para descrever a aritmética que aprendemos na escola, ele não pode provar sua própria consistência.
Décadas depois, o matemático Steve Smale propôs uma lista de 18 problemas matemáticos não resolvidos para o século 21. O 18º problema diz respeito aos limites da inteligência, tanto para os humanos quanto para as máquinas. “O paradoxo identificado pela primeira vez por Turing e Godel agora foi trazido para o mundo da IA por Smale e outros. Existem limites fundamentais inerentes à matemática e, da mesma forma, algoritmos de IA não podem existir para certos problemas,” disse o professor Matthew Colbrook, um dos autores da nova demonstração.
O trio afirma em seu artigo que, por causa desse paradoxo, há casos em que boas redes neurais até podem existir, mas uma rede inerentemente confiável não pode ser construída. “Não importa quão precisos sejam seus dados, você nunca pode obter as informações perfeitas para construir a rede neural necessária,” reforçou Vegard Antun, coautor do trabalho.
A impossibilidade de computar uma boa rede neural também é verdadeira independentemente da quantidade de dados de treinamento: Não importa quantos dados um algoritmo possa acessar, ele não produzirá a rede desejada. “Isso é semelhante ao argumento de Turing: Existem problemas computacionais que não podem ser resolvidos independentemente do poder de computação e do tempo de execução,” disse Anders Hansen, o terceiro autor do artigo.
Limitações da inteligência artificial
Os três pesquisadores afirmam que nem toda IA é inerentemente falha, mas que ela é confiável apenas em áreas específicas e usando métodos específicos.
“O problema está nas áreas em que você precisa de garantia, porque muitos sistemas de IA são uma caixa preta,” explicou Colbrook. “Em algumas situações, está tudo bem que uma IA cometa erros, mas ela precisa ser honesta sobre isso. E não é isso que estamos vendo para muitos sistemas – não há como saber quando eles estão mais confiantes ou menos confiantes sobre uma decisão.”
“Atualmente, os sistemas de IA algumas vezes podem ter um toque de adivinhação,” disse Hansen. “Você tenta algo e, se não funcionar, adiciona mais coisas, esperando que funcione. Em algum momento, você ficará cansado de não conseguir o que deseja, e você tentará um método diferente. É importante entender as limitações de diferentes abordagens. Nós estamos no estágio em que os sucessos práticos da IA estão muito à frente da teoria e do entendimento. Precisamos de um programa para entender os fundamentos da computação da IA para preencher essa lacuna.”
A próxima etapa a que os pesquisadores se propõem será combinar teoria de aproximação, análise numérica e fundamentos de computação para determinar quais redes neurais podem ser computadas por algoritmos e quais podem se tornar estáveis e confiáveis.
Assim como os paradoxos sobre as limitações da matemática e dos computadores identificados por Godel e Turing levaram a ricas teorias de fundamentos – descrevendo tanto as limitações quanto as possibilidades da matemática e da computação – talvez uma teoria de fundamentos semelhante possa florescer na inteligência artificial.
joao.marcelo@guiadocftv.com.br
GuiadoCFTV
Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?
Importante: ‘Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’
Quer enviar suas notícias? Envie um e-mail para noticias@guiadocftv.com.br