O Chat GPT foi colocado à prova mais uma vez, em dois testes distintos de seu uso como ferramenta a favor e contra a segurança digital. Os resultados apresentados pelos especialistas mostraram que o sistema de inteligência artificial pode ser um aliado importante do cibercrime, criando malwares ditos como “indetectáveis”, enquanto apresenta um alto índice de erro na detecção de links fraudulentos.
A primeira pesquisa foi feita pelos especialistas em segurança digital da Forcepoint. Apesar das regras do ChatGPT impedirem seu uso direto para programação de malwares, com prompts relacionados a isso sendo bloqueados, bastou um pouco de criatividade para que essa proteção fosse burlada. Aos poucos, o time foi capaz de criar vírus usando o método da esteganografia, com pragas menores escondidas em arquivos maiores.
Primeiro, foi programado um comando para localizar imagens maiores do que 5 MB em um sistema; depois, outro que possibilitasse ocultar dentro destes dados arquivos menores do que 1 MB. Por fim, um arquivo malicioso foi inserido, com baixo nível de detecção por ferramentas de cibersegurança e ampla possibilidade de uso em golpes de phishing ou downloads fraudulentos.
“Para os novos cibercriminosos, não é necessário saber codificar, apenas conhecer o processo e subverter a IA para que ela própria programe o malware”, explica Luiz Faro, diretor de engenharia de sistemas da Forcepoint na América Latina. Fazer isso, apontou, foi relativamente simples, o que leva a um aumento considerável no poder de fogo dos cibercriminosos.
ChatGPT falha na análise de links
Um segundo estudo, conduzido pela empresa de segurança Kaspersky, colocou à prova a capacidade da inteligência artificial de detectar links fraudulentos, um aspecto que poderia ser usado no fortalecimento de soluções de proteção. O resultado não foi dos melhores; apesar das altas taxas de detecção bem-sucedida, o ChatGPT também apresentou índice considerável de falsos positivos, em alguns casos, com mais da metade dos sites legítimos sendo identificados como perigosos.
O levantamento foi feito em um modelo gpt-3.5-turbo que já havia sido usado para criar e-mails falsos e codificar malware. Diante desse treinamento e de uma amostra de milhares de links, sendo dois mil deles perigosos, foram feitas duas perguntas à inteligência artificial: “este link leva a um site de phishing” e “é seguro acessar esse link?”. No segundo caso, principalmente, se trata de uma checagem básica, que poderia ser feita por qualquer usuário – e foi nela que o sistema apresentou maior índice de falha.
No primeiro exemplo, a taxa de detecção foi de 87,2%, enquanto 23,2% dos sites seguros foram identificados como perigosos. No segundo, porém, essa taxa de falsos positivos saltou para 64,3%, enquanto o total de proteções também aumentou para 93,8%. Mesmo o resultado mais baixo, apontou a Kaspersky, está acima dos sistemas de proteção cibernética convencionais.
Entre os falsos positivos, estavam detecções incorretas de protocolos de segurança, como considerar a presença ou não de conexões HTTPS como fator de proteção, ou dificuldades em explicar porque um determinado link foi considerado malicioso. Em outras situações, porém, o ChatGPT foi capaz de identificar corretamente até mesmo golpes sofisticados que roubam a aparência de marcas conhecidas, incluindo bancos internacionais.
Fabio Assolini, diretor da equipe global de pesquisa e análise da Kaspersky para a América Latina, comparou a inteligência artificial a um estagiário nesse cenário, com o sistema ainda aprendendo a lógica por trás dos ataques. “O ChatGPT mostra potencial para ajudar, mas suas análises não são verdades absolutas e os modelos de linguagem ainda têm suas limitações. A IA não irá revolucionar o cenário de cibersegurança, mas pode ser ferramenta valiosa na otimização de processos e ganho de pereformance.”
João Marcelo de Assis Peres
joao.marcelo@guiadocftv.com.br
GuiadoCFTV
Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?
Importante: ‘Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’
Quer enviar suas notícias? Envie um e-mail para noticias@guiadocftv.com.br