Especialistas querem interruptor físico para desligar as IAs
Um grupo de pesquisadores publicou nesta semana um artigo no qual defendem um interruptor físico para desligar inteligências artificiais. O paper, publicado pela célebre Universidade de Cambridge, tem entre seus autores alguns membros da OpenAI, criadora do ChatGPT e principal empresa do ramo de IA generativa. A ideia dos cientistas é que o hardware dessa tecnologia conte com elementos físicos para interromper seu funcionamento — se necessário.
A proposta dos pesquisadores pode ser comparada como um kill switch para IA. Kill switch é o nome dado para botões ou outros mecanismos de segurança que desligam uma máquina em caso de emergências. Por exemplo, aquele grampo de esteiras das academias que devem ser presas a camiseta. Caso o corredor caia, o grampo puxa o cordão e desliga a máquina.
Kill switch para IAs é defendida até por membros da OpenAI
Entre os 19 autores do artigo, cinco são integrantes da OpenAI. A empresa é, na atualidade, a principal referência em inteligência artificial. A popularidade do ChatGPT e seus recursos, ainda que suscetível à falha e “preguicite”, cresceu rapidamente após o seu lançamento no fim de 2022 — seguido de uma queda em junho de 2023.
Essa ascensão do ChatGPT gerou uma corrida de IAs generativas e levantou o debate sobre possíveis riscos dessa tecnologia. Google lançou o Gemini (que antes se chamava Bard), a Meta lançou IA generativa para figurinhas, ferramentas de criação de fotos e vídeos estão ganhando mais espaço, Elon Musk saiu às compras para lançar sua própria IA, Samsung estreou a Galaxy AI na linha Galaxy S24, Tim Cook falou de IA no iPhone — você já deve ter entendido.
A proposta dos pesquisadores para solucionar possíveis problemas de segurança é incluir kill switches diretamente no hardware da IA. No artigo, os cientistas destacam que como há poucas fornecedoras de GPU (para não dizer que é basicamente a Nvidia nesse segmento), ficaria fácil controlar quem tem acesso a essa tecnologia, o que facilita também identificar o mal uso de IAs.
Pelo artigo, temos a impressão de que os pesquisadores defendem que é fácil aplicar o mecanismo de kill switch nas GPUs. Os cientistas sugerem que o botão de segurança no hardware permitirá que órgãos reguladores o ativem se identificarem alguma violação. Além do mais, o próprio kill switch poderia se ativar em caso de mal uso.
Os autores propõem também uma licença de operação para as empresas, que deveria ser renovada periodicamente para autorizar a pesquisa e desenvolvimento de IA — nada diferente do que ocorre com alvarás. Sem renovação, o sistema seria interrompido. Obviamente, essas propostas de controle remoto trazem outro risco: elas viram alvos de ciberataques.
João Marcelo de Assis Peres
joao.marcelo@guiadocftv.com.br
GuiadoCFTV
Avalie esta notícia, mande seus comentários e sugestões. Encontrou alguma informação incorreta ou algum erro no texto?
Importante: ‘Todos os Conteúdos divulgados decorrem de informações provenientes das fontes aqui indicadas, jamais caberá ao Guia do CFTV qualquer responsabilidade pelo seu conteúdo, veracidade e exatidão. Tudo que é divulgado é de exclusiva responsabilidade do autor e ou fonte redatora.’
Quer enviar suas notícias? Envie um e-mail para noticias@guiadocftv.com.br