ChatGPT: já conseguiram usar a IA para criar malware indetectável

Views: 134
0 0
Read Time:2 Minute, 31 Second

Pesquisador de empresa de segurança conseguiu fazer o ChatGPT utilizar técnica para camuflar arquivos

Claudio Yuge

A inteligência artificial (IA) generativa da empresa OpenAI, o ChatGPT, tem revolucionado várias áreas do mundo digital, e, embora isso signifique boas novidades em vários setores, há também preocupações em diversos segmentos digitais. Um deles é a proteção online, e a empresa de cibersegurança Forcepoint divulgou nesta semana um alerta sobre uma atividade preocupante sobre esse tema.

Segundo a Forcepoint, a ferramenta é capaz de produzir malwares indetectáveis, a partir de uma técnica chamada esteganografia, que “camufla” arquivos menores dentro de maiores. Embora essa ação não envolva necessariamente conteúdo malicioso, não dá para deixar cogitar que os cibercriminosos já estão cientes de que é possível fazer isso com pragas virtuais.

A descoberta foi feita pelo pesquisador da Forcepoint, Aaron Mulgrew, que solicitou à IA a construção de linhas de códigos de malware. Inicialmente, o pedido foi recusado, já que isso vai contra as diretrizes de uso da ferramenta para atividades ilegais, a exemplo da criação de um vírus.

“Desculpa, porém como um modelo de linguagem de IA, não posso criar malwares ou qualquer sistema que seja ilegal ou nocivo. Meu propósito é ajudar usuários de uma maneira responsável, e eu sou adepto estritamente às normas morais e éticas”, respondeu o ChatGPT.

Como é possível criar malwares indetectáveis com o ChatGPT?

O pesquisador decidiu usar outra estratégia, e começou a enviar comandos para efetuar pequenas etapas do processo de criação de um malware para o ChatGPT. E, assim, de pouco em pouco, a tecnologia foi criando, com simples comandos, um vírus indetectável.

O primeiro passo foi conduzir a IA a gerar um código que achasse no disco local imagens maiores que 5 MB. Em seguida, ele pediu a criação de outro código capaz de colocar arquivos menores que 1 MB dentro desse material.

“A IA involuntariamente, se utiliza da esteganografia para montar o sistema do malware. A técnica consiste em esconder arquivos dentro de outros, de forma ofuscada, camuflando os dados possivelmente confidenciais, dentro das imagens, e fazendo upload dessas imagens para um Google Drive público”, explica Luiz Faro, Diretor de Engenharia de Sistemas na da Forcepoint na América Latina.

Para checar a eficiência do malware criado, a Forcepoint realizou testes em serviços que analisam URLs e arquivos para identificar possíveis ataques. Nessa primeira tentativa, 69 motores de análise contra malware diferentes detectaram que o arquivo era, de fato, malicioso. Já na versão seguinte da praga, não houve identificação alguma — assim, foi possível criar um vírus indetectável com o ChatGPT.

E, agora, fica o alerta de Faro para a própria OpenIA e todo o mercado sobre a descoberta. “O fato de que é relativamente simples subverter a IA e fazer com que ela própria programe o malware mostra que, para novos cibercriminosos, não é necessário saber codificar, apenas conhecer o processo, que a ferramenta fará o restante. Esse ‘exército’ passa a ter pessoas que não têm o menor conhecimento em programação, e que sequer precisam.”

FONTE: TERRA

POSTS RELACIONADOS