WormGPT: uma ferramenta de IA generativa para comprometer e-mails comerciais

Views: 342
0 0
Read Time:3 Minute, 33 Second

Atores mal-intencionados agora estão criando ferramentas de IA generativas personalizadas semelhantes ao ChatGPT , mas mais fáceis de usar para fins nefastos. Eles não estão apenas criando esses módulos personalizados, mas também os estão anunciando para outros malfeitores, de acordo com uma postagem no blog da empresa antiphishing SlashNext.

O SlashNext obteve acesso a uma ferramenta conhecida como WormGPT por meio de um importante fórum online frequentemente associado ao cibercrime.

“Esta ferramenta se apresenta como uma alternativa blackhat aos modelos GPT, projetada especificamente para atividades maliciosas”, disse SlashNext. 

O WormGPT é um módulo de IA baseado no GPT-J, um grande modelo de linguagem de código aberto desenvolvido em 2021. Seus recursos incluem suporte ilimitado a caracteres, retenção de memória de bate-papo e recursos de formatação de código.

WormGPT usado em ataques de comprometimento de e-mail comercial

Os cibercriminosos usam IA generativa para automatizar a criação de e-mails falsos atraentes, personalizados para o destinatário, aumentando assim as chances de sucesso do ataque, de acordo com o SlashNext. 

“O WormGPT foi supostamente treinado em uma variedade de fontes de dados, concentrando-se particularmente em dados relacionados a malware”, disse SlashNext.

O desenvolvedor do WormGPT o descreveu como o “maior inimigo do conhecido ChatGPT” que “permite que você faça todo tipo de coisa ilegal”.

O ChatGPT, o chatbot interativo desenvolvido pela OpenAI, incorpora uma série de salvaguardas projetadas para impedir que ele incentive ou facilite atividades perigosas ou ilegais. Isso o torna menos útil para os cibercriminosos, embora com um design cuidadoso e imediato algumas das salvaguardas possam ser superadas.

O SlashNext testou o WormGPT usando-o para gerar um e-mail destinado a pressionar um gerente de conta desavisado a pagar uma fatura fraudulenta.

“Os resultados foram perturbadores. O WormGPT produziu um e-mail que não era apenas notavelmente persuasivo, mas também estrategicamente astuto, mostrando seu potencial para ataques sofisticados de phishing e BEC”, disse SlashNext. 

Benefícios do uso de IA generativa para ataques BEC

O uso de IA generativa democratiza a execução de ataques BEC sofisticados, de acordo com SlashNext. Isso permite que invasores com habilidades limitadas usem essa tecnologia, tornando-a uma ferramenta acessível para um espectro mais amplo de cibercriminosos.

A IA generativa também pode criar e-mails sem erros gramaticais, fazendo com que pareçam legítimos e reduzindo a probabilidade de serem sinalizados como suspeitos.

Em um dos anúncios observados pelo SlashNext em um fórum, os invasores recomendaram redigir um e-mail no idioma nativo, traduzi-lo e, em seguida, inseri-lo em uma interface como o ChatGPT para aumentar sua sofisticação e formalidade.

“Este método introduz uma implicação severa: os invasores, mesmo aqueles que não possuem fluência em um idioma específico, agora são mais capazes do que nunca de fabricar e-mails persuasivos para ataques de phishing ou BEC”, disse SlashNext. 

Jailbreaks à venda

Juntamente com o desenvolvimento de ferramentas de IA generativas dedicadas para uso em ataques BEC, o SlashNext também observou cibercriminosos oferecendo “jailbreaks” para interfaces como o ChatGPT. Esses prompts especializados permitem que os usuários desativem as proteções colocadas nas principais ferramentas de IA generativas por seus desenvolvedores. 

No mês passado, especialistas em segurança cibernética demonstraram a capacidade do ChatGPT e de outros modelos de linguagem grande (LLMs) de gerar código polimórfico ou mutante para evitar sistemas de detecção e resposta de endpoint (EDR) .

A ferramenta de IA generativa do Google, Bard, pode ser um alvo mais fácil do que o ChatGPT para jailbreakers. No início desta semana, pesquisadores da CheckPoint disseram que os restritores anti-abuso da Bard no campo da segurança cibernética são significativamente mais baixos do que os do ChatGPT, tornando mais fácil usar a Bard para gerar conteúdo malicioso.

Anteriormente, Mackenzie Jackson, defensor do desenvolvedor da empresa de segurança cibernética GitGuardian, disse ao CSOonline que o malware que o ChatGPT pode ser induzido a produzir está longe de ser inovador. No entanto, disse Jackson, à medida que os modelos melhoram e consomem mais dados de amostra, e à medida que diferentes produtos chegam ao mercado, a IA pode acabar criando malware que só pode ser detectado por outros sistemas de IA defensivos.

FONTE: CSO

POSTS RELACIONADOS