WormGPT pode comprometer e-mails comerciais e fazer jailbreaks

Views: 173
0 0
Read Time:3 Minute, 8 Second

Ferramenta se apresenta como uma alternativa blackhat aos modelos GPT, projetada especificamente para atividades maliciosas

Uma postagem no blog da empresa antiphishing SlashNext revela que operadores de ameaças agora estão criando ferramentas de IA generativas personalizadas semelhantes ao ChatGPT, mas mais fáceis de usar para golpes e roubos. Segundo a empresa, eles não estão apenas criando esses módulos personalizados, mas também os estão anunciando para outros ciberciminosos. 

A SlashNext obteve acesso a uma ferramenta conhecida como WormGPT por meio de um importante fórum online frequentemente associado ao cibercrime. “Esta ferramenta se apresenta como uma alternativa blackhat aos modelos GPT, projetada especificamente para atividades maliciosas”, disse a empresa.

O WormGPT é um módulo de IA baseado no GPT-J, um grande modelo de linguagem (LLM) de código aberto desenvolvido em 2021. Seus recursos incluem suporte ilimitado a caracteres, retenção de memória de bate-papo e recursos de formatação de código.

Os cibercriminosos usam IA generativa para automatizar a criação de e-mails falsos atraentes, personalizados para o destinatário, aumentando assim as chances de sucesso do ataque, de acordo com a SlashNext. “O WormGPT foi treinado em uma variedade de fontes de dados, concentrando-se particularmente em dados relacionados a malware”, completa a empresa.

O desenvolvedor do WormGPT o descreve como o “maior inimigo do conhecido ChatGPT” que “permite que você faça todo tipo de coisa ilegal”.

O ChatGPT, o chatbot de inteligência artificial interativo desenvolvido pela OpenAI, incorpora uma série de salvaguardas projetadas para impedir que ele incentive ou facilite atividades perigosas ou ilegais. Isso o torna menos útil para os cibercriminosos, embora com um design cuidadoso e imediato algumas das salvaguardas possam ser superadas.

A SlashNext testou o WormGPT usando-o para gerar um e-mail destinado a pressionar um gerente de conta desavisado a pagar uma fatura fraudulenta. “Os resultados foram perturbadores. O WormGPT produziu um e-mail que não era apenas notavelmente persuasivo, mas também estrategicamente astuto, mostrando seu potencial para ataques sofisticados de phishing e BEC”, disse a empresa.

O uso de IA generativa democratiza a execução de ataques de comprometimento de e-mail comercial (BEC) sofisticados, de acordo com a SlashNext. Isso permite que invasores com habilidades limitadas usem essa tecnologia, tornando-a uma ferramenta acessível para um espectro mais amplo de cibercriminosos.

A IA generativa também pode criar e-mails sem erros gramaticais, fazendo com que pareçam legítimos e reduzindo a probabilidade de serem sinalizados como suspeitos. Em um dos anúncios observados pela SlashNext em um fórum, os invasores recomendaram redigir um e-mail no idioma nativo, traduzi-lo e, em seguida, inseri-lo em uma interface como o ChatGPT para aumentar sua sofisticação e formalidade.

“Este método introduz uma implicação severa: os invasores, mesmo aqueles que não possuem fluência em um idioma específico, agora são mais capazes do que nunca de fabricar e-mails persuasivos para ataques de phishing ou BEC”, disse SlashNext.

Juntamente com o desenvolvimento de ferramentas de IA generativas dedicadas para uso em ataques de BEC, a SlashNext também observou cibercriminosos oferecendo jailbreaks (“desbloqueadores”) para interfaces como o ChatGPT. Esses prompts especializados permitem que os usuários desativem as proteções colocadas nas principais ferramentas de IA generativas por seus desenvolvedores.

No mês passado, especialistas em segurança cibernética demonstraram a capacidade do ChatGPT e de outros grandes modelos de linguagem de gerar código polimórfico ou mutante para evitar sistemas de detecção e resposta de endpoint (EDR).A ferramenta de IA generativa do Google, Bard, pode ser um alvo mais fácil do que o ChatGPT para jailbreakers. No início desta semana, os pesquisadores da CheckPoint disseram que os restritores anti-abuso da Bard no campo da segurança cibernética são significativamente menores do que os do ChatGPT, tornando mais fácil usar a Bard para gerar conteúdo malicioso.

FONTE: CISO ADVISOR

POSTS RELACIONADOS