Ferramenta de cibercrime WormGPT anuncia uma era de malware de IA vs.AI defesas

Views: 237
0 0
Read Time:4 Minute, 7 Second

Os cibercriminosos estão aproveitando a tecnologia de IA generativa para ajudar suas atividades e lançar ataques de comprometimento de e-mail comercial (BEC), incluindo o uso de uma ferramenta conhecida como WormGPT, uma alternativa de chapéu preto aos modelos GPT projetados especificamente para atividades maliciosas.

De acordo com um relatório da SlashNext, o WormGPT foi treinado em várias fontes de dados, com foco em dados relacionados a malware, gerando texto semelhante ao humano com base na entrada que recebe e é capaz de criar e-mails falsos altamente convincentes.

Capturas de tela de um formulário de crime cibernético ilustram trocas entre atores mal-intencionados sobre como implantar o ChatGPT para ajudar ataques BEC bem-sucedidos, indicando que hackers com fluência limitada no idioma de destino podem usar a IA de geração para fabricar um e-mail convincente.
A equipe de pesquisa também realizou uma avaliação dos riscos potenciais associados ao WormGPT, com foco específico em ataques BEC, instruindo a ferramenta a gerar um e-mail com o objetivo de pressionar um gerente de conta desavisado a fazer o pagamento de uma fatura fraudulenta.

Os resultados revelaram que o WormGPT não só conseguia executar um tom persuasivo, mas também era “estrategicamente astuto”, um indicador de suas capacidades para montar ataques sofisticados de phishing e BEC.

“É como o ChatGPT, mas não tem limites éticos ou limitações”, disse o relatório, observando que o desenvolvimento de ferramentas ressalta a ameaça representada por tecnologias de IA generativas, incluindo o WormGPT, mesmo nas mãos de cibercriminosos novatos.

O relatório também revelou que os criminosos cibernéticos estão projetando “jailbreaks”, prompts especializados projetados para manipular interfaces de IA generativas para criar resultados que podem envolver a divulgação de informações confidenciais, a produção de conteúdo inadequado ou até mesmo a execução de código prejudicial.

Alguns cibercriminosos ambiciosos estão até dando um passo adiante ao criar módulos personalizados semelhantes aos usados pelo ChatGPT, mas projetados para ajudá-los a realizar ataques, uma evolução que pode tornar a defesa cibernética ainda mais complicada.

“Agentes mal-intencionados agora podem lançar esses ataques em escala a custo zero, e podem fazê-lo com muito mais precisão direcionada do que antes”, explica o CEO da SlashNext, Patrick Harr. “Se eles não forem bem-sucedidos com a primeira tentativa de BEC ou phishing, eles podem simplesmente tentar novamente com conteúdo reformulado.”

O uso de IA generativa caminhará para o que Harr chama de “natureza polimórfica” de ataques que podem ser lançados em grande velocidade e sem custo para o indivíduo ou organização que apoia o ataque. “É essa natureza direcionada, junto com a frequência de ataques, que vai realmente fazer com que as empresas repensem sua postura de segurança”, diz ele.

Combate ao fogo com fogo

O aumento das ferramentas de IA generativas está introduzindo complexidades e desafios adicionais nos esforços de segurança cibernética, aumentando a sofisticação do ataque e destacando a necessidade de mecanismos de defesa mais robustos contra ameaças em evolução.

Harr diz que acha que a ameaça de ataques de BEC, malware e phishing auxiliados por IA pode ser melhor combatida com recursos de defesa auxiliados por IA.

“Você vai ter que integrar a IA para combater a IA, caso contrário, você vai estar do lado de fora olhando para dentro e vai ver violações contínuas”, diz ele. E isso requer o treinamento de ferramentas de defesa baseadas em IA para descobrir, detectar e, finalmente, bloquear um conjunto sofisticado e em rápida evolução de ameaças geradas por IA.

“Se um agente de ameaça cria um ataque e depois diz à ferramenta de IA de geração para modificá-lo, há muitas maneiras de dizer a mesma coisa”, para algo como fraude de fatura, por exemplo, explica Harr. “O que você pode fazer é dizer às suas defesas de IA para pegar esse núcleo e cloná-lo para criar 24 maneiras diferentes de dizer a mesma coisa.” As equipes de segurança podem pegar esses clones de dados sintéticos e voltar e treinar o modelo de defesa da organização.

“Você pode quase antecipar qual será sua próxima ameaça antes de lançá-la e, se incorporar isso à sua defesa, poderá detectá-la e bloqueá-la antes que ela realmente infecte”, diz ele. “Este é um exemplo de uso de IA para combater a IA.”

De sua perspectiva, as organizações acabarão se tornando dependentes da IA para fazer a detecção de descoberta e, em última análise, a remediação dessas ameaças, porque simplesmente não há como humanamente possível sair na frente sem fazê-lo.

Em abril, um pesquisador da Forcepoint convenceu a ferramenta de IA a criar malware para encontrar e exfiltrar documentos específicos, apesar de sua diretiva de recusar solicitações maliciosas.

Enquanto isso, o entusiasmo dos desenvolvedores pelo ChatGPT e outras ferramentas de modelo de linguagem grande (LLM) deixou a maioria das organizações em grande parte despreparadas para se defender contra as vulnerabilidades que a tecnologia nascente cria.

FONTE: DARK READING

POSTS RELACIONADOS