Melhor phishing, implantes maliciosos fáceis: como a IA pode mudar os ataques cibernéticos

Views: 422
0 0
Read Time:6 Minute, 49 Second

Os modelos de inteligência artificial e aprendizado de máquina (AI/ML) já se mostraram promissores no aumento da sofisticação das iscas de phishing, na criação de perfis sintéticos e na criação de malware rudimentar, mas aplicações ainda mais inovadoras de ataques cibernéticos provavelmente surgirão em um futuro próximo.

Os desenvolvedores de malware já começaram a brincar com a geração de código usando IA, com pesquisadores de segurança demonstrando que uma cadeia de ataque completa pode ser criada. 

A equipe da Check Point Research, por exemplo, usou as ferramentas atuais de IA para criar uma campanha de ataque completa, começando com um e-mail de phishing gerado pelo ChatGPT da OpenAI que insta a vítima a abrir um documento do Excel. Os pesquisadores então usaram o assistente de programação Codex AI para criar uma macro do Excel que executa o código baixado de um URL e um script Python para infectar o sistema de destino. 

Cada etapa exigia várias iterações para produzir um código aceitável, mas a eventual cadeia de ataque funcionou, diz Sergey Shykevich, gerente do grupo de inteligência de ameaças da Check Point Research.

“Requer muita iteração”, diz ele. “Em cada etapa, a primeira saída não era a saída ideal – se fôssemos criminosos, teríamos sido bloqueados pelo antivírus. Levamos tempo até que pudéssemos gerar um bom código.”

Nas últimas seis semanas, o ChatGPT – um grande modelo de linguagem (LLM) baseado na terceira iteração do transformador pré-treinado generativo da OpenAI (GPT-3) – estimulou uma variedade de cenários hipotéticos, tanto otimistas quanto temerosos, para o aplicações potenciais de inteligência artificial e aprendizado de máquina. A natureza de uso duplo dos modelos AI/ML deixou as empresas lutando para encontrar maneiras de melhorar a eficiência usando a tecnologia, enquanto os defensores dos direitos digitais se preocupam com o impacto que a tecnologia terá nas organizações e nos trabalhadores. 

A cibersegurança não é diferente. Pesquisadores e grupos cibercriminosos já experimentaram o uso da tecnologia GPT para uma variedade de tarefas. Autores de malware supostamente novatos usaram o ChatGPT para escrever malware , embora os desenvolvedores tentem usar o serviço ChatGPT para produzir aplicativos, embora às vezes bem-sucedidos , geralmente produzem códigos com bugs e vulnerabilidades .

No entanto, AI/ML também está influenciando outras áreas de segurança e privacidade. Redes neurais generativas (GNNs) têm sido usadas para criar fotos de humanos sintéticos , que parecem autênticos, mas não retratam uma pessoa real, como forma de aprimorar perfis usados ​​para fraude e desinformação. Um modelo relacionado, conhecido como rede adversária generativa (GAN), pode criar vídeo e áudio falsos de pessoas específicas e, em um caso, permitiu que fraudadores convencessem contadores e departamentos de recursos humanos a transferir US$ 35 milhões para a conta bancária dos criminosos .

Os sistemas de IA só melhorarão com o tempo, levantando o espectro de uma variedade de ameaças aprimoradas que podem enganar as estratégias defensivas existentes.

Variações sobre um tema (phishing)

Por enquanto, os cibercriminosos costumam usar o mesmo modelo ou um modelo semelhante para criar mensagens de e-mail de spear phishing ou construir páginas de destino para ataques de comprometimento de e-mail comercial (BEC), mas o uso de um único modelo em uma campanha aumenta a chance de um software defensivo detectar o ataque.

Portanto, um dos principais usos iniciais de LLMs como o ChatGPT será como uma forma de produzir iscas de phishing mais convincentes, com mais variabilidade e em uma variedade de idiomas, que podem se ajustar dinamicamente ao perfil da vítima.

Para demonstrar o ponto, Crane Hassold, diretor de inteligência de ameaças da empresa de segurança de e-mail Abnormal Security, solicitou que o ChatGPT gerasse cinco variações em uma simples solicitação de e-mail de phishing. As cinco variações diferiam significativamente entre si, mas mantinham o mesmo conteúdo — uma solicitação ao departamento de recursos humanos sobre quais informações uma empresa fictícia precisaria para alterar a conta bancária na qual um contracheque é depositado. 

Implantes rápidos e indetectáveis

Embora um programador iniciante possa criar um programa malicioso usando um assistente de codificação de IA, erros e vulnerabilidades ainda atrapalham. Os recursos de codificação dos sistemas de IA são impressionantes, mas, em última análise, eles não chegam ao nível de serem capazes de criar códigos funcionais por conta própria.

Ainda assim, os avanços podem mudar isso no futuro, assim como os autores de malware usaram a automação para criar um grande número de variantes de vírus e worms para escapar da detecção por mecanismos de verificação de assinatura. Da mesma forma, os invasores podem usar IA para criar rapidamente implantes rápidos que usam as vulnerabilidades mais recentes antes que as organizações possam corrigir.

“Acho que é um pouco mais do que um experimento mental”, diz Shykevich, da Check Point. “Conseguimos usar essas ferramentas para criar malware funcional.”

Passando no Teste de Turing?

Talvez a melhor aplicação do sistema de IA seja a mais óbvia: a capacidade de funcionar como humanos artificiais. 

Muitas das pessoas que interagem com o ChatGPT e outros sistemas de IA – incluindo alguns supostos especialistas – acreditam que as máquinas ganharam alguma forma de consciência. Talvez o mais famoso seja que o Google demitiu um engenheiro de software, Blake Lemoine, que alegou que o LLM da empresa, apelidado de LaMDA, havia alcançado a consciência .

“As pessoas acreditam que essas máquinas entendem o que estão fazendo, conceitualmente”, diz Gary McGraw, cofundador e CEO do Berryville Institute of Machine Learning, que estuda ameaças aos sistemas AI/ML. “O que eles estão fazendo é incrível, auto-associadores preditivos estatísticos. O fato de que eles podem fazer o que fazem é incompreensível – que eles podem ter tantas coisas legais acontecendo. Mas não é entender.”

Embora esses sistemas auto-associativos não tenham sensibilidade, eles podem ser bons o suficiente para enganar os trabalhadores em call centers e linhas de suporte, um grupo que muitas vezes representa a última linha de defesa contra a invasão de contas, um cibercrime comum.

Mais lento do que o previsto

No entanto, embora os pesquisadores de segurança cibernética tenham desenvolvido rapidamente alguns ataques cibernéticos inovadores, os agentes de ameaças provavelmente se conterão. Embora a tecnologia do ChatGPT seja “absolutamente transformadora”, os invasores provavelmente adotarão o ChatGPT e outras formas de inteligência artificial e aprendizado de máquina, se isso oferecer a eles um caminho mais rápido para a monetização, diz Hassold, da Abnormal Security. 

“As ameaças cibernéticas de IA têm sido um tema importante há anos”, diz Hassold. “Mas quando você olha para atacantes motivados financeiramente, eles não querem fazer muito esforço ou trabalhar para facilitar seus ataques, eles querem ganhar o máximo de dinheiro possível com o mínimo de esforço.”

Por enquanto, ataques conduzidos por humanos exigem menos esforço do que tentar criar ataques aprimorados por IA, como deepfakes ou texto gerado por GPT, diz ele.

A defesa deve ignorar a falha de IA

Só porque os invasores cibernéticos usam o mais recente sistema de inteligência artificial, não significa que os ataques sejam mais difíceis de detectar, por enquanto. O conteúdo malicioso atual produzido por modelos AI/ML normalmente é a cereja do bolo – eles fazem o texto ou as imagens parecerem mais humanos, mas ao focar nos indicadores técnicos, os produtos de segurança cibernética ainda podem reconhecer a ameaça, enfatiza Hassold.

“O mesmo tipo de indicadores comportamentais que usamos para identificar e-mails maliciosos ainda estão lá”, diz ele. “Embora o e-mail possa parecer mais legítimo, o fato de que o e-mail vem de um endereço de e-mail que não pertence à pessoa que o está enviando ou que um link pode estar hospedado em um domínio que foi registrado recentemente – esses são indicadores isso não vai mudar.”

Da mesma forma, os processos em vigor para verificar novamente as solicitações de alteração de uma conta bancária para pagamento e remessa de cheques derrotariam até mesmo a representação deepfake mais convincente, a menos que o grupo de ameaças tivesse acesso ou controle sobre as camadas adicionais de segurança que se tornaram mais comuns.

FONTE: DARK READING

POSTS RELACIONADOS