9 maneiras pelas quais os hackers usarão o aprendizado de máquina para lançar ataques

Views: 360
0 0
Read Time:8 Minute, 0 Second

O aprendizado de máquina e a inteligência artificial (IA) estão se tornando uma tecnologia central para algumas ferramentas de detecção e resposta a ameaças. A capacidade de aprender em tempo real e se adaptar automaticamente às mudanças nas ameaças cibernéticas dá às equipes de segurança uma vantagem.

No entanto, alguns atores de ameaças também estão usando aprendizado de máquina e IA para aumentar seus ataques cibernéticos, fugir dos controles de segurança e encontrar novas vulnerabilidades em um ritmo sem precedentes e com resultados devastadores. Aqui estão as nove maneiras mais comuns pelas quais os atacantes aproveitam essas tecnologias.

1. Spam, spam, spam, spam

Os defensores usam o aprendizado de máquina para detectar spam há décadas, diz Fernando Montenegro, analista da Omdia. “A prevenção de spam é o melhor caso de uso inicial para aprendizado de máquina”, diz ele.

Se o filtro de spam usado fornecer razões pelas quais uma mensagem de e-mail não passou ou gera uma pontuação de algum tipo, o invasor pode usá-la para modificar seu comportamento. Eles usariam a ferramenta legítima para tornar seus próprios ataques mais bem-sucedidos. “Se você enviar coisas com frequência suficiente, poderá reconstruir qual era o modelo e, em seguida, ajustar seu ataque para contornar esse modelo”, diz Montenegro.

TI Verde: A cor do dinheiro

0 segundos de 21 minutos, 50 segundosVolume0%

Não são apenas os filtros de spam que são vulneráveis. Qualquer fornecedor de segurança que forneça uma pontuação ou alguma outra saída pode ser abusado, diz Montenegro. “Nem todos eles têm esse problema, mas se você não tiver cuidado, eles terão uma saída útil que alguém pode usar para fins maliciosos.”

2. Melhores e-mails de phishing

Os atacantes não estão apenas usando ferramentas de segurança de aprendizado de máquina para testar se suas mensagens podem passar pelos filtros de spam. Eles também estão usando o aprendizado de máquina para criar esses e-mails em primeiro lugar, diz Adam Malone, sócio da EY, Technology Consulting. “Eles estão anunciando a venda desses serviços em fóruns criminais. Eles estão usando-os para gerar melhores e-mails de phishing. Para gerar personas falsas para impulsionar campanhas de fraude.”

Esses serviços estão sendo anunciados especificamente como usando aprendizado de máquina, e provavelmente não é apenas marketing. “A prova está no pudim”, diz Malone. “Eles são definitivamente melhores.”

O aprendizado de máquina permite que os atacantes personalizem os e-mails de phishing de maneira criativa para que eles não apareçam e-mails em massa e sejam otimizados para acionar engajamento – e cliques. Eles não param apenas no texto do e-mail. A IA pode ser usada para gerar fotos realistas, perfis de mídia social e outros materiais para fazer com que a comunicação pareça o mais legítima possível.

3. Melhor adivinhação de senha

Os criminosos também estão usando o aprendizado de máquina para melhorar adivinhar senhas, diz Malone. “Vimos evidências disso com base na frequência e nas taxas de sucesso dos mecanismos de adivinhação de senhas”, diz ele. Os criminosos estão construindo dicionários melhores e hackeando hashes roubados.

Eles também estão usando o aprendizado de máquina para identificar controles de segurança, diz Malone, “para que eles possam fazer menos tentativas e adivinhar senhas melhores e aumentar as chances de obter acesso com sucesso a um sistema”.

4. Falsificações profundas

O uso mais assustador da inteligência artificial são as ferramentas falsas profundas que podem gerar vídeo ou áudio que é difícil de distinguir do ser humano real. “Ser capaz de simular a voz ou o rosto de alguém é muito útil contra humanos”, diz Montenegro. “Se alguém está fingindo soar como eu, você pode se apaixonar por isso.”

Na verdade, alguns casos de alto perfil foram tornados públicos nos últimos dois anos, nos quais o áudio falsificado custa às empresas centenas de milhares — ou milhões — de dólares. “As pessoas têm recebido telefonemas de seu chefe – que eram falsos”, diz Murat Kantarcioglu, professor de ciência da computação da Universidade do Texas.

Mais comumente, os golpistas estão usando a IA para gerar fotos realistas, perfis de usuário e e-mails de phishing para fazer com que suas mensagens pareçam mais críveis. É um grande negócio. De acordo com o FBI, os golpes de compromisso de e-mail comercial levaram a mais de US$ 43 bilhões em perdas desde 2016. No outono passado, houve relatos da mídia de um banco em Hong Kong enganado a transferir US$ 35 milhões para uma gangue criminosa, porque um funcionário do banco recebeu uma ligação de um diretor da empresa com quem ele havia falado antes. Ele reconheceu a voz, então autorizou a transferência.

5. Neutralizando ferramentas de segurança prontas para uso

Muitas ferramentas de segurança populares usadas hoje têm alguma forma de inteligência artificial ou aprendizado de máquina incorporada. As ferramentas antivírus, por exemplo, estão olhando cada vez mais além das assinaturas básicas para comportamentos suspeitos. “Qualquer coisa disponível on-line, especialmente de código aberto, pode ser aproveitada pelos bandidos”, diz Kantarcioglu.

Os atacantes podem usar essas ferramentas, não para se defender contra ataques, mas para ajustar seu malware até que ele possa evitar a detecção. “Os modelos de IA têm muitos pontos cegos”, diz Kantarcioglu. “Você pode ser capaz de alterá-los alterando os recursos do seu ataque, como quantos pacotes você envia ou quais recursos você está atacando.”

Não são apenas as ferramentas de segurança alimentadas por IA que os atacantes estão usando. A IA faz parte de muitas tecnologias diferentes. Considere, por exemplo, que os usuários geralmente aprendem a detectar e-mails de phishing procurando erros gramaticais. Verificadores gramaticais alimentados por IA, como o Grammarly, podem ajudar os atacantes a melhorar sua escrita.

6. Reconhecimento

O aprendizado de máquina pode ser usado para reconhecimento, para que os atacantes possam analisar os padrões de tráfego, defesas e possíveis vulnerabilidades de seu alvo. Isso não é uma coisa fácil de fazer, então não é provável que seja algo em que o cibercriminoso médio se envolveria. “Você precisa de alguns conjuntos de habilidades para usar a IA”, diz Kantarcioglu, “então acredito que seriam os atores estatais avançados que usariam essas técnicas”.

No entanto, se, em algum momento, a tecnologia for comercializada e fornecida como um serviço através do subterrâneo criminoso, ela poderá se tornar mais amplamente acessível. Também poderia acontecer “se um ator de ameaça do estado-nação desenvolvesse um kit de ferramentas específico que usasse o aprendizado de máquina e o liberasse para a comunidade criminosa”, diz Mellen, “mas os cibercriminosos ainda precisariam de alguma compreensão do que o aplicativo de aprendizado de máquina estava fazendo e como aproveitá-lo de forma eficaz, o que cria uma

7. Agentes autônomos

Se uma empresa perceber que está sob ataque e desligar o acesso à Internet aos sistemas afetados, o malware pode não conseguir se conectar de volta aos seus servidores de comando e controle para obter instruções. “Os atacantes podem querer criar um modelo inteligente que permaneça mesmo que não possam controlá-lo diretamente, para maior persistência”, diz Kantarcioglu. “Mas para o cibercrime regular, acredito que isso não seria super importante.”

8. Envenenamento por IA

Um invasor pode enganar um modelo de aprendizado de máquina alimentando novas informações. “O adversário manipula o conjunto de dados de treinamento”, diz Alexey Rubtsov, pesquisador associado sênior do Global Risk Institute. “Por exemplo, eles o acertam intencionalmente, e a máquina aprende o caminho errado.”

Por exemplo, uma conta de usuário sequestrada pode fazer login em um sistema todos os dias às 2 da manhã para fazer um trabalho inócuo, fazendo com que o sistema pense que não há nada de suspeito em trabalhar às 2 da manhã e reduzir os aros de segurança que o usuário tem que passar.

Isso é semelhante a como o chatbot Tay da Microsoft foi ensinado a ser racista em 2016. A mesma abordagem pode ser usada para ensinar a um sistema que um determinado tipo de malware é seguro ou que comportamentos específicos de bot são completamente normais.

9. IA fuzzing

Desenvolvedores de software legítimos e testadores de penetração usam software fuzzing para gerar entradas de amostra aleatórias na tentativa de travar um aplicativo ou encontrar uma vulnerabilidade. As versões de preparação deste software usam o aprendizado de máquina para gerar as entradas de maneira mais focada e organizada, priorizando, por exemplo, as cadeias de texto com maior probabilidade de causar problemas. Isso torna as ferramentas de confusão mais úteis para as empresas, mas também mais mortais nas mãos de atacantes.

Todas essas técnicas são uma razão pela qual a higiene básica da segurança cibernética, como patching, educação anti-phishing e microsegmentação, continuam sendo vitais. “E é uma das razões pelas quais a defesa em profundidade é tão importante”, diz Mellen, da Forrester. “Você precisa colocar vários bloqueios de estradas, não apenas a única coisa que os atacantes acabam usando contra você a seu favor.”

A falta de experiência mantém o uso de aprendizado de máquina por atores de ameaças baixo

Investir em aprendizado de máquina requer muita experiência, o que está em falta no momento. Além disso, geralmente existem maneiras mais simples e fáceis para os adversários invadirem as empresas, já que muitas vulnerabilidades permanecem sem correção.

“Há muitas frutas penduradas por aí e muitas outras maneiras de ganhar dinheiro sem necessariamente usar aprendizado de máquina e IA para criar ataques”, diz Mellen. “Na minha experiência, na grande maioria dos casos, eles não estão fazendo uso disso.” À medida que as empresas melhoram suas defesas, e os criminosos e os estados-nação continuam a investir em seus ataques, esse equilíbrio pode em breve começar a mudar.

FONTE: CSO ONLINE

POSTS RELACIONADOS