3 maneiras de criminosos usarem inteligência artificial em ataques de cibersegurança

Views: 374
0 0
Read Time:4 Minute, 33 Second

Os maus atores usam o aprendizado de máquina para quebrar senhas mais rapidamente e criar malware que saiba se esconder, alertam especialistas.

Três especialistas em segurança cibernética explicaram como a inteligência artificial e o aprendizado de máquina podem ser usados para evitar defesas de segurança cibernética e tornar as violações mais rápidas e eficientes durante uma cúpula de cibersegurança da NCSA e da Nasdaq.

Kelvin Coleman, diretor executivo da Aliança Nacional de Segurança Cibernética, organizou a conversa como parte da Uable Security: Effecting and Measurement Change in Human Behavior na terça-feira, 6 de outubro.

Elham Tabassi, chefe do laboratório de tecnologia da informação do Instituto Nacional de Padrões e Tecnologia, foi um dos palestrantes na sessão “Inteligência Artificial e Machine Learning for Cybersecurity: The Good, the Bad, and the Ugly”.

“Os atacantes podem usar a IA para escapar das detecções, para se esconder onde não podem ser encontrados e se adaptar automaticamente às contramedidas”, disse Tabassi.

Tim Bandos, diretor de segurança da informação do Digital Guardian, disse que a segurança cibernética sempre precisará de mentes humanas para construir defesas fortes e parar os ataques.

“A IA é o ajudante e os analistas de segurança e os caçadores de ameaças são os super-heróis”, disse ele.

Aqui estão três maneiras de AI e ML serem usados em ataques de cibersegurança.

Envenenamento por dados

Tabassi disse que os maus atores às vezes visam os dados usados para treinar modelos de aprendizagem de máquina. O envenenamento por dados foi projetado para manipular um conjunto de dados de treinamento para controlar o comportamento de predição de um modelo treinado para enganar o modelo a executar incorretamente, como rotular e-mails de spam como conteúdo seguro.

Existem dois tipos de envenenamento por dados: ataques que visam a disponibilidade de um algoritmo ML e ataques que visam sua integridade. Pesquisas sugerem que um conjunto de dados de treinamento de 3% de envenenamento leva a uma queda de 11% na precisão.

Com ataques de backdoor, um intruso pode adicionar uma entrada a um algoritmo que o designer do modelo não conhece. O invasor usa esse backdoor para obter o sistema ML para classificar mal uma determinada sequência como benigna quando pode estar carregando dados ruins.

Tabassi disse que técnicas de envenenamento podem ser transferidas de um modelo para outro.

“Os dados são o sangue e o combustível para aprendizado de máquina e tanta atenção deve ser dada aos dados que estamos usando para treinar os modelos como os modelos”, disse ela. “A confiança do usuário é influenciada pelo modelo e pela qualidade do treinamento e pelos dados que estão entrando nele.”

Tabassi disse que o setor precisa de padrões e diretrizes para garantir a qualidade dos dados e que a NIST está trabalhando em diretrizes nacionais para ia confiável, incluindo diretrizes de alto nível e requisitos técnicos para lidar com precisão, segurança, viés, privacidade e explicabilidade.

Redes Contraditórias Geradoras

As GANs (Generative Adversarial Networks, redes adversárias generativas) são basicamente dois sistemas de IA colocados um contra o outro — um que simula conteúdo original e outro que detecta seus erros. Competindo uns contra os outros, eles criam conteúdo convincente o suficiente para passar para o original.

Os pesquisadores da Nvidia treinaram um modelo único de IA para recriar o PAC-MAN simplesmente observando horas de jogabilidade, sem um motor de jogo, como Stephanie Condon explicou no ZDNet.

Bandos disse que os atacantes estão usando GANs para imitar padrões normais de tráfego, para desviar a atenção dos ataques e para encontrar e exfiltrar dados confidenciais rapidamente.

“Eles entram e saem dentro de 30-40 minutos graças a essas capacidades”, disse ele. “Uma vez que os atacantes começam a aproveitar a inteligência artificial e o aprendizado de máquina, eles podem automatizar essas tarefas.”

Os GANs também podem ser usados para quebrar senhas, evitar a detecção de malware e enganar o reconhecimento facial, como Thomas Klimek descreveu no artigo, “Generative Adversarial Networks: What Are They and Why We Should Be Afraid.” Um sistema PassGAN construído por pesquisadores de aprendizado de máquina foi treinado em uma lista de senhas padrão do setor e acabou sendo capaz de adivinhar mais senhas do que várias outras ferramentas treinadas no mesmo conjunto de dados. Além de gerar dados, os GANs podem criar malware que pode escapar de sistemas de detecção baseados em aprendizado de máquina.

Bandos disse que os algoritmos de IA usados na segurança cibernética têm que ser retreinados frequentemente para reconhecer novos métodos de ataque.

À medida que os adversários evoluem, temos que evoluir também”, disse.

Ele usou a ofuscação como exemplo, como quando um pedaço de malware é construído principalmente com código legítimo. Um algoritmo ML teria que ser capaz de identificar o código malicioso dentro dele.

Manipulação de bots

O palestrante Greg Foss, estrategista sênior de segurança cibernética da VMware Carbon Black, disse que se os algoritmos de IA estão tomando decisões, eles podem ser manipulados para tomar a decisão errada.

“Se os atacantes entenderem esses modelos, eles podem abusar desses modelos”, disse ele.

Foss descreveu um ataque recente a um sistema de negociação de criptomoedas executado por bots.

“Os atacantes entraram e descobriram como os bots estavam fazendo sua negociação e usaram os bots para enganar o algoritmo”, disse ele. “Isso pode ser aplicado em outras implementações.”

Foss acrescentou que essa técnica não é nova, mas agora esses algoritmos estão tomando decisões mais inteligentes, o que aumenta o risco de fazer uma má.

FONTE: TECHREPUBLIC

POSTS RELACIONADOS