Usando IA como uma arma cibernética ofensiva

Views: 174
0 0
Read Time:4 Minute, 38 Second

O relatório e a pesquisa do Offensive AI Research Lab mostram a ampla gama de atividades que são possíveis por meio da IA ​​ofensiva.

A IA é uma faca de dois gumes. Permitiu a criação de ferramentas de software que ajudaram a automatizar tarefas como previsão, recuperação de informações e síntese de mídia, que foram usadas para melhorar várias medidas de defesa cibernética. No entanto, a IA também foi usada por invasores para melhorar suas campanhas maliciosas. Por exemplo, a IA pode ser usada para envenenar modelos de ML e, assim, direcionar seus conjuntos de dados e roubar credenciais de login (pense em keylogging, por exemplo).

Em nossas discussões sobre inteligência artificial (IA) e aprendizado de máquina (ML), na maioria das vezes nos concentramos em como nos defender contra ataques alimentados por sistemas de IA, como a criação de deepfakes ou malware especialmente criado que pode evitar detecção. Há outro lado dessa chamada IA ​​ofensiva, que é usar a própria IA. 

Recentemente, passei algum tempo em um recém-criado laboratório ofensivo de pesquisa de IA dirigido pelo Dr. Yisroel Mirsky . O laboratório faz parte de um dos esforços de pesquisa da Universidade Ben Gurion em Beersheva, Israel, e fica a apenas alguns escritórios de distância de outro laboratório que realiza pesquisas de lacunas de ar sobre as quais escrevemos anteriormente.

O Offensive AI Research Lab faz todos os tipos de experimentos envolvendo ataques a sistemas de IA. Enquanto eu estava no laboratório do Dr. Mirsky em Israel, pude ver uma de suas ferramentas: um gerador de áudio deepfake em tempo real que me deu arrepios. 

A ideia é fazer com que um computador use trechos de sua voz – seja por meio de uma gravação deliberada ou algo que seja de domínio público, como um discurso ou um podcast – para se passar por você. O gerador só precisa de alguns segundos da sua voz para gerar algo bem próximo. Usando-o, um invasor pode conversar com alguém que pensa estar falando com você. Ter esse poder de criar um deepfake significa que a engenharia social pode acontecer com qualquer um, não importa o quão vigilantes eles sejam.

Mirsky faz parte de uma equipe que publicou um relatório intitulado “ The Threat of Offensive AI to Organizations ”. O relatório e a pesquisa do Offensive AI Research Lab mostram a ampla gama de atividades (negativas e positivas) que são possíveis por meio da IA ​​ofensiva. A equipe encontrou 24 dos 33 recursos ofensivos de IA que abrangem automação, resiliência de campanha, roubo de credenciais, desenvolvimento de exploração, coleta de informações, engenharia social e discrição. 

Em que as empresas devem se concentrar para se defender contra ataques de IA?

Esses recursos listados acima podem representar ameaças significativas relacionadas aos negócios; portanto, em uma pesquisa, a equipe por trás do relatório consultou especialistas da academia, da indústria e do governo para entender quais dessas ameaças são preocupações reais e por quê.

A pesquisa encontrou uma dicotomia entre a indústria e a academia quando se trata de seus respectivos focos primários de IA. “A indústria está mais preocupada com o uso da IA ​​para engenharia reversa, com foco na perda de propriedade intelectual. Os acadêmicos, por outro lado, estão mais preocupados com o uso da IA ​​para realizar falsificações biométricas”, escrevem os autores. Há uma área de concordância, que é a ameaça de personificação, ilustrada por minha própria experiência no laboratório.

No entanto, essa diferença entre os dois grupos é preocupante. “Devido à capacidade de uma IA de automatizar processos, os adversários podem mudar de algumas campanhas secretas lentas para várias campanhas de ritmo acelerado para dominar os defensores e aumentar suas chances de sucesso”, disseram os autores. Pense nisso por um momento: muitas das invasões anteriores não foram descobertas com facilidade e muitos invasores viveram dentro de uma rede comercial por semanas ou meses. Algumas fontes chegam a citar uma média de seis meses antes de serem detectados. Ter um ataque de IA em movimento rápido pode ser devastador.

O relatório inclui muitos outros exemplos de ataques baseados em IA. Por exemplo, a IA maliciosa pode gerar “impressões mestre”, que são deepfakes de impressões digitais que podem abrir praticamente qualquer smartphone. Eles também podem enganar ou escapar de muitos sistemas de reconhecimento facial. Além disso, outras técnicas podem ser usadas para desacelerar uma câmera de vigilância até que ela pare de responder.

A pesquisa da equipe descobriu que existem três motivações principais para um adversário usar IA ofensiva contra uma organização: 

  1. Cobertura: a IA pode ser usada para coletar automaticamente dados de inteligência e, em seguida, criar e lançar ataques de spear phishing.
  2. Velocidade: o aprendizado de máquina pode ser usado para ajudar a extrair credenciais e, em seguida, selecionar de forma inteligente o próximo melhor alvo a ser perseguido.
  3. Sucesso: para aumentar o sucesso, a IA pode ajudar a tornar a operação de phishing mais encoberta, minimizando ou camuflando seu tráfego de rede malicioso.

Embora os autores acreditem que haverá um aumento de incidentes ofensivos de IA, eles não acham que será provável ver botnets que possam interagir de forma autônoma e dinâmica com um conjunto diversificado de sistemas complexos (como a rede de uma organização) em um futuro próximo. . Isso é um pequeno consolo, mas não quer dizer que os pesquisadores não esperem ver mais e melhores deepfakes no horizonte também. 

FONTE: AVAST

POSTS RELACIONADOS