Sobrevivência na segurança cibernética: esconda-se da IA adversária

Views: 120
0 0
Read Time:5 Minute, 41 Second

Se você ler artigos sobre como os agentes de ameaças podem usar a inteligência artificial (IA), provavelmente notou que eles se enquadram em duas categorias: melhorando os recursos de engano e automatizando a codificação maliciosa.

O primeiro caso argumenta que a IA generativa usando modelos de linguagem grande (LLMs) pode criar iscas de phishing e smishing que são mais críveis (registro necessário). Dado que 90% dos ataques cibernéticos bem-sucedidos começam com phishing, a IA que melhora as iscas enganosas é motivo de grande preocupação. Imagine as comunicações convincentes que o novo modelo GPT-4, que contratou pessoas para resolver os desafios da Captcha, poderia escrever.

O segundo tópico, AI writing malware (o que ele fez), me parece menos perturbador. Nesse caso, os especialistas argumentam que os LLMs podem escrever malware polimórfico ou tornar mais fácil para adversários menos qualificados criarem códigos maliciosos. No entanto, vivemos em um mundo onde mais de 450.000 novas variantes de malware e aplicativos potencialmente indesejados (APIs) são registradas todos os dias. É difícil ver como os usuários pouco qualificados que aumentam esse número mudariam significativamente a paisagem das ameaças. Simplesmente criar mais malware é uma tarefa facilmente automatizada. A IA deve criar um malware melhor para representar uma ameaça maior.

Potencial de ameaça adversária de IA

Acho que o potencial de ameaça da IA adversária é muito maior do que o golpe duplo de hoje de melhor phishing e mais malware. Reserve um momento para colocar seu chapéu de agente de ameaças e imagine o que a IA maliciosa pode alcançar em breve. Quais ferramentas os adversários normalmente usam e a IA bem treinada pode melhorar sua eficácia?

Treinando IA para Hackear

Considere o potencial de treinamento de IA inexplorado de ferramentas de varredura de vulnerabilidades, como o Acunetix, ou estruturas de exploração, como o Metasploit. Essas ferramentas automatizam os estágios de reconhecimento e exploração da cadeia de cyber kill. Hoje, essas ferramentas exigem orientação e direção humanas. As ameaças persistentes avançadas (APTs) que as usam para atingir organizações estão focadas no ambiente de uma única vítima. As ferramentas fazem grande parte do levantamento, mas as pessoas devem interpretar os resultados e reagir de acordo. E se esses programas simplesmente fornecessem suas informações a um data lake maior para a IA ingerir?

PUBLICIDADE

Podemos ver como os LLMs usam conjuntos de dados massivos para criar IA eficaz e generativa. O modelo GPT-3 é avançado o suficiente para prever combinações de sílabas e palavras e, em seguida, construir respostas aparentemente inteligentes a consultas. A IA pode escrever um ensaio, haikai ou relatório sobre qualquer tópico com um simples prompt. Claro, o modelo não sabe realmente o que está dizendo. Ele simplesmente treinou em dados de linguagem por tempo suficiente para prever com precisão qual palavra deve vir a seguir em uma resposta.

Imagine uma IA que treina na exploração de segurança tão profundamente quanto os LLMs treinam na linguagem. Imagine um treinamento de IA em todos os CVEs conhecidos, o NIST Cybersecurity Framework e o OWASP Top 10 como parte de seu conjunto de dados principais. Para realmente tornar essa IA perigosa, ela também deve treinar em data lakes gerados por ferramentas populares de hacking. Por exemplo, use o Nmap para alguns milhões de redes e treine a IA para reconhecer correlações entre portas abertas, versões do sistema operacional e domínios. Execute varreduras de vulnerabilidade do Nessus em milhares de ambientes e forneça os resultados à IA para “aprender” padrões de falhas de segurança corporativa. Essa abordagem pode estar além do alcance de hackers de pequeno porte, mas certamente está ao alcance de grupos de ameaças e governos patrocinados pelo Estado.

Uma vez que essa IA maliciosa é bem treinada, ela pode prever combinações vulneráveis de software e hardware com a mesma precisão com que o ChatGPT escolhe palavras. Ele pode verificar um ambiente, detectar vários problemas e retornar uma lista classificada de possíveis técnicas de exploração. Ou pode comprometer o ambiente e, em seguida, entregar o acesso aos agentes de ameaças. Embora um melhor phishing e mais malware apresentem problemas imediatos, eles são insignificantes em comparação com os perigos potenciais de uma IA totalmente armada.

Segurança através da obscuridade

Felizmente, as organizações podem mitigar grande parte da ameaça representada por IAs maliciosas ocultando a infraestrutura de negócios. Conforme definido pelo Gartner, as soluções de acesso à rede de confiança zero (ZTNA) oferecem uma defesa resiliente. Pense em um ambiente de confiança zero baseado em nuvem como um proxy entre usuários e recursos de negócios. Usando essa configuração, aplicativos, dados e serviços são hospedados em uma rede separada dos usuários. Para acessar os recursos de negócios, os usuários devem passar por um conector de aplicativo que executa uma extensa análise de identidade. Depois que um usuário passa por verificações de identidade e contexto, a arquitetura de proxy os conecta diretamente ao recurso na nuvem.

É importante observar que os usuários nunca recebem acesso à rede que hospeda os aplicativos, dados e serviços. Eles só estão conectados ao único recurso solicitado na transação verificada. Essa abordagem oculta o restante da infraestrutura de rede e os recursos disponíveis da sessão segura. Não há oportunidade para um iniciador realizar movimento lateral, ou maior reconhecimento do ambiente.

Essa abordagem dificulta a IA adversária treinada para descobrir vulnerabilidades em um ambiente corporativo. Com a infraestrutura de negócios escondida por trás de um serviço seguro de proxy em nuvem, a IA não pode ver o ambiente ou saber o que é explorável. A capacidade das IAs de encontrar oportunidades de exploração depende de ter uma ampla visão geral do hardware e do software que executam a infraestrutura de negócios.

E os usuários? Uma IA adversária pode quebrar um endpoint individual, como um laptop ou roteador doméstico. No entanto, controlar esses dispositivos faz pouco para oferecer acesso de IA ao ambiente de negócios maior. Os dispositivos e identidades comprometidos ainda devem passar pela análise de contexto antes de se conectarem aos recursos. As solicitações de acesso serão negadas se vierem em um momento estranho ou exibirem outros recursos suspeitos. Se a IA puder imitar razoavelmente uma solicitação legítima de uma identidade comprometida, ela estará limitada a acessar o punhado de recursos disponíveis para esse usuário.

Essa abordagem ZTNA em nível de identidade para acessar elimina grande parte da superfície de ataque de uma organização e minimiza o perigo do que resta – mover a infraestrutura organizacional por trás de uma troca de confiança zero baseada em nuvem retira a IA adversária de sua vantagem preditiva e baseada em conhecimento. As organizações podem alcançar a segurança através da obscuridade, escondendo tudo o que a IA maliciosa sabe como explorar.

FONTE: DARK READING

POSTS RELACIONADOS