Ferramentas de IA generativa já estão sendo usadas para penetrar nos sistemas, e os danos vão piorar, disseram os painelistas na semana passada em uma conferência de tecnologia. Mas essas mesmas ferramentas, aprimoradas com práticas padrão de confiança zero, podem neutralizar esses ataques.
“Estamos definitivamente vendo a IA generativa sendo usada para produzir conteúdo que tornaria mais provável que um parceiro involuntário clicasse em um link … [e] fazer algo que eles não deveriam ter para dar acesso ao sistema”, disse Kathleen Fisher, diretora do Escritório de Inovação da Informação da DARPA, durante uma sessão de discussão na GPU Technology Conference da Nvidia no início deste mês.
Uma boa parte da infraestrutura de IA foi construída nas GPUs da Nvidia, e é por isso que a conferência virtual de desenvolvedores da empresa se tornou um poço de água para discutir o desenvolvimento e as técnicas de IA. O foco do programa é fornecer respostas rápidas e éticas às solicitações de IA.
O CEO da Nvidia, Jensen Huang, declarou a introdução do ChatGPT em novembro de 2022 como o “momento do iPhone” para a IA. No entanto, também há preocupações sobre a IA generativa sendo usada para escrever malware, criar mensagens de compromisso de e-mail comercial (BEC) convincentes e criar vídeo e áudio deepfake.
“Acho que estamos apenas vendo a ponta do iceberg desses tipos de ataques. Mas, dada a facilidade de uso dessa capacidade e como ela só está disponível como um serviço nos dias de hoje, veremos muito mais disso no futuro”, disse Fisher.
IA merece confiança zero
Talvez o sistema de IA generativa mais conhecido seja o ChatGPT da OpenAI, que é um chatbot da OpenAI que usa IA para produzir respostas coerentes às consultas dos usuários. Ele pode escrever relatórios e gerar código. Outros esforços proeminentes incluem o BingGPT da Microsoft (que é baseado no ChatGPT) e o Bard do Google.
As organizações estão ansiosas para experimentar o ChatGPT e seus concorrentes, mas as equipes de segurança cibernética não devem ser complacentes, pois a IA amplia as superfícies gerais de ataque e as oportunidades para os hackers invadirem, disse Kim Crider, diretor-gerente de Inovação em IA para Segurança Nacional e Defesa da Deloitte, durante o painel.
“Devemos abordar nossa IA da perspectiva de ‘ela é vulnerável, já tem algum potencial para ser explorada contra nós'”, disse ela.
As empresas precisam adotar uma abordagem de confiança zero para modelos de IA e dados usados para treinar modelos. Crider falou sobre um conceito chamado deriva de modelo, onde dados ruins poderiam ser alimentados em um modelo de IA, o que poderia levar a um sistema agindo de forma não confiável.
A abordagem de confiança zero ajudará a implementar investimentos, sistemas e pessoal para verificação e validação contínuas de modelos de IA antes e depois de serem colocados em uso, disse Crider.
Defesas de IA do Departamento de Defesa
A DARPA está testando agentes cibernéticos de IA para aprimorar suas defesas digitais. O programa Cyber Agents for Security Testing and Learning Environments (CASTLE) simula um agente defensivo “azul” para proteger os sistemas contra um agente “vermelho” malicioso. O agente azul executa ações como desativar o acesso de uma determinada fonte, como um endereço de Internet associado ao fronting de domínio que está sendo usado para encenar um ataque.
“A tecnologia está usando aprendizado por reforço, então você tem um agente azul que está aprendendo a proteger o sistema, e sua recompensa é manter a prontidão de missão do sistema”, disse Fisher.
Outro programa de defesa, o Cyber-Hunting at Scale (CHASE), usa aprendizado de máquina para analisar informações de telemetria, registros de dados e outras fontes para ajudar a rastrear vulnerabilidades de segurança na infraestrutura de TI do DoD. Em um experimento retrospectivo, o CHASE encontrou 13 incidentes de segurança cerca de 21 dias antes da técnica padrão.
“Foi muito inteligente sobre o gerenciamento de dados que, em seguida, alimentou outros algoritmos de aprendizado de máquina que eram, de fato, muito mais capazes de identificar as ameaças muito rapidamente”, disse Fisher.
Finalmente, Fisher falou sobre a garantia da robustez da IA contra o engano (GUARD), que usa aprendizado de máquina para evitar o envenenamento de dados, o que poderia afetar a eficácia dos sistemas de IA.
Uso civil da segurança cibernética baseada em IA
Os membros do painel também sugeriram complementar as abordagens de segurança padrão, como a execução de exercícios de segurança para minimizar o phishing, com várias camadas de segurança para garantir que os sistemas sejam seguros.
Algumas ferramentas de defesa baseadas em IA estão entrando no mercado comercial. A Microsoft introduziu o Security Copilot, um assistente de IA que pode ajudar as equipes de segurança a triar ameaças monitorando ativamente as redes internas e comparando-as com a base de conhecimento de segurança existente da Microsoft.
A Microsoft executa todas as suas operações de IA em GPUs da Nvidia. Isso é em parte para tirar proveito do algoritmo de segurança baseado em IA da Nvidia, Morpheus, que pode diagnosticar ameaças e atividades anormais analisando os logs do sistema e os padrões de login do usuário.
A IA oferece muitos benefícios, mas é preciso haver um humano ao volante para segurança, disse Fisher, dando o exemplo de um carro autônomo em que um humano está pronto para assumir o controle se algo der errado com o sistema de IA de um carro.
Fisher disse: “De certa forma, isso leva a psicologia das pessoas a sério em termos do que podemos fazer agora para melhorar o sistema cibernético enquanto esperamos por esses agentes mais aprimorados” que podem se defender contra armas cibernéticas mais rapidamente do que as pessoas digitando nos teclados.
“Acho que 2023 será um grande ponto de virada no espaço de IA generativa”, disse Crider, da Deloitte. “Isso aterroriza o diabo de mim.”
FONTE: DARK READING