Por que o ChatGPT não é uma sentença de morte para os defensores cibernéticos

Views: 146
0 0
Read Time:6 Minute, 7 Second

O ChatGPT conquistou o mundo desde o final de novembro, gerando preocupações legítimas sobre seu potencial de amplificar a gravidade e a complexidade do cenário de ameaças cibernéticas. A ascensão meteórica da ferramenta de IA generativa marca o desenvolvimento mais recente em uma corrida armamentista de segurança cibernética entre o bem e o mal, onde invasores e defensores estão constantemente em busca das próximas tecnologias inovadoras de IA/ML que podem fornecer uma vantagem competitiva.

Desta vez, no entanto, as apostas foram aumentadas. Como resultado do ChatGPT , a engenharia social agora está oficialmente democratizada — expandindo a disponibilidade de uma ferramenta perigosa que aumenta a capacidade de um agente de ameaça contornar medidas de detecção rigorosas e lançar redes mais amplas na superfície de ataque híbrido.

Lançando amplas redes de ataque

Eis o motivo: a maioria das campanhas de engenharia social depende de modelos generalizados contendo palavras-chave comuns e sequências de texto que as soluções de segurança são programadas para identificar e bloquear. Essas campanhas, realizadas por e-mail ou canais de colaboração como Slack e Microsoft Teams, geralmente adotam uma abordagem de pulverizar e rezar, resultando em uma baixa taxa de sucesso.

Mas com AIs generativas como o ChatGPT, os agentes de ameaças poderiam, teoricamente, alavancar o Large Language Model (LLM) do sistema para se afastar dos formatos universais, automatizando a criação de e-mails de phishing ou spoofing totalmente exclusivos com gramática perfeita e padrões de fala natural adaptados ao alvo individual . Esse nível elevado de sofisticação faz com que qualquer ataque médio por e-mail pareça muito mais confiável, tornando muito mais difícil detectar e impedir que os destinatários cliquem em um link de malware oculto.

No entanto, vamos deixar claro que o ChatGPT não significa a sentença de morte para os defensores cibernéticos que alguns fizeram parecer. Em vez disso, é o desenvolvimento mais recente em um ciclo contínuo de táticas, técnicas e procedimentos (TTPs) de agentes de ameaças em evolução que podem ser analisados, tratados e mitigados. Afinal, esta não é a primeira vez que vemos IAs generativas exploradas para intenções maliciosas; o que separa o ChatGPT das tecnologias anteriores é a simplicidade de uso e o acesso gratuito. Com a OpenAI provavelmente mudando para modelos baseados em assinatura que exigem autenticação do usuário juntamente com proteções aprimoradas, a defesa contra ataques do ChatGPT acabará se resumindo a uma variável-chave: combater fogo com fogo.

Derrotando o ChatGPT em seu próprio jogo

As equipes de operações de segurança devem alavancar seus próprios modelos de linguagem grande (LLMs) baseados em IA para combater a engenharia social do ChatGPT. Considere-o a primeira e a última linha de defesa, capacitando os analistas humanos a melhorar a eficiência da detecção, simplificar os fluxos de trabalho e automatizar as ações de resposta. Por exemplo, um LLM integrado à solução de segurança corporativa certa pode ser programado para detectar modelos de engenharia social altamente sofisticados gerados pelo ChatGPT. Segundos depois de o LLM identificar e categorizar um padrão suspeito, a solução o sinaliza como uma anomalia, notifica um analista humano com ações corretivas prescritas e compartilha essa inteligência de ameaças em tempo real no ecossistema de segurança da organização.

Os benefícios são a razão pela qual a taxa de adoção de IA/ML em segurança cibernética acelerou nos últimos anos. No relatório “Custo de uma violação de dados” de 2022 da IBM, as empresas que alavancaram uma solução de segurança orientada por IA reduziram os ataques 28 dias mais rápido , em média, e reduziram os danos financeiros em mais de US$ 3 milhões. Enquanto isso, 92% dos entrevistados no relatório “State of Email Security” de 2022 da Mimecast indicaram que já estavam aproveitando a IA em suas arquiteturas de segurança ou planejavam fazê-lo em um futuro próximo. Construir esse progresso com um compromisso mais forte de alavancar LLMs orientados por IA deve ser um foco imediato no futuro, pois é a única maneira de acompanhar a velocidade dos ataques do ChatGPT.

Ferro afia ferro

O uso aplicado de LLMs orientados por IA, como o ChatGPT, também pode aumentar a eficiência dos testes de penetração de caixa preta, caixa cinza e caixa branca, que exigem uma quantidade significativa de tempo e mão de obra que as equipes de TI sobrecarregadas carecem em meio à escassez generalizada de mão de obra . Considerando que o tempo é essencial, os LLMs oferecem uma metodologia eficaz para simplificar os processos de teste de penetração — automatizando a identificação de vetores de ataque ideais e lacunas de rede sem depender de modelos de exploração anteriores que geralmente ficam desatualizados à medida que o cenário de ameaças evolui.

Por exemplo, em um ambiente simulado, um LLM “ruim” pode gerar texto de e-mail personalizado para testar as defesas de engenharia social da organização. Se esse texto ignorar a detecção e atingir o destino pretendido, os dados poderão ser reaproveitados para treinar outro LLM “bom” sobre como identificar padrões semelhantes em ambientes do mundo real . Isso ajuda a informar efetivamente as equipes vermelha e azul sobre as complexidades do combate ao ChatGPT com IA generativa, além de fornecer uma avaliação precisa da postura de segurança da organização que permite aos analistas preencher as lacunas de vulnerabilidade antes que os adversários as aproveitem.

O efeito do erro humano

É importante lembrar que apenas investir nas melhores soluções não é uma solução mágica para proteger as organizações contra ataques sofisticados de engenharia social. Em meio à adoção social de estruturas de trabalho híbridas baseadas em nuvem, o risco humano emergiu como uma vulnerabilidade crítica da empresa moderna. Atualmente, mais de 95% das violações de segurança , a maioria delas resultantes de ataques de engenharia social, envolvem algum grau de erro humano. E com o ChatGPT esperado para aumentar o volume e a velocidade de tais ataques , garantir que os funcionários híbridos sigam práticas seguras, independentemente de onde trabalhem, deve ser considerado inegociável.

Essa realidade aumenta a importância da implementação de módulos de treinamento de conscientização do usuário como um componente central de sua estrutura de segurança – os funcionários que recebem treinamento consistente de conscientização do usuário têm cinco vezes mais chances de identificar e evitar links maliciosos. No entanto, de acordo com um relatório da Forrester de 2022, “Security Awareness and Training Solutions ” , muitos líderes de segurança carecem de um amplo conhecimento de como criar uma cultura de conscientização de segurança e reverter para o treinamento estático de funcionários de tamanho único para medir o engajamento e influenciar o comportamento. Esta abordagem é amplamente ineficaz. Para que os módulos de treinamento tenham sucesso, eles devem ser escaláveis ​​e personalizados com conteúdo divertido e questionáriosque se alinham com as áreas de interesse e estilos de aprendizagem dos funcionários.

A combinação de IA generativa com treinamento de conscientização do usuário bem executado cria uma aliança de segurança robusta que pode permitir que as organizações trabalhem protegidas do ChatGPT. Não se preocupem, defensores cibernéticos, o céu não está caindo. A esperança permanece no horizonte.

FONTE: DARK READING

POSTS RELACIONADOS