O ChatGPT é uma ameaça maior à segurança cibernética do que muitos imaginam

Views: 237
0 0
Read Time:6 Minute, 17 Second

Um modelo de IA de geração de linguagem chamado ChatGPT, disponível gratuitamente, conquistou a Internet. Embora a IA tenha o potencial de ajudar as equipes de TI e segurança a se tornarem mais eficientes, ela também permite que os agentes de ameaças desenvolvam malware.

Nesta entrevista com a Help Net Security, Daniel Spicer, diretor de segurança da Ivanti , fala sobre o que essa tecnologia significa para a segurança cibernética.

Quais são alguns motivos de preocupação em relação à aplicação da IA ​​à segurança cibernética?

A indústria de tecnologia tem se concentrado na criação de IA generativa que responde a um comando ou consulta para produzir conteúdo de texto, vídeo ou áudio. Esse tipo de IA não pode analisar e contextualizar dados e informações para fornecer entendimento.

Atualmente, o valor da IA ​​generativa, como ChatGPT e DALL-E, é desequilibrado em favor de agentes de ameaças. A IA generativa fornece exatamente o que você pediu – o que é útil ao criar e-mails de phishing. A Segurança da Informação precisa de IA que possa coletar informações, aprimorá-las com contexto adicional e chegar a uma conclusão com base em seu entendimento.

É por isso que os casos de uso que a IA generativa aborda são extremamente atraentes para os agentes de ameaças. Uma preocupação óbvia em relação à aplicação de IA por agentes de ameaças tem a ver com a engenharia social. A IA possibilita a criação de um enorme volume de e-mails de phishing sofisticados com o mínimo de esforço. Ele também pode criar perfis falsos incrivelmente realistas. Mesmo lugares que anteriormente eram considerados razoavelmente livres de bots, como o LinkedIn, agora têm perfis convincentes que incluem até fotos de perfil. E estamos apenas começando a ver os impactos.

Também já vimos que os agentes de ameaças estão usando o ChatGPT para desenvolver malware. Embora haja resultados mistos sobre a qualidade da capacidade de gravação de código do ChatGPT, a IA generativa especializada no desenvolvimento de código pode acelerar o desenvolvimento de malware. Eventualmente, veremos isso ajudar a explorar vulnerabilidades mais rapidamente – horas após a divulgação de uma vulnerabilidade, em vez de dias.

Por outro lado, a IA tem o potencial de ajudar as equipes de TI e segurança a se tornarem mais eficientes e eficazes, permitindo a detecção e correção de vulnerabilidades automatizadas e/ou semiautomáticas, bem como a priorização baseada em riscos. Isso torna a IA que analisa dados muito promissora para equipes de TI e segurança que enfrentam restrições de recursos, mas, infelizmente, esse tipo de ferramenta ainda não existe e, quando existe, pode ser complicada de implementar devido ao treinamento necessário para entender o “normal”. ” em um determinado ambiente.

A indústria agora precisa voltar sua atenção para a construção de IA para ajudar os defensores a analisar e interpretar grandes quantidades de dados. Até que vejamos grandes melhorias na capacidade de compreensão das ferramentas de IA, os invasores continuarão a ter vantagem porque as ferramentas de hoje atendem aos seus requisitos.

O ChatGPT tem verificações implementadas para evitar o uso nefasto. Essas verificações são boas o suficiente para manter os cibercriminosos afastados?

Em uma palavra, não. Até agora, as verificações que o ChatGPT implementou são ineficazes. Por exemplo, os pesquisadores descobriram que a maneira como você faz uma pergunta ao ChatGPT altera significativamente sua resposta, incluindo sua eficácia em rejeitar solicitações maliciosas. Dependendo dos comandos que você dá a uma ferramenta de IA generativa, é possível agrupar todas as etapas de um ataque de malware. Um aspecto positivo desse cenário é que o ChatGPT atualmente não escreve um bom código – mas isso mudará.

A implantação do ChatGPT deve ser vista como uma grande experiência de demonstração. Este é o lançamento beta deles. A IA generativa vai continuar a melhorar – já baixou o nível de ataques de phishing – e no futuro teremos versões melhores da tecnologia que serão capazes de desenvolver malware.

Isso mudará a corrida armamentista entre desenvolvedores de malware e fornecedores de AV/EDR, uma vez que a IA focada em código pode manipular o código para alterar o design de forma mais substancial do que os serviços de empacotamento tradicionais.

Não podemos colocar o gênio de volta na garrafa. Atores de ameaças usando IA generativa em seu arsenal de ataque são uma eventualidade, e agora precisamos nos concentrar em como nos defenderemos contra essa nova ameaça.

O ChatGPT pode ser abusado por invasores sem conhecimento técnico?

É seguro afirmar que o ChatGPT reduzirá drasticamente o custo de entrada baseado em habilidades para os agentes de ameaças. Atualmente, a sofisticação de uma ameaça está mais ou menos ligada à sofisticação do agente da ameaça, mas o ChatGPT abriu o espaço de malware para um nível totalmente novo de agentes de ameaças novatos que um dia serão capazes de perfurar com mais facilidade muito acima de seu peso .

Isso é alarmante, porque expande não apenas o volume de ameaças em potencial e o número de agentes de ameaças em potencial, mas também torna mais provável que pessoas que têm pouca ou nenhuma ideia do que estão fazendo estejam por aí entrando na briga. Há um nível de imprudência inerente envolvido sem precedentes, mesmo no espaço do malware.

Mas isso ainda tem seus desafios. Como sabemos que a tecnologia é bem-sucedida, veremos iterações e melhorias.

O que acontecerá em uma versão futura do ChatGPT, na qual os usuários podem se conectar a ferramentas que encontram vulnerabilidades?

O mundo da segurança cibernética já está enfrentando desafios para manter o controle sobre o grande número de vulnerabilidades de código. A IA vai aumentar ainda mais esses números, porque é mais rápida e mais inteligente para encontrar vulnerabilidades. Combinado com codificadores de IA, pudemos ver a armação de vulnerabilidades recém-descobertas em minutos, não em dias.

Para ser claro, a IA ainda não é melhor ou mais rápida, mas esperamos que isso aconteça. Um dia veremos a detecção de vulnerabilidades, armamento de vulnerabilidades e carga útil sendo tudo feito por IA e sem intervenção humana.

Os pesquisadores da Check Point demonstraram como o ChatGPT poderia criar um e-mail de phishing plausível. Como você espera que as ameaças evoluam assim que os invasores começarem a usar IA?

Mais uma vez, a IA tornou mais rápido e acessível para pessoas com conhecimento técnico limitado produzir grandes quantidades de ataques de phishing realistas e perfis falsos. Como esse portão de entrada é relativamente novo, é meio que um vale-tudo neste ponto entre os atores de ameaças novatos. Mas, à medida que os agentes de ameaças se sentirem mais à vontade com a IA, veremos a sofisticação crescer à medida que os agentes de ameaças competirem entre si para obter acesso e destaque.

No futuro, teremos IA capaz de concluir toda uma cadeia de ataque – começando com a elaboração de um e-mail de phishing. Não é exagero que a IA seja capaz de usar ferramentas prontamente disponíveis para avaliar um ambiente e identificar rapidamente o melhor caminho para o ransomware em uma organização. Ele será capaz de determinar a rede, o layout e a arquitetura e, em seguida, manipular a cadeia de ferramentas para ofuscar as cargas úteis para evitar a detecção pelos defensores. Tudo sem que ninguém precise apertar outro botão.

Não é uma boa notícia para quem está do outro lado.

FONTE: HELPNET SECURITY

POSTS RELACIONADOS