Os invasores já estão explorando o ChatGPT para escrever código malicioso

Views: 171
0 0
Read Time:5 Minute, 19 Second

Desde que a OpenAI lançou o ChatGPT no final de novembro, muitos especialistas em segurança previram que seria apenas uma questão de tempo até que os cibercriminosos começassem a usar o chatbot de IA para escrever malware e permitir outras atividades nefastas. Apenas algumas semanas depois, parece que esse tempo já chegou.

Na verdade, os pesquisadores da Check Point Research (CPR) relataram detectar pelo menos três instâncias em que hackers de chapéu preto demonstraram, em fóruns clandestinos, como eles aproveitaram a inteligência artificial do ChatGPT para fins maliciosos.

Como pano de fundo, o ChatGPT é um protótipo de chatbot com inteligência artificial projetado para ajudar em uma ampla variedade de casos de uso, incluindo desenvolvimento de código e depuração. Um de seus principais atrativos é a capacidade de os usuários interagirem com o chatbot de maneira conversacional e obter assistência em tudo, desde escrever software até entender tópicos complexos, redigir ensaios e e-mails, melhorar o atendimento ao cliente e testar diferentes cenários de negócios ou mercado.

Mas também pode ser usado para fins mais sombrios.

Da criação de malware à criação de um mercado na Dark Web

Em um exemplo, um autor de malware divulgou em um fórum usado por outros cibercriminosos como ele estava experimentando o ChatGPT para ver se poderia recriar variedades e técnicas de malware conhecidas.

Como exemplo de seu esforço, o indivíduo compartilhou o código de um ladrão de informações baseado em Python que ele desenvolveu usando o ChatGPT, que pode pesquisar, copiar e exfiltrar 12 tipos de arquivos comuns, como documentos do Office, PDFs e imagens de um sistema infectado. . O mesmo autor de malware também mostrou como ele usou o ChatGPT para escrever código Java para baixar o cliente PuTTY SSH e telnet e executá-lo secretamente em um sistema via PowerShell.

Em 21 de dezembro, um ator de ameaça usando o identificador USDoD postou um script Python que ele gerou com o chatbot para criptografar e descriptografar dados usando os algoritmos criptográficos Blowfish e Twofish. Os pesquisadores do CPR descobriram que, embora o código pudesse ser usado para fins totalmente benignos, um agente de ameaça poderia facilmente ajustá-lo para que fosse executado em um sistema sem qualquer interação do usuário – tornando-o um ransomware no processo. Ao contrário do autor do ladrão de informações, o USDoD parecia ter habilidades técnicas muito limitadas e, de fato, afirmou que o script Python que ele gerou com o ChatGPT foi o primeiro script que ele criou, disse CPR.

Na terceira instância, os pesquisadores do CPR encontraram um cibercriminoso discutindo como ele havia usado o ChatGPT para criar um mercado Dark Web totalmente automatizado para negociar contas bancárias roubadas e dados de cartões de pagamento, ferramentas de malware, drogas, munições e uma variedade de outros bens ilícitos.

“Para ilustrar como usar o ChatGPT para esses fins, o cibercriminoso publicou um código que usa API de terceiros para obter preços atualizados de criptomoedas (Monero, Bitcoin e [Ethereum]) como parte do mercado da Dark Web. sistema de pagamento”, observou o fornecedor de segurança .

Nenhuma Experiência Necessária

As preocupações com os agentes de ameaças que abusam do ChatGPT são comuns desde que a OpenAI lançou a ferramenta de IA em novembro, com muitos pesquisadores de segurança percebendo que o chatbot reduz significativamente a barreira para a criação de malware.

Sergey Shykevich, gerente do grupo de inteligência de ameaças da Check Point, reitera que, com o ChatGPT, um agente mal-intencionado não precisa ter experiência em codificação para escrever malware: “Você deve apenas saber qual funcionalidade o malware — ou qualquer programa — deve ter. O ChatGTP escreverá o código para você que executará a funcionalidade necessária.”

Assim, “a preocupação de curto prazo é definitivamente sobre o ChatGPT permitir que cibercriminosos pouco qualificados desenvolvam malware”, diz Shykevich. “A longo prazo, presumo que também cibercriminosos mais sofisticados adotarão o ChatGPT para melhorar a eficiência de suas atividades ou para solucionar diferentes lacunas que possam ter”.

Do ponto de vista de um invasor, os sistemas de IA geradores de código permitem que agentes mal-intencionados preencham facilmente qualquer lacuna de habilidades que possam ter, servindo como uma espécie de tradutor entre idiomas, acrescentou Brad Hong, gerente de sucesso do cliente da Horizon3ai. Essas ferramentas fornecem um meio sob demanda de criar modelos de código relevantes para os objetivos de um invasor e reduz a necessidade de pesquisa em sites de desenvolvedores como Stack Overflow e Git, disse Hong em uma declaração por e-mail para Dark Reading.

Mesmo antes da descoberta de agentes de ameaças abusando do ChatGPT, a Check Point — como alguns outros fornecedores de segurança — mostrou como os adversários poderiam aproveitar o chatbot em atividades maliciosas. Em um blog de 19 de dezembro, o fornecedor de segurança descreveu como seus pesquisadores criaram um e-mail de phishing que soava muito plausível, apenas pedindo ao ChatGPT para escrever um que parece vir de um serviço fictício de hospedagem na web. Os pesquisadores também demonstraram como conseguiram que o ChatGPT escrevesse o código VBS que eles poderiam colar em uma pasta de trabalho do Excel para baixar um executável de uma URL remota.

O objetivo do exercício era demonstrar como os invasores poderiam abusar de modelos de inteligência artificial, como o ChatGPT, para criar uma cadeia de infecção completa desde o e-mail inicial de spear phishing até a execução de um shell reverso nos sistemas afetados.

Tornando mais difícil para os cibercriminosos

A OpenAI e outros desenvolvedores de ferramentas semelhantes colocaram filtros e controles – e os estão aprimorando constantemente – para tentar limitar o uso indevido de suas tecnologias. E, pelo menos por enquanto, as ferramentas de IA permanecem com falhas e propensas ao que muitos pesquisadores descreveram como erros absolutos de vez em quando, o que pode frustrar alguns esforços maliciosos. Mesmo assim, muitos previram que o potencial de uso indevido dessas tecnologias permanece grande a longo prazo.

Para dificultar o uso indevido das tecnologias pelos criminosos, os desenvolvedores precisarão treinar e melhorar seus mecanismos de IA para identificar solicitações que podem ser usadas de maneira maliciosa, diz Shykevich. A outra opção é implementar requisitos de autenticação e autorização para usar o mecanismo OpenAI, diz ele. Mesmo algo semelhante ao que as instituições financeiras e sistemas de pagamento online usam atualmente seria suficiente, observa ele.

FONTE: DARK READING

POSTS RELACIONADOS