Desenvolvemos sistemas de segurança cibernética baseados em aprendizado de máquina por muitos anos e começamos a desenvolver automação para análise em nossos laboratórios em 2005. Esses primeiros projetos de automação evoluíram desde então para estruturas completas de aprendizado de máquina. Desde então, esperamos que nossos inimigos fizessem o mesmo movimento e, após 18 anos, a espera acabou – o malware com inteligência artificial chegou.
Os defensores conseguiram automatizar seu trabalho por algum tempo, permitindo excelentes tempos de detecção, análise e reação – mãos livres na velocidade da máquina. Isso contrasta com os invasores que tiveram que criar e implantar seus ataques manualmente, o que significa que, quando são bloqueados, precisam alterar as coisas manualmente – em uma velocidade humana muito mais lenta.
Campanhas automatizadas de malware mudarão drasticamente a velocidade de reação das gangues de malware
A tecnologia para executar campanhas de malware e contornar automaticamente novas defesas é definitivamente viável hoje em dia, mas até agora não vimos nada do tipo. No entanto, quando isso acontecer, será perceptível, pois sinalizaria claramente que a velocidade de reação de nossos inimigos mudou de velocidade humana para velocidade de máquina.
Deepfakes são provavelmente a primeira coisa que vem à mente quando se discute o uso criminoso ou malicioso da IA. Hoje em dia, é fácil criar imagens realistas de pessoas falsas, e as vemos frequentemente usadas em golpes românticos e outros casos de fraude. No entanto, deep fakes de pessoas reais são algo completamente diferente e, embora o abuso de imagens, vozes e vídeos deep fake seja, até agora, relativamente pequeno em escala, não há dúvida de que isso vai piorar.
Modelos de linguagem grande (LLMs) como GPT , LAMDA e LLaMA não são apenas capazes de criar conteúdo em linguagens humanas, mas também em todas as linguagens de programação. Acabamos de ver o primeiro exemplo de um pedaço de código autorreplicante que pode usar grandes modelos de linguagem para criar infinitas variações de si mesmo.
Como sabemos disso? Porque o autor do malware – SPTH – o enviou para mim.
Esse indivíduo é o que chamaríamos de um entusiasta de vírus da velha guarda, e eles parecem gostar de escrever vírus que abrem novos caminhos. O SPTH também criou uma longa lista de malware ao longo dos anos, como o primeiro malware que infecta DNA, “Mycoplasma Mycoides SPTH-syn1.0”. No entanto, deve-se enfatizar que o SPTH só parece fazer isso porque pode e não parece estar interessado em usar o malware para causar danos ou roubar dinheiro.
O código autorreplicante do SPTH é chamado LLMorpher. SPTH escreveu recentemente: “Aqui vamos além e mostramos como codificar um código autorreplicante inteiramente na linguagem natural. Em vez de instruções de código concretas, nosso vírus consiste em uma lista de frases bem definidas, escritas em inglês. Em seguida, usamos o GPT da OpenAI, um dos sistemas de inteligência artificial mais poderosos disponíveis publicamente. O GPT pode criar diferentes códigos com o mesmo comportamento, o que é uma nova forma de metamorfismo.”
Este pedaço de código é capaz de infectar programas escritos na linguagem Python. Quando executado, ele procura no computador por arquivos .py e copia suas próprias funções para eles. No entanto, as funções não são copiadas diretamente; a funcionalidade é descrita em inglês para GPT, que então cria o código real que é copiado. Isso resulta em um arquivo Python infectado, que continuará replicando o malware para novos arquivos – e as funções são reprogramadas todas as vezes pelo GPT – algo nunca feito antes.
Simplesmente escrever malware não é ilegal; usá-lo para infectar os sistemas das pessoas ou causar danos é. Portanto, embora o SPTH não pareça ter feito nada parecido, isso ainda é muito problemático porque terceiros podem fazer uso indevido da pesquisa do SPTH; O LLMopher pode ser facilmente baixado do Github.
Como podemos bloquear malware como o LLMorpher ou novas cepas baseadas nele?
LLMopher não pode funcionar sem GPT. Não possui cópia, pois o GPT não está disponível para download. Isso significa que o OpenAI (criador do GPT) pode simplesmente bloquear qualquer pessoa que use o GPT para fins maliciosos. Alguns modelos semelhantes podem ser baixados (LLaMA, por exemplo), portanto, provavelmente os veremos incorporados ao malware eventualmente.
A detecção de comportamento mal-intencionado é a melhor aposta contra malware que usa modelos de linguagem grandes, e isso é melhor feito por produtos de segurança, que também usam aprendizado de máquina!
A única coisa que pode parar uma IA ruim é uma IA boa.
FONTE: HELPNET SECURITY