Chatbot malicioso ‘FraudGPT’ agora à venda na Dark Web

Views: 281
0 0
Read Time:4 Minute, 58 Second

Atores de ameaças aproveitando a popularidade do ChatGPT lançaram mais uma ferramenta de hackers imitadores que oferece serviços de charbot semelhantes ao aplicativo generativo real baseado em IA, mas visa especificamente promover atividades maliciosas.

Pesquisadores encontraram anúncios publicados na Dark Web para uma ferramenta de hackers baseada em IA chamada “FraudGPT”, que é vendida por assinatura e circula no Telegram desde sábado, revelaram pesquisadores da Netenrich em um post publicado em 25 de julho . custa $ 200 por mês e sobe para $ 1.700 por ano, e visa ajudar os hackers a conduzir seus negócios nefastos com a ajuda da IA. O ator afirma ter mais de 3.000 vendas e análises confirmadas até agora para o FraudGPT.

Outra ferramenta hacker semelhante, orientada por IA, WormGPT, está em circulação desde 13 de julho e foi descrita em detalhes em um relatório do SlashNext. Como o ChatGPT, essas ferramentas de IA adversárias emergentes também são baseadas em modelos treinados em grandes fontes de dados e podem gerar texto semelhante ao humano com base na entrada que recebem.

As ferramentas “parecem estar entre as primeiras inclinações de que os agentes de ameaças estão construindo recursos de IA generativos em suas ferramentas”, disse John Bambenek, principal caçador de ameaças da Netenrich, à Dark Reading. “Antes disso, nossa discussão sobre o cenário de ameaças era teórica.”

FraudGPT – que nos anúncios é apresentado como um “bot sem limitações, regras [e] limites” – é vendido por um ator de ameaça que afirma ser um fornecedor verificado em vários mercados subterrâneos da Dark Web, incluindo Empire, WHM, Torrez, World , AlphaBay e Versus.

Cibercriminosos agora armados com chatbots de IA

Tanto o WormGPT quanto o FraudGPT podem ajudar os invasores a usar a IA a seu favor ao criar campanhas de phishing, gerando mensagens destinadas a pressionar as vítimas a cair no comprometimento de e-mail comercial (BEC) e outros golpes baseados em e-mail, para começar.

O FraudGPT também pode ajudar os agentes de ameaças a fazer uma série de outras coisas ruins, como: escrever código malicioso; criação de malware indetectável; encontrar bins não-VBV; criação de páginas de phishing; construir ferramentas de hacking; encontrar grupos de hackers, sites e mercados; escrever páginas e cartas fraudulentas; encontrar vazamentos e vulnerabilidades; e aprender a codificar ou hackear. 

Mesmo assim, parece que ajudar os invasores a criar campanhas de phishing convincentes ainda é um dos principais casos de uso de uma ferramenta como FraudGPT, de acordo com Netenrich. A proficiência da ferramenta nisso foi até divulgada em material promocional que apareceu na Dark Web que demonstra como o FraudGPT pode produzir um rascunho de e-mail que “induzirá os destinatários a clicar no link malicioso fornecido”, disse Krishnan.

Privilégios éticos do ChatGPT com jailbreak

Embora o ChatGPT também possa ser explorado como uma ferramenta de hackers para escrever e-mails de engenharia social, existem salvaguardas éticas que limitam esse uso. No entanto, a crescente prevalência de ferramentas orientadas por IA, como WormGPT e FraudGPT, demonstra que “não é uma tarefa difícil reimplementar a mesma tecnologia sem essas salvaguardas”, escreveu Krishnan.

Na verdade, o FraudGPT e o WormGPT são mais uma evidência do que um especialista em segurança chama de “jailbreaking de IA generativa para manequins”, no qual os malfeitores estão fazendo mau uso de aplicativos de IA generativa para contornar as barreiras éticas da IA ​​generativa que a OpenAI vem combatendo ativamente – uma batalha que é foi principalmente para cima.

“Tem sido uma luta contínua”, diz Pyry Avant, cofundador e CTO da Hoxhunt. “Regras são criadas, regras são quebradas, novas regras são criadas, essas regras são quebradas e assim por diante.”

Embora não se possa “simplesmente dizer ao ChatGPT para criar um e-mail de phishing convincente e um modelo de coleta de credenciais enviado por seu CEO”, alguém “pode ​​fingir ser o CEO e redigir facilmente um e-mail urgente para a equipe financeira exigindo que eles alterem o pagamento de uma fatura ,” ele diz.

Defendendo-se contra ameaças cibernéticas habilitadas por IA

De fato, em geral, as ferramentas de IA generativas fornecem aos criminosos as mesmas funções básicas que fornecem aos profissionais de tecnologia: “a capacidade de operar em maior velocidade e escala”, diz Bambenek. “Os invasores agora podem gerar campanhas de phishing rapidamente e lançar mais simultaneamente”.

Como o phishing continua sendo uma das principais maneiras pelas quais os invasores cibernéticos obtêm entrada inicial em um sistema corporativo para conduzir outras atividades maliciosas, é essencial implementar proteções de segurança convencionais contra ele. Essas defesas ainda podem detectar phishing ativado por IA e, mais importante, ações subsequentes do agente da ameaça.

“Fundamentalmente, isso não muda a dinâmica do que é uma campanha de phishing, nem o contexto em que ela opera”, diz Bambenek. “Desde que você não esteja lidando com phishing de uma conta comprometida, os sistemas de reputação ainda podem detectar phishing de remetentes não autênticos, ou seja, domínios com erros de digitação, faturas de contas de e-mail gratuitas na Web, etc.”

A implementação de uma estratégia de defesa em profundidade com toda a telemetria de segurança disponível para análises rápidas também pode ajudar as organizações a identificar um ataque de phishing antes que os invasores comprometam uma vítima e passem para a próxima fase do ataque, diz ele.

“Os defensores não precisam detectar cada coisa que um invasor faz em uma cadeia de ameaças, eles apenas precisam detectar algo antes dos estágios finais de um ataque – ou seja, ransomware ou exfiltração de dados – portanto, ter um forte programa de análise de dados de segurança é essencial”, diz Bambenek.

Outros profissionais de segurança também promovem o uso de ferramentas de segurança baseadas em IA , cujo número está crescendo, para combater a IA adversária , efetivamente combatendo fogo com fogo para combater a crescente sofisticação do cenário de ameaças.

FONTE: DARKREADING

POSTS RELACIONADOS