FBI: IA facilita a geração de ataques por hackers

Views: 128
0 0
Read Time:3 Minute, 43 Second

Em uma ligação com jornalistas nesta sexta-feira , o FBI emitiu um lembrete severo – e alerta – sobre a proliferação de ataques cibernéticos auxiliados por programas de IA. De acordo com o órgão governamental, o número de pessoas que se tornaram desviantes usando a tecnologia de IA como parte de ataques de phishing ou desenvolvimento de malware vem aumentando a um ritmo alarmante – e o impacto de suas operações só aumenta.

Cobrimos relatórios de como até modelos de IA bloqueados, como o ChatGPT, foram usados ​​para desenvolver malware hábil em escapar até dos sistemas de segurança mais recentes. O malware polimórfico, como é conhecido, é um software que costumava exigir um codificador de chapéu preto altamente qualificado (ou grupo de codificadores) para ser alcançado; agora, foi democratizado para uma janela de contexto.

“Esperamos que com o tempo, à medida que a adoção e a democratização dos modelos de IA continuem, essas tendências aumentem”, disse um alto funcionário do FBI.

Mas além dos jardins murados do ChatGPT da Open AI e do Claude 2 da Anthropic, o mundo da IA ​​de código aberto é o foco das agências de aplicação da lei. Esse é o mundo onde você pode obter um modelo básico de sua escolha (o exemplo mais recente é o Llama 2 de código aberto da Meta) e treiná-lo em qualquer documentação que desejar – para ajustá-lo às suas necessidades específicas. 

Essas necessidades podem variar de um clone do ChatGPT autodestruidor e bem-humorado determinado a dominar o mundo ( como é o caso do BratGPT ); fazendo um desvio pela DarkWeb e sua subcultura linguística ( como os pesquisadores fizeram com DarkBert ); e, finalmente, chegando às margens de ofertas baseadas em assinatura, como WormGPT . 

Esse último parece um problema particularmente espinhoso: os possíveis hackers agora podem acessar os serviços de um clone do ChatGPT baseado em assinatura e focado em chapéu preto. Não há ambiente mais conveniente para alguém lançar um ataque remoto de phishing. 

Com essas ferramentas, o invasor pode automatizar facilmente a criação de toda a página da Web, a cadeia de resposta de e-mail de ida e volta e praticamente todo o trabalho envolvido no processo. Ou, novamente, malware polimórfico de código que é especialista em escapar dos recursos atuais de segurança cibernética – e a defesa já está em desvantagem. Não há necessidade de adicionar AI no topo. Talvez sabiamente, o FBI não identificou quais modelos específicos de IA de código aberto estão sendo explorados durante a ligação, mas o mero reconhecimento de que existe um problema é revelador o suficiente.

O FBI também enfatizou as preocupações de segurança em torno da proliferação de tecnologia de IA generativa que pode ser processada no campo de deepfakes – conteúdo gerado por IA que nunca aconteceu na realidade. É difícil subestimar o quão perigosa uma coletiva de imprensa digitalmente não verificável e falsificada pode se tornar no mundo em que vivemos. Esse problema leva diretamente ao enigma de separar dados sintéticos (gerados ou manipulados por uma rede de IA) de dados emergentes (os dados que naturalmente emergem do registro da atividade humana). 

Vários gigantes da IA, incluindo OpenAI, Microsoft, Google e Meta, prometeram recentemente na Casa Branca introduzir essa tecnologia de marca d’água, que também é benéfica para eles na corrida inevitável para reduzir os custos de treinamento (da qual o principal candidato é o que é conhecido como treinamento recursivo). Mas apenas nesta semana, a OpenAI fechou sua ferramenta AI Classifier , cujo objetivo era apenas identificar esses dados sintéticos. Mas, devido à sua taxa de sucesso de apenas 26%, poderia ter sido melhor que a OpenAI o fechasse.

A proliferação de tecnologia de IA generativa de código aberto e sob medida privada é uma certeza, como sugerem os exemplos vinculados nesta página. O momento de contê-los se foi desde o momento em que se tornaram de código aberto; e, com o tempo, melhores técnicas e hardware permitirão que qualquer pessoa com um modelo de IA privado o melhore.

Como qualquer coisa, o uso de IA varia, desde as coisas com as quais o FBI se preocupa até a construção de novos negócios devido à facilidade de automação e a criação de aventuras inteiras em jogos como Cyberpunk 2077. Teremos que ver como isso acontece.

FONTE: TOMSHARDWARE

POSTS RELACIONADOS