Se há uma coisa que as pessoas vão se lembrar sobre os avanços da IA em 2022, será o advento de modelos generativos sofisticados: DALL.E 2 , Stable Diffusion , Midjourney , ChatGPT . Todos eles foram manchetes – e vão mudar a forma como trabalhamos e vivemos.
Modelos generativos serão integrados ao software que usamos todos os dias. Em breve, poderemos pedir ao nosso cliente de e-mail para escrever uma resposta, pedir ao nosso software de apresentação para gerar uma imagem ou pedir ao nosso processador de texto para escrever uma introdução ao nosso último relatório.
Os modelos de aprendizado de máquina gerarão cada vez mais conteúdo com o qual interagimos
Isso também vale para o conteúdo criado por adversários. Este momento apresenta mais do que um interessante experimento mental sobre como a consciência, a sociedade e o comércio podem mudar. Nossa capacidade ou incapacidade de identificar conteúdo gerado por máquina provavelmente terá sérias consequências quando se trata de nossa vulnerabilidade ao crime.
Do ponto de vista de modelos de linguagem como o ChatGPT, a capacidade de automatizar a geração de conteúdo escrito inevitavelmente interessará aos criminosos, especialmente os cibercriminosos. Da mesma forma, qualquer pessoa que use a web para espalhar golpes, notícias falsas ou desinformação pode ter interesse em uma ferramenta que crie textos confiáveis, possivelmente até convincentes, em velocidades incríveis.
Os grandes modelos de linguagem de hoje são perfeitamente capazes de criar tópicos de e-mail adequados para ataques de spear phishing, “deepfaking” o estilo de escrita de uma pessoa, aplicar opinião a conteúdo escrito ou até mesmo criar artigos falsos muito convincentes ( mesmo que informações relevantes tenham sido não está incluído nos dados de treinamento do modelo.)
Modelos projetados para gerar imagens já estão tendo uso malicioso generalizado
Por exemplo, StyleGAN2, o modelo por trás de thispersondoesnotexist.comforneceu aos adversários centenas de milhares de avatares de mídia social. Os modelos de idioma completarão esses perfis falsos escrevendo biografias e postagens. Além disso, os modelos de arte de IA fornecerão a eles banners e mídia convincente.
Deepfakes já existem há alguns anos. Embora os exemplos mais impressionantes (e críveis) tenham, felizmente, até agora sido criados por especialistas como trabalhos de prova de conceito, a tecnologia está melhorando. Além disso, o preço de um computador capaz de gerar deepfakes também caiu, então é apenas uma questão de tempo até que um deepfake seja criado, passe despercebido e seja usado para convencer as pessoas de algo que não aconteceu.
Quando se trata de prever como os adversários usarão modelos generativos, eles provavelmente equilibrarão custo versus receita e os usarão apenas quando apropriado. No entanto, é óbvio que o custo do uso dessas técnicas diminuirá com o tempo e as técnicas se tornarão mais sofisticadas. E embora algumas das técnicas generativas mais recentes ainda não tenham sido documentadas em cenários maliciosos, é apenas uma questão de tempo até que sejam.
O que podemos fazer para nos proteger dos perigos de textos, imagens, vozes e vídeos gerados sinteticamente?
Como as técnicas generativas serão usadas para criar conteúdo benigno e malicioso, simplesmente detectar que uma IA criou algo não será suficiente para considerá-lo malicioso. Para detectar conteúdo malicioso programaticamente, precisaremos de mecanismos que possam entender e extrair significado de textos, imagens e vídeos. Isso significa ter os meios para detectar abuso, assédio, desinformação e notícias falsas online, bem como capturar a disseminação e amplificação de tais coisas.
A conscientização sobre phishing e a alfabetização da mídia se tornarão ainda mais importantes em um mundo onde uma quantidade esmagadora de conteúdo benigno e malicioso é gerado pela inteligência artificial. Spam não conterá mais erros ortográficos e gramaticais; um e-mail perfeitamente escrito pedindo que você clique em um link pode em breve ser o padrão de fato para considerar algo suspeito. Contas falsas de mídia social não terão mais rostos genéricos como avatares. Sites de notícias falsas e sites de empresas parecerão muito mais realistas. A IA até escreverá depoimentos de clientes sobre eles.
Estamos bem no início da curva S em relação aos recursos generativos de IA. Até o final desta década, tecnologias muito superiores às que vemos agora serão integradas a nossos telefones, assistentes domésticos, laptops, mecanismos de pesquisa e muito mais. Eles serão integrados em nossas próprias vidas. E eles vão beneficiar os adversários tanto quanto nos beneficiam – se não mais.
FONTE: HELPNET SECURITY