Criando e armando vídeos falsos

Views: 43
0 0
Read Time:3 Minute, 27 Second

Como identificar e detectar falsificações profundas

A professora Hany Farid, da UC Berkeley, falou na conferência virtual CyberSec&AI Connected da Avast na semana passada. O evento mostrou os principais acadêmicos e profissionais de tecnologia de todo o mundo para examinar questões críticas em torno da IA para privacidade e segurança cibernética.

Farid passou muito tempo pesquisando o uso e evolução de vídeos falsos profundos. Foi uma sessão intrigante e demonstrou o quanto os criadores falsos irão para torná-los mais realistas e o que os pesquisadores de segurança precisarão fazer para detectá-los.

Sua sessão começou nos levando através de sua evolução: o que começou como um software de edição de fotos inocente e simples evoluiu para toda uma indústria que foi projetada para “poluir o ecossistema online de informações de vídeo”. Nos últimos anos, houve avanços em alterações de imagem mais sofisticadas e usando ferramentas de IA para criar essas falsificações profundas. Farid ilustrou seu ponto de vista mesclando vídeos das estrelas de Hollywood Jennifer Lawrence e Steve Buscemi. O clipe resultante manteve as roupas, corpo e cabelo de Lawrence, mas substituiu seu rosto pelo de Buscemi. Admito que isso não foi projetado para enganar ninguém, mas foi uma demonstração bastante assustadora de como a tecnologia funciona, no entanto.

Farid categoriza falsificações profundas em quatro tipos gerais:

  • Pornografia não consensual,que é o exemplo mais encontrado. A semelhança de uma mulher é colada em um vídeo pornô e distribuída online.
  • Campanhas de desinformação, projetadas para enganar e “jogar gás em um fogo já aceso”, disse ele.
  • Adulteração de provas legais,como demonstrar má conduta policial que nunca aconteceu. Sua prática não acadêmica tem consultas frequentes nesta área, onde ele é contratado para apagar essas manipulações, e
  • Fraude total,que também pode ter implicações criminais ou de segurança nacional. Ele cita um áudio profundo falso do último outono de uma transferência bancária que foi solicitada a uma empresa de energia do Reino Unido. O áudio era para ser do presidente da empresa.

Como vencer as falsificações?

Então, como você detecta essas falsificações? Uma maneira é analisar com muito cuidado os maneirismos e expressões faciais e ver como eles são únicos para cada indivíduo. Ele chama isso de “biometria suave”, o que significa que não é uma ciência exata da mesma forma que DNA ou impressões digitais podem identificar alguém. A previsibilidade aumenta para celebridades frequentemente filmadas, onde há uma enorme quantidade de imagens de vídeo existentes que podem ser usadas para comparar esses “tiques” visuais. Como exemplo, tente dizer as palavras mãe, irmão e pai sem fechar a boca. “Você não pode fazê-lo, a menos que você seja um ventríloquo”, disse ele. Quando Alec Baldwin faz suas impressões de Trump, ele não entende exatamente esses maneirismos, o que pode ser um “dizer” para indicar que poderia ser uma farsa. Ele mapeou os vários vídeos de candidatos políticos em um projeto anterior, e você pode ver que há um conjunto de vídeos falsos de Obama deste gráfico:

Há vários desafios pela frente. Primeiro, a tecnologia está evoluindo rapidamente e melhorando na criação de falsificações profundas mais convincentes. A velocidade de transmissão através das redes sociais também está aumentando. O que costumava levar dias ou semanas agora é notado em poucas horas ou até minutos. O público está agora polarizado, o que significa que as pessoas estão dispostas a acreditar no pior naqueles que têm pontos de vista opostos ou aqueles que eles particularmente não gostam. Há também o aumento do que ele chama de dividendo do mentiroso, o que significa que apenas dizer que algo é falso geralmente é suficiente para neutralizar algo, mesmo quando não é. “Isso significa que nada precisa ser real mais”, disse Farid.

As plataformas de mídia social precisam ser proativas

“Não há uma única resposta mágica para resolver o apocalipse da desinformação”, argumenta Farid. Em vez disso, as plataformas sociais devem ser mais responsáveis, e isso significa uma combinação de melhor rotulagem, um melhor foco em regulamentos de alcance (em vez de apenas excluir conteúdo ofensivo ou falso) e a apresentação de visões alternativas.

FONTE: AVAST

Previous post CrimeOps: A Arte Operacional do Crime Cibernético
Next post Como a Microsoft passou de “Linux é um câncer” para “Microsoft Loves Linux”

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *