Tecnologia de voz deepfake usado em velhas estratégias de phishing

Views: 77
0 0
Read Time:5 Minute, 54 Second

À medida que o mundo da IA e da tecnologia deepfake se torna mais complexo, o risco que os deepfakes representam para empresas e indivíduos se torna cada vez mais potente. Essa crescente sofisticação dos mais recentes softwares e algoritmos permitiu que hackers, golpistas e criminosos cibernéticos mal-intencionados que trabalham incansavelmente nos bastidores ficassem um passo à frente das autoridades, tornando a ameaça de ataques cada vez mais difícil de se preparar e se defender.

A maioria dos leitores provavelmente acredita que eles estão mais ou menos familiarizados com a natureza dos ataques cibernéticos tradicionais que envolvem hacking de sistema, vírus e ransomware. No entanto, o domínio do crime cibernético deu um grande salto em 2019, quando o CEO de uma empresa de energia sediada no Reino Unido foi vítima de um golpe construído em um telefonema usando tecnologia de áudio deepfake.

Acreditando que estava falando com seu chefe, a vítima do CEO enviou quase US$ 250 mil como resultado de ser instruída a fazê-lo por um arquivo de áudio deepfake gerado por IA. Na sequência, alguns especialistas em segurança cibernética ficaram se perguntando se a tecnologia de áudio deepfake representa a próxima grande preocupação com a segurança, e o mundo inteiro é deixado lutando por maneiras de detectar essa ameaça iminente.

Clonagem de voz e áudio de IA: uma nova fronteira para o cibercrime

O golpe de deepfake de áudio é, sem dúvida, uma das aplicações mais bizarras da tecnologia deepfake. No entanto, como vimos, é um que pode ser claramente aplicado com sucesso – tão bem sucedido e convincentemente, de fato, que o CEO que foi vítima do ataque cibernético afirmou no registro que reconheceu a voz de seu chefe por seu “leve sotaque alemão” e “lilt melódico”. Além disso, ao que tudo indica, a tecnologia dos cibercriminosos está se tornando mais difícil de detectar a cada mês.

Tecnologia sofisticada à parte, o processo por trás da construção de deepfakes de áudio é surpreendentemente simples. Os hackers ajustaram a tecnologia de aprendizado de máquina de forma a clonar a voz de um indivíduo, geralmente utilizando spyware e dispositivos que permitem ao invasor cibernético coletar várias horas de gravações de sua vítima falando. Quanto mais dados forem capazes de coletar – e melhor a qualidade das gravações – mais preciso e potencialmente prejudicial será o clone de voz na prática.

Uma vez criado um modelo de voz, a IA do hacker mal-intencionado começa a trabalhar ‘aprendendo’ como imitar o alvo. A IA usará o que são conhecidos como redes contraditórias generativas (GAN), sistemas que competem continuamente entre si através dos quais um cria uma falsa e a outra tenta identificar suas falhas. A cada nova tentativa, a IA é capaz de melhorar exponencialmente sobre si mesma. Esse processo continua até que uma imitação confiável seja alcançada e muitas vezes tenha sucesso depois de analisar apenas vinte minutos de gravações.

Preocupante para muitos executivos (mais notavelmente aqueles em grandes empresas), tais gravações são lamentavelmente fáceis de reunir. Os discursos são gravados online e compartilhados através das mídias sociais, enquanto telefonemas, entrevistas e conversas cotidianas são relativamente simples de obter acesso. Com dados suficientes no banco, o nível de precisão alcançado pelos arquivos de deepfake de áudio é tão impressionante quanto uma perspectiva verdadeiramente assustadora, e os criminosos são capazes de obter o deepfake para dizer o que eles querem.

Atualmente, muitos dos exemplos gravados de golpes de áudio deepfake foram aqueles que, em última análise, não tiveram sucesso em seus objetivos. No entanto, quando se considera que a tentativa de golpe de Estado de 2019 no Gabão acredita-se ter sido desencadeada por uma chamada de áudio deepfake, torna-se devastadormente claro o quão impactante essa tecnologia pode ser.

Phishing de nível próximo atende segurança de próxima geração

Golpes regulares de phishing baseados em deepfake permanecem notavelmente populares e bem sucedidos,com cerca de 85% das organizações se encontrando como alvo. No entanto, uma das principais razões pelas quais os phishers de voz representam uma ameaça tão potente para o mundo de segurança corporativa é porque os hackers de áudio deepfake são capazes de contornar as mais lendárias proteções de segurança cibernética: a VPN corporativa.

Sua rede de computadores pode ser protegida contra a maioria dos malwares e vírus sofisticados, e o software VPN é consistentemente atualizado para olhar para novas preocupações e tipos de vírus. As chamadas telefônicas geradas por IA, no entanto, dependem apenas de erros humanos, gulibilidade e confiança… e é isso que os torna potencialmente tão perigosos.

Quando se considera que mesmo os telefones inteligentes que mantemos em nossas mãos não são tão seguros quanto acreditamos, não é difícil ver uma infinidade de maneiras pelas quais os criminosos cibernéticos podem penetrar em nossas defesas. É lógico, portanto, que a resposta para defender nossa privacidade e vulnerabilidades do áudio deepfake pode vir na forma de soluções de IA especificamente formuladas para eliminá-lo.

Os cientistas estão trabalhando em algoritmos complexos e de longo alcance que têm a capacidade de aprender padrões e peculiaridades da fala humana e que podem ser usados para detectar faixas de áudio deepfake.

Ao procurar “deformidades” na fala e comparar automaticamente as gravações com arquivos de fala autênticos, eles serão incluídos em dispositivos de segurança de clonagem anti-voz que provavelmente se tornarão generalizados nos próximos anos. Essencialmente, os sistemas de segurança de um futuro muito próximo serão imitações avançadas das mesmas ferramentas de IA que hackers mal-intencionados estão usando em suas tentativas de fraudar suas vítimas.

Os especialistas também estão interessados em destacar passos práticos que todos nós podemos empreender para nos proteger de golpes de áudio deepfake. Uma das maneiras mais fáceis – e mais eficazes – de identificar um golpe de deepfake é simplesmente desligar seu telefone e ligar de volta para o número. A maioria dos golpes de deepfake são realizados com o uso de uma conta VOIP de queimador, criada para contatar alvos em nome dos hackers. Ao ligar de volta, as vítimas devem ser capazes de descobrir imediatamente se estavam ou não falando com uma pessoa real.

Golpes de áudio deepfake: uma ameaça muito real no horizonte

Atualmente, os golpes de áudio deepfake são aparentemente poucos e distantes entre si, com a tecnologia simplesmente não difundida o suficiente para que eles sejam uma preocupação de longo alcance para a maioria dos profissionais e indivíduos privados. Isso é, é claro, provável que mude em um futuro próximo. Os avanços da IA evoluem a uma taxa de dar água nos olhos, e a tecnologia que torna possível o deepfaking está se tornando mais acessível e mais fácil de usar.

Embora os sistemas de segurança privada e os esforços internacionais para combater os crimes cibernéticos estejam rapidamente alcançando hackers mal-intencionados, eles são um grupo criativo que nunca vai parar de procurar maneiras de avançar. Com isso em mente, o melhor conselho é permanecer vigilante e preparado, já que golpes de áudio deepfake podem se tornar o próximo grande problema para a segurança cibernética lidar.

FONTE: TRIPWIRE

Previous post OAB-DF lança “Guia sobre a LGPD na Advocacia” para facilitar o exercício profissional de advogados
Next post Tecnologias que permitem aos líderes legais e de compliance detectar inovações

Deixe uma resposta