Uma nova técnica de ataque usando inteligência artificial e desenvolvida por uma pesquisadores da Bélgica é capaz de ultrapassar sistemas de autenticação por voz em 99% dos casos. O método envolve softwares capazes de reconhecer marcadores de manipulação de áudio e sinais usuais de deep fakes, criando áudios que seriam “indistinguíveis” dos reais.
- Brasileiros já são alvo de golpe com clonagem de voz por IA; proteja-se
- Golpes de clonagem de voz já atingiram uma em cada quatro pessoas no mundo
Menos usados no Brasil mas relativamente comuns no sistema bancário por telefone dos Estados Unidos e Europa, os sistemas de autenticação vocal trabalham a partir de perfis criados a partir da voz dos clientes. No acesso, a gravação do momento é comparada com a identidade armazenada nos servidores, em busca de similaridades e sinais de manipulação ou sintetização que distinguem uma amostra artificial da real.
Foi justamente neste último aspecto que os especialistas da Universidade de Waterloo se concentraram. Eles desenvolveram um software capaz de localizar e remover os marcadores usuais de uma voz gerada a partir de inteligência artificial, que também seriam identificados pelos sistemas de segurança, gerando um resultado plenamente capaz de enganar a máquina do outro lado da linha.
De acordo com os pesquisadores, a taxa de 99% de sucesso foi obtida após um máximo de seis tentativas, que costuma ser o limite usual utilizado por bancos para bloquear o acesso, caso não haja correspondência com a biometria vocal armazenada. Já as vozes editadas foram geradas a partir de um sintetizador, com tecnologias de inteligência artificial também usadas para a criação de deep fakes.
O estudo publicado pela Universidade de Waterloo aponta ainda que o método desenvolvido é capaz de ultrapassar até mesmo as barreiras mais recentes, implementadas pelas instituições após pesquisas e métodos divulgados no início do ano. Do outro lado, claro, está a possibilidade de fraudes envolvendo operações financeiras não autorizadas e transferências indevidas.
A autenticação vocal é considerada insegura e, por isso, a recomendação dos especialistas é para que os clientes utilizem outros métodos de verificação e uso do sistema bancário, como aplicativos para celular, sempre que possível. Biometria facial ou via impressão digital, por exemplo, são mais indicadas do que a verificação vocal para atividades dessa categoria ou outras igualmente sensíveis.
FONTE: CANALTECH