Hackers podem invadir assistentes digitais usando um laser; Entenda!

Views: 562
0 0
Read Time:5 Minute, 53 Second

Pesquisadores em segurança cibernética estão alertando a todos quanto a um risco em potencial de que hackers usem lasers para controlar assistentes digitais. Ao apontar lasers com uma frequência específica para um aparelho equipado com esses assistentes (como os da linha Echo da Amazon, Google Home, HomePod da Apple, etc), ou outros aparelhos que utilizem microfones MEMS, é possível desbloqueá-los e com isso destrancar carros, abrir portas de garagem, acender luzes e muito mais.

Relatado pela Ars Technica, o ataque é conhecido como Light Commands e foi descoberto pelos professores Takeshi Sugarawa, da Universidade de Tóquio, e Kevin Fu, da Universidade de Michigan. Com o método, é possível hackear, à distância, diferentes sistemas e aparelhos, incluindo assistentes populares como Siri, Google Assistant e Alexa, desde que o invasor tenha linha de visão para os microfones do dispositivo.

Os ataques funcionam a partir de um laser de baixa potência apontado para sistemas ativados por voz, que permite que os atacantes injetem comandos de sua escolha a uma distância de 110 metros. Como esses sistemas geralmente não exigem que os usuários se autentiquem, o ataque pode ser realizado sem o uso de senhas ou PIN. Mesmo quando os sistemas exigem autenticação para determinadas ações, isso pode ser burlado por meio de inúmeros testes até acertar o PIN, pois muitos dispositivos não limitam o número de suposições que um usuário pode fazer.

Como começou?

Os primeiros testes para a descoberta começaram com Sugarawa: sua equipe apontava um laser de alta potência para o microfone de seu iPad, testando diferentes intensidades, enquanto a equipe de Fu usava um par de fones de ouvido e acompanhava o som que o microfone do iPad captava.

Em determinada frequência, Fu detectou um tom agudo diferente quando o microfone do iPad converteu inexplicavelmente a luz do laser em um sinal elétrico, exatamente como faria com o som. O teste de desbloqueio mais tarde foi aplicado em smartphones e speakers inteligentes como Amazon Echo, Google Home e Facebook Portal, usando lasers para “falar” silenciosamente com qualquer computador que recebesse comandos de voz. E a surpresa é que alguns desses gadgets responderam.

“É possível fazer os microfones responderem à luz como se fosse som”, diz Sugarawa, de Michigan. “Isso significa que qualquer coisa que atue nos comandos de som funcionará nos comandos de luz”.

Entende os testes

Em meses de experimentação, os pesquisadores descobriram que, quando apontavam um laser para um microfone com uma intensidade específica, a luz de alguma forma acionava os mecanismos internos do microfone, caso estivessem nessa mesma frequência. O posicionamento não precisava ser preciso: em alguns casos, eles simplesmente inundavam o dispositivo com luz.

Quando eles usaram um laser de 60 miliwatts para “falar” comandos a 16 diferentes alto-falantes inteligentes, smartphones e outros dispositivos ativados por voz, eles descobriram que quase todos os speakers inteligentes registravam os comandos a 50 metros de distância. Dessa forma, poderiam ser controlados, ativando ou desligando os aparelhos que estivessem conectados, já que não precisavam de autenticação. Já os smartphones se saíram melhores nos testes: um iPhone e dois aparelhos com Android só puderam ser acionados a uma distância de 10 metros, mas, como seu debloqueio depende de mais variantes, não puderem ser destravados totalmente.

Em um segundo experimento, os pesquisadores testaram os limites de potência e alcance de sua técnica, diminuindo para um laser de 5 miliwatts, equivalente a um laser comum. A equipe descobriu que podiam novamente controlar o Google Home e o Echo Plus. Já em outro teste, eles transmitiram com sucesso seus comandos a laser através de uma janela para o microfone do Google Home, dentro de um prédio a cerca de 90 metros de distância. Os comandos de “voz” carregados naquele feixe de laser seriam totalmente silenciosos, de acordo com os pesquisadores.

Enquanto assistentes de voz normalmente dão uma resposta audível, um hacker poderia enviar um comando inicial que diminui o volume para zero. Embora não tenham testado isso especificamente, os pesquisadores também sugerem que um invasor pode usar comandos para acionar o “modo silencioso” da Amazon, que permite ao usuário falar comandos e receber respostas em um tom abafado, por exemplo.

Justificativa

A dupla de professores ainda não chegou a uma conclusão sobre como um microfone pode interpretar um sinal de luz como som, e se recusaram a especular a respeito dessa mecânica fotoacústica.

Mas pelo menos dois mecanismos físicos diferentes podem tornar possíveis os comandos da luz, conforme argumenta Paul Horowitz, professor emérito de física e engenharia elétrica de Harvard e co-autor de The Art of Electronics. Primeiro, um pulso de luz do laser pode aquecer a parte interna do microfone, o que expandiria o ar ao redor dele e criaria um aumento na pressão, assim como o som. Em outra hipótese, Horowitz pensa que, se os componentes dos dispositivos de destino não forem totalmente opacos, a luz do laser poderá ultrapassar o microfone e atingir diretamente o chip eletrônico que interpreta suas vibrações em um sinal elétrico.

Horowitz diz que isso pode resultar no mesmo efeito das células solares, que transformam a luz em eletricidade, o que poderia facilmente fazer com que o laser seja processado como um comando de voz.

Como se proteger

Alguns dispositivos oferecem proteções de autenticação que podem frustrar um hacker acompanhado de um laser. Os iPhones e iPads exigem que o usuário prove sua identidade com o TouchID ou o FaceID antes de, por exemplo, fazer uma compra. Na maioria dos assistentes de voz de smartphones, as “palavras de alerta” que iniciam um comando de voz devem ser pronunciadas na voz do proprietário do telefone, o que dificulta muito que um ataque a laser tenha sucesso, mesmo que consiga acionar os seus sensores.

Alto-falantes inteligentes como o Amazon Echo e o Google Home, no entanto, não possuem essa autenticação por voz, e, como se trata de uma limitação de fábrica, nenhuma atualização deve ser capaz de corrigi-la. Com isso em mente, os pesquisadores sugerem algumas correções temporárias, como exigir um número de PIN falado antes que os assistentes de voz executem os comandos mais sensíveis. Eles também orientam ajustes nos próximos lançamentos, como a criação de uma proteção de luz ao redor do microfone ou a escuta de comandos de voz vinda de dois microfones, posicionados em diferentes lados do dispositivo, que podem ser difíceis de acertar simultaneamente com um laser.

Sobre os testes, um porta-voz do Google afirmou que estão “analisando atentamente este trabalho de pesquisa” pois “proteger nossos usuários é fundamental, e estamos sempre procurando maneiras de melhorar a segurança de nossos dispositivos”. Já um porta-voz da Amazon escreveu em um comunicado que “estamos revisando esta pesquisa e continuamos a nos envolver com os autores para entender mais sobre seu trabalho”. A Apple se recusou a comentar e o Facebook não respondeu imediatamente.

Até que essas correções ou alterações de design cheguem, uma solução é deixar sua assistente virtual escondida — ou pelo menos longe da janela.

FONTE: Canal Tech

POSTS RELACIONADOS