Veículos autônomos podem ser enganados em comportamento de condução errática

Views: 557
0 0
Read Time:2 Minute, 30 Second

Quando um carro sem motorista está em movimento, uma decisão defeituosa de seu sistema de prevenção de colisão pode levar a desastres, mas pesquisadores da Universidade da Califórnia, Irvine identificaram outro risco possível: veículos autônomos podem ser enganados em uma parada abrupta ou outro comportamento de condução indesejado pela colocação de um objeto comum na beira da estrada.

“Uma caixa, bicicleta ou cone de trânsito pode ser tudo o que é necessário para assustar um veículo sem motorista para chegar a uma parada perigosa no meio da rua ou em uma autoestrada fora da rampa, criando um perigo para outros motoristas e pedestres”, disse Qi Alfred Chen, professor de ciência da computação da UCI e coautor de um artigo sobre o assunto apresentado recentemente no Simpósio de Segurança de Sistemas De Rede e Sistemas Distribuídos em San Diego.

Chen acrescentou que os veículos não podem distinguir entre objetos presentes na estrada por puro acidente ou aqueles deixados intencionalmente como parte de um ataque de negação de serviço físico. “Ambos podem causar um comportamento de condução errático”, disse Chen.

Chen e sua equipe concentraram sua investigação em vulnerabilidades de segurança específicas do módulo de planejamento, uma parte do código de software que controla sistemas de condução autônomos. Este componente supervisiona os processos de tomada de decisão do veículo que regem quando cruzar, mudar de faixa ou diminuir e parar, entre outras funções.

“O módulo de planejamento do veículo foi projetado com muita cautela, logicamente, porque você não quer veículos sem motorista circulando por aí, fora de controle”, disse o autor principal Ziwen Wan, estudante de doutorado da UCI em ciência da computação. “Mas nossos testes descobriram que o software pode errar ao lado de ser excessivamente conservador, e isso pode levar um carro a se tornar uma obstrução de tráfego, ou pior.”

Para este projeto, os pesquisadores da Escola de Informação e Ciências da Computação da UCI criaram uma ferramenta de teste, apelidada de PlanFuzz, que pode detectar automaticamente vulnerabilidades em sistemas de condução automatizados amplamente utilizados. Como mostrado em demonstrações de vídeo, a equipe usou o PlanFuzz para avaliar três diferentes implementações de planejamento comportamental dos sistemas de condução autônomo de código aberto e de nível industrial Apollo e Autoware.

Os pesquisadores descobriram que caixas de papelão e bicicletas colocadas no acostamento da estrada fizeram com que os veículos parassem permanentemente em vias e cruzamentos vazios. Em outro teste, carros autônomos, percebendo uma ameaça inexistente, negligenciaram a mudança de faixa como planejado.

“Veículos autônomos estiveram envolvidos em colisões fatais, causando grandes danos financeiros e de reputação para empresas como Uber e Tesla, para que possamos entender por que fabricantes e prestadores de serviços querem se inclinar para a cautela“, disse Chen.

“Mas os comportamentos excessivamente conservadores exibidos em muitos sistemas de condução autônoma podem impactar o bom fluxo de tráfego e a movimentação de passageiros e mercadorias, o que também pode ter um impacto negativo nas empresas e na segurança viária.”

FONTE: HELPNET SECURITY

POSTS RELACIONADOS