Onde a IA cai na segurança cibernética

Views: 331
0 0
Read Time:4 Minute, 28 Second

Nota do editor: Esta peça é a segunda parte de uma série de ponto/contraponto de duas partes que olha para o papel que a IA desempenha na segurança cibernética. A parte 1 analisa os usos práticos da IA na cibersegurança. Este artigo examina os desafios de distinguir entre a tecnologia de IA e o marketing de IA.

A inteligência artificial (IA) entrou em cena como um super-herói experimentando sua primeira capa, acompanhada por um tumulto de RP alto e sustentado. Mas os oohs e ahs da multidão de cibersegurança logo começaram a desaparecer em ums e uhs como o placar marcou mais falhas do que vitórias para AI.

Não espere nenhuma simpatia dos assentos dos espectadores. Observadores da indústria estão puxando seus aplausos para a estrela da tecnologia sitiada. Por exemplo, o Gartner descreve o estado da IA cibernética como imaturo e aconselha os analistas de segurança a “tratar as ofertas de IA como controles experimentais e complementares”.

Meu Deus, que longo caminho viemos de temer a IA como soberano da humanidade ou um adversário formidável nas próximas guerras de IA. Para ouvir algumas pessoas dizerem isso, a IA não é adequada para ser a mente por trás de um Roomba.

Mas há outras perspectivas a considerar, também. A IA tem seu lugar em cibersegurança, e há muitos exemplos de tecnologia de IA aplicada com sucesso, como mostra a Parte 1.

“Alguns argumentam que essas falhas espetaculares são a prova de que os motores de IA estão funcionando como esperado”, diz Aviram Jenik, co-fundador e CEO da Beyond Security (adquirida pela HelpSystems). “A premissa da IA é criar um nível de lógica mais desenvolvido, e o fato de que não podemos entender imediatamente por que um motor de IA falha significa que ele já é ‘mais inteligente’ do que o humano médio.”

Talvez sim, mas ai: “AI falhou porque é mais inteligente do que nós” é uma desculpa difícil para sufocar.

Quando o termo é mal utilizado

Até certo ponto, a IA cibernética sofre com as pressões exercidas pela busca pelo crescimento interminável das vendas.

“A parte difícil é descobrir quais fornecedores estão realmente fazendo isso [IA] versus aqueles que simplesmente afirmam ser, no espírito do zumbido do marketing”, diz Keatron Evans, principal pesquisador de segurança do provedor de treinamento de segurança cibernética Infosec Institute.

Há também aqueles que têm machine learning (ML) em seus produtos, mas outra ferramenta teria servido tão bem.

“Há algumas situações em que o aprendizado de máquina está sendo usado apenas para dizer que o aprendizado de máquina está sendo usado. Em outras palavras, o problema que está sendo resolvido não é resolvido melhor, ou mais rápido, com aprendizado de máquina ou IA — parece mais legal usá-lo”, diz Evans.

O desafio está em separar o que a tecnologia pode fazer do que o marketing diz que pode fazer.

“Devo admitir que estou preocupado que muitas empresas estejam exagerando as capacidades de suas ferramentas quando se trata de aprendizado de máquina ou inteligência artificial”, diz David Hoelzer, professor da casa de educação em segurança cibernética SANS Institute e chefe de operações do provedor de segurança gerenciado Enclave Forensics. “Mais de uma vez, eu entendi que o que um fornecedor está chamando de ‘aprendizado de máquina’ é na verdade um ser humano em um data center escrevendo assinaturas. Quando um cliente percebe que um produto cobrado como inteligência de máquina não é realmente isso, prejudica todo o mercado.”

Existem inúmeras maneiras de tentar se passar por IA para enganar as pessoas a pensar que têm uma arma real com capacidades quase mágicas.

“Como indústria, falamos fortemente sobre IA, mas na realidade apenas implementamos heurísticas ou regras sem IA real por trás delas”, diz Lucas Budman, fundador e CEO da TruU, um provedor de verificação de identidade baseado em IA.

Como a IA pode sair pela culatra

A situação pode sair pela culatra para alguns que estão vendendo IA em seus produtos de cibersegurança.

“A IA é sua própria superfície de ataque. Hackear é simplesmente o ato de fazer com que os sistemas façam o que deveriam, de maneiras que seus designers não pretendiam”, explica Fernick. “Aprendizado de máquina e IA não são especiais — são sistemas de software com falhas exploráveis e lógica.”

Às vezes, os problemas com a IA são os mesmos velhos problemas que atormentam outras tecnologias.

“O uso da IA para reconhecer e responder rapidamente a ameaças sem intervenção humana não foi adotado devido aos desafios tecnológicos entre os fornecedores de plataforma e produtos e à falta geral de confiança na própria tecnologia de IA”, diz Doug Saylors, sócio e co-líder de segurança cibernética da empresa global de pesquisa e consultoria em tecnologia ISG.

“Ao integrar ml/AI em um sistema, precisamos estar atentos ao fato de que o sistema está aprendendo com sua experiência contínua e que um adversário poderia ensiná-lo a estar bem com coisas perigosas”, adverte Jennifer Fernick, chefe global de pesquisa da empresa de consultoria de segurança NCC Group e membro do conselho de administração da Open Source Security Foundation da The Linux Foundation. “Na prática, um invasor motivado pode optar por expor continuamente uma entrada progressivamente mais extrema ao sistema, com o objetivo de dessensibilizá-lo a entradas maliciosas.”

Isso mesmo – a primeira IA adversária que você encontrar pode ser sua.

FONTE: DARK READING

POSTS RELACIONADOS