Olhando além do ciclo de hype da IA/ML na segurança cibernética

Views: 289
0 0
Read Time:5 Minute, 3 Second

A maioria das equipes de segurança pode se beneficiar da integração de inteligência artificial (IA) e aprendizado de máquina (ML) em seu fluxo de trabalho diário. Estas equipas muitas vezes têm falta de pessoal e são sobrecarregadas por falsos positivos e alertas barulhentos, que podem abafar o sinal de ameaças genuínas.

O problema é que muitas detecções baseadas em ML erram o alvo em termos de qualidade. E talvez mais preocupante, os responsáveis ​​pela resposta a incidentes encarregados de responder a esses alertas nem sempre conseguem interpretar corretamente o seu significado e importância.

É justo perguntar por que, apesar de todo o entusiasmo sobre o potencial da IA/ML, tantos usuários de segurança se sentem desanimados? E o que precisa acontecer nos próximos anos para que a IA/ML cumpra plenamente as suas promessas de segurança cibernética?

Interrompendo o ciclo de hype de IA/ML

IA e ML são frequentemente confundidos, mas os líderes e profissionais de segurança cibernética precisam entender a diferença. IA é um termo mais amplo que se refere a máquinas que imitam a inteligência humana. ML é um subconjunto de IA que usa algoritmos para analisar dados, aprender com eles e tomar decisões informadas sem programação explícita.

Quando confrontados com promessas ousadas de novas tecnologias como IA/ML, pode ser um desafio determinar o que é comercialmente viável, o que é apenas exagero e quando, se é que alguma vez, essas afirmações produzirão resultados. O Gartner Hype Cycle oferece uma representação visual da maturidade e adoção de tecnologias e aplicações. Ajuda a revelar como as tecnologias inovadoras podem ser relevantes na resolução de problemas reais de negócios e na exploração de novas oportunidades.

Mas há um problema quando as pessoas começam a falar sobre IA e ML. “A IA sofre de um caso implacável e incurável de imprecisão – é um termo genérico que não se refere consistentemente a nenhum método ou proposta de valor específico”, escreve o professor Eric Siegel da UVA na Harvard Business Review . “Chamar as ferramentas de ML de ‘IA’ exagera o que a maioria das implantações de negócios de ML realmente fazem”, diz Siegel. “Como resultado, a maioria dos projetos de ML não consegue agregar valor. Em contraste, os projetos de ML que mantêm seu objetivo operacional concreto na frente e no centro têm boas chances de atingir esse objetivo.”

Embora a IA e o ML tenham, sem dúvida, feito progressos significativos na melhoria dos sistemas de segurança cibernética, continuam a ser tecnologias nascentes. Quando suas capacidades são exageradas, os usuários acabarão ficando desiludidos e começarão a questionar completamente o valor do ML na segurança cibernética.

Outra questão importante que dificulta a ampla implantação de IA/ML na segurança cibernética é a falta de transparência entre fornecedores e usuários. À medida que esses algoritmos se tornam mais complexos, fica cada vez mais difícil para os usuários desconstruir como uma determinada decisão foi tomada. Como os fornecedores muitas vezes não fornecem explicações claras sobre a funcionalidade de seus produtos, citando a confidencialidade de sua propriedade intelectual, a confiança é prejudicada e os usuários provavelmente recorrerão a tecnologias mais antigas e familiares.

Como cumprir a promessa de segurança cibernética de IA e ML

Colmatar o abismo entre as expectativas irrealistas dos utilizadores e a promessa da IA/ML exigirá a cooperação entre as partes interessadas com diferentes incentivos e motivações. Considere as sugestões a seguir para ajudar a preencher essa lacuna.

  • Reúna pesquisadores de segurança e cientistas de dados desde o início e com frequência: atualmente, os cientistas de dados podem desenvolver ferramentas sem compreender totalmente sua utilidade para a segurança, enquanto os pesquisadores de segurança podem tentar criar ferramentas semelhantes, mas não possuem a profundidade necessária de conhecimento em ciência de dados ou ML. Para desbloquear todo o potencial dos seus conhecimentos combinados, estas duas disciplinas muito diferentes devem trabalhar e aprender uma com a outra de forma produtiva. Por exemplo, os cientistas de dados podem aprimorar os sistemas de detecção de ameaças usando ML para identificar padrões significativos em grandes conjuntos de dados díspares, enquanto os pesquisadores de segurança podem contribuir com sua compreensão dos vetores de ameaças e vulnerabilidades potenciais.
  • Use dados normalizados como fonte: a qualidade dos dados usados ​​para treinar modelos impacta diretamente o resultado e o sucesso de qualquer ferramenta de IA/ML. Neste mundo cada vez mais orientado por dados, o velho ditado “entra lixo, sai lixo” é mais verdadeiro do que nunca. À medida que a segurança muda para a nuvem, a normalização da telemetria no ponto de coleta significa que os dados já estão em um formato padrão. As organizações podem transmitir imediatamente dados normalizados para sua nuvem de detecção (um data lake de segurança), facilitando o treinamento e melhorando a precisão dos modelos de ML sem ter que lidar com inconsistências de formato.
  • Priorize a experiência do usuário: Os aplicativos de segurança não são conhecidos por produzir experiências de usuário simplificadas e fáceis de usar. A única maneira de entregar algo que as pessoas usarão corretamente é começar pela experiência do usuário , em vez de aplicá-lo no final do ciclo de desenvolvimento. Ao incorporar visualizações limpas, configurações de alerta personalizáveis ​​e notificações fáceis de entender, os profissionais de segurança têm maior probabilidade de adotar e interagir com a ferramenta. Da mesma forma, é essencial ter um ciclo de feedback ao aplicar um modelo de IA/ML a um contexto de segurança, para que os analistas de segurança e pesquisadores de ameaças possam registrar suas contribuições e fazer correções para adaptar o modelo aos requisitos de sua organização.

O objetivo final da segurança cibernética é impedir a ocorrência de ataques, em vez de simplesmente reagir a eles após o fato. Ao fornecer recursos de ML que as equipes de segurança podem colocar em prática, podemos quebrar o ciclo de entusiasmo e começar a cumprir sua elevada promessa.

FONTE: DARKREADING

POSTS RELACIONADOS