IA pode ser grande aliada da segurança cibernética, diz executivo da Avast

Views: 96
0 0
Read Time:1 Minute, 43 Second

Por Ramon De Souza 

Poucos temas dentro do mercado de tecnologia são tão controversos quanto inteligência artificial. Alguns a amam, e tantos outros a odeiam — não faltam motivos para tal polaridade. Ao mesmo tempo em que o conceito simboliza um enorme avanço para o ser humano criar uma consciência à sua semelhança, também surgem preocupações com questões de ética e comportamento de algoritmos inteligentes.

Para celebrar o Mês da Segurança Cibernética (outubro), a Avast promoveu nesta quinta-feira (8) mais uma edição da CyberSec & AI Connected, sua conferência anual para profissionais e acadêmicos do setor que debate a interseção entre privacidade, inteligência artificial, aprendizagem de máquina e segurança da informação. Como poderíamos imaginar, o evento ocorreu de forma online, com transmissão para o mundo inteiro.

Falando diretamente do Vale do Silício, na Califórnia (EUA), Rajarshi Gupta, gerente de inteligência artificial da empresa tcheca, afirmou que é necessário acabar com a “má reputação” que tais tecnologias ganharam ao longo dos últimos tempos. Após recapitular as principais discussões do seminário, o executivo garantiu que o conceito pode parecer ameaçador, mas também pode ser usado para o bem.

Imagem: Reprodução/Jourdan Wee (Pexels)

“A inteligência artificial é o grande desafio para segurança, mas também é uma grande oportunidade para a segurança”, destaca Gupta. “Trata-se de uma ferramenta valiosa para identificar malwares dinâmicos e comportamentos maliciosos com agilidade”, aponta. Não é a toa que a maioria das soluções de proteção de endpoint já contam com módulos de machine learning para identificar ameaças inéditas e desconhecidas por pesquisadores.

Isto posto, outro uso útil destacado pelo especialista é a detecção de aplicativos para smartphones que possam conter scripts maliciosos e causar danos à privacidade do internauta.

Ademais, o profissional ressalta que, por mais que a IA possa parecer ameaçadora por usar uma grande quantia de informações para treinar algoritmos, cases de sucesso como sistemas de rastreamento da COVID-19 (que coletam e analisam dados anonimizados) mostram que tais sistemas “podem continuar funcionando enquanto protegem a privacidade pessoal dos usuários”.

FONTE: CANALTECH

Previous post Mais de 30 domínios falsos usam o Pix como isca em menos de 24h
Next post Golpes com PIX vão de emails e sites falsos a anexos com malware

Deixe um comentário