Relatório revela como hackers estão usando a IA em ataques

Views: 408
0 0
Read Time:6 Minute, 5 Second

Estudo mostra que hackers podem usar os mesmos mecanismos utilizados pelas equipes de TI “white hat” para monitorar redes, software e firmware em busca de vulnerabilidades com mais eficiência

A pandemia de covid-19 acelerou a adoção de analytics e inteligência artificial (IA) e esse impulso continuará nesta década, conforme mostram algumas pesquisas. Segundo um estudo da PwC, 52% das empresas aceleraram seus planos de adoção de IA por causa da crise sanitária. Quase todos os entrevistados (86%) disseram que a IA está se tornando uma “tecnologia mainstream” em sua empresa.

Embora os ganhos proporcionados pela inteligência artificial sejam indiscutíveis, analistas observam que, como qualquer ferramenta, ela não tem valor moral inato. A utilidade ou potencial de dano da IA ​​se resume a como o sistema “aprende” e o que os humanos fazem com ele. Relatório publicado pela National Cyber Security (NCS) alerta que algumas tentativas de alavancar a IA — como “prever” crimes antes que aconteçam — mostram que modelos de treinamento baseados em dados “viciados” tendem a replicar as deficiências humanas.

Até agora, o modelo de treinamento de IA usando dados do sistema de justiça dos EUA resultou em um raciocínio de IA tragicamente preconceituoso. Modelo de treinamento é um conjunto de dados usado para treinar um algoritmo de machine learning.

Em outros exemplos, os humanos escolhem maneiras mais deliberadas de alavancar o potencial destrutivo da IA. Os hackers estão mostrando suas técnicas inovadoras mais uma vez usando inteligência artificial para melhorar o alcance, a eficácia e a lucratividade de seus ataques. E à medida que a guerra cibernética se torna cada vez mais comum em todo o mundo, certamente veremos as aplicações da IA ​​em hackers se desenvolverem ainda mais.

IA: oportunidade e risco

A inteligência artificial oferece um mundo de possibilidades para empresas que desejam melhorar as estratégias de previsão, otimização de negócios e retenção de clientes. É também uma “arma” para aqueles que pretendem comprometer a soberania digital dos outros. A seguir, a NSC mostra algumas maneiras pelas quais a inteligência artificial pode ser suscetível a adulterações discretas e esforços mais evidentes para transformá-la em ações ilegais.

1. Comprometendo a lógica da máquina

A principal vantagem da IA ​​para consumidores e empresas é que ela realiza atos de lógica previsíveis e repetitivos sem interferência humana. Esta é também a sua maior fraqueza. Como qualquer outra construção digital, a IA pode ser suscetível a invasões externas. Os hackers que acessam e comprometem a lógica da máquina que alimenta a IA podem fazer com que ela execute ações imprevisíveis ou prejudiciais. Por exemplo, uma IA encarregada do monitoramento das condições industriais pode fornecer leituras falsas ou permitir que os pings de manutenção não sejam entregues.

Como todo o objetivo dos investimentos em IA é eliminar a intervenção humana e prever os resultados, o dano à infraestrutura ou à qualidade do produto causado por um ataque dessa natureza pode não ser percebido até uma falha catastrófica.

2. Utilizando algoritmos de engenharia reversa

Outro caminho potencial para danos — especialmente no que diz respeito à propriedade intelectual e aos dados comerciais ou do consumidor — é a noção de engenharia reversa. Os hackers podem até roubar o próprio código de inteligência artificial. Com tempo suficiente para estudar como funciona, eles podem descobrir os conjuntos de dados usados ​​para treinar a IA. Isso pode provocar vários problemas, o primeiro dos quais é o envenenamento por IA. Outros exemplos podem envolver hackers aproveitando os próprios dados de treinamento de IA para coletar informações sensíveis sobre mercados, concorrentes, governos, fornecedores ou consumidores em geral.

3. Aprendendo sobre os alvos pretendidos

A vigilância dos alvos é provavelmente uma das implicações mais perturbadoras se a IA ​​cair nas mãos de hackers. A capacidade da IA ​​de chegar a conclusões sobre as habilidades de uma pessoa, áreas de conhecimento, temperamento e a probabilidade de ser vítima de segmentação, fraude ou abuso está se mostrando particularmente preocupante para alguns especialistas em segurança cibernética.

A inteligência artificial pode chegar a conclusões surpreendentemente detalhadas sobre pessoas, equipes e grupos com base em alguns dos pontos de dados mais improváveis. Um indivíduo “engajado” ou “distraído” pode digitar rapidamente, mexer com o mouse ou mover-se rapidamente entre as guias do navegador. Um usuário que está “confuso” ou “hesitante” pode fazer uma pausa antes de clicar nos elementos da página ou revisitar vários sites.

Nas mãos certas, dicas como essas ajudam os departamentos de RH a aumentar o engajamento dos funcionários ou ajudam as equipes de marketing a aprimorar seus sites e funis de vendas. Para hackers, no entanto, sinais como esses podem resultar em um perfil psicológico surpreendentemente matizado do alvo pretendido. Os cibercriminosos podem saber com base em dicas invisíveis aos humanos quais pessoas podem estar vulneráveis ​​a phishing, smishing, ransomware, fraude financeira e outros tipos de crimes. Também pode ajudar cibercriminosos iniciantes a aprender a melhor forma de convencer seus alvos de que suas tentativas de fraude vêm de fontes legítimas.

4. Explorando vulnerabilidades de rede

Profissionais de segurança cibernética publicaram dados sobre 20.175 vulnerabilidades de segurança conhecidas em 2021, o que representa um aumento de cerca de 18% em relação às 17.049 vulnerabilidades registradas no ano anterior.

O mundo tem se tornado mais interconectado digitalmente — alguns diriam interdependente — a cada hora. Um número vertiginoso de redes industriais e de pequena escala, com bilhões de dispositivos conectados online, está a caminho. Tudo está online, desde sensores de monitoramento de condições até software de planejamento empresarial.

A inteligência artificial é promissora em ajudar as equipes de segurança cibernética a investigar rapidamente vulnerabilidades de rede, software e hardware mais rapidamente do que os humanos poderiam fazer sozinhos. A velocidade e a escala do crescimento da infraestrutura digital significam que é quase impossível pesquisar trilhões de linhas de código por falhas de segurança para corrigir. Tudo isso precisa acontecer enquanto esses sistemas estiverem online devido ao custo do tempo de inatividade.

Se a IA pode funcionar como uma ferramenta de segurança cibernética, o contrário também é verdade. Os hackers podem usar os mesmos mecanismos utilizados pelas equipes de TI “white hat” para realizar o mesmo trabalho: monitorar redes, software e firmware em busca de vulnerabilidades com mais eficiência do que os especialistas humanos de TI.

5. Uma corrida armamentista digital

Existem muitos aplicativos de IA no crime cibernético. Isso porque os hackers podem ocultar o código de IA em um aplicativo benigno que executa um comportamento malicioso quando detecta um gatilho ou limite predeterminado. Modelos maliciosos de IA podem ser usados ​​para determinar credenciais ou recursos de gerenciamento de TI monitorando entradas biométricas, como impressões digitais e reconhecimento de voz. Mesmo que uma tentativa de ataque cibernético falhe, os hackers equipados com IA podem usar o aprendizado de máquina para determinar o que deu errado e o que eles podem fazer de diferente na próxima vez.

Um hack de alto perfil em que a IA atua como um eixo central pode causar uma erosão na opinião pública. Algumas pesquisas mostram que o americano médio, por exemplo, já tem dúvidas sobre os benefícios da IA.  Ou seja, a computação onipresente com o uso da IA pode ajudar a tornar nossas vidas online seguras, mas também pode ser o epicentro de uma nova corrida armamentista digital.

FONTE: CISO ADVISOR

POSTS RELACIONADOS