ChatGPT abre novas oportunidades para cibercriminosos: 5 maneiras de as organizações se prepararem

Views: 155
0 0
Read Time:4 Minute, 57 Second

No LinkedIn, Slack, Twitter, e-mail e mensagens de texto, as pessoas estão compartilhando exemplos criados usando o ChatGPT , o novo modelo de inteligência artificial (IA) da equipe por trás do OpenAI.

Usando o ChatGPT , você pode produzir um diálogo com som autêntico que pode ser usado para quase tudo – desde responder a perguntas de acompanhamento em um diálogo de bate-papo on-line até escrever poesia. Existem muitas oportunidades para as empresas aproveitarem a nova tecnologia de chatbot, inclusive ajudando nosuporte empresarial e nas interações com os clientes . Sua capacidade de gerar conteúdo rapidamente e, de acordo com seus desenvolvedores, “responder a perguntas subsequentes, admitir seus erros, contestar premissas incorretas e rejeitar solicitações inapropriadas” abre muitas oportunidades e alguns novos desafios.

IA e aprendizado de máquina (ML) estão mudando rapidamentede soluções de nicho em cenários corporativos que têm alto custo/alta recompensa para soluções a implementações mais expansivas que podem resolver uma série de desafios corporativos, particularmente aqueles que se concentram nos usuários finais. A segurança cibernética, por exemplo, agora está adotando abordagens baseadas em IA para fornecer maior proteção com equipes de segurança menores. Um exemplo destaca como as organizações podem usar IA/ML para realizar verificações dinâmicas e baseadas em risco quando alguém tenta acessar aplicativos ou dados confidenciais. Isso substitui as abordagens mais antigas baseadas em políticas, que podem levar muito tempo e interação humana para desenvolver e manter as políticas de acesso individuais. Em uma empresa maior, a manutenção dessas políticas pode incluir centenas ou até milhares de aplicativos e repositórios de dados.

Usando IA para maior eficiência

O interesse pela IA continua a explodir, pois os ataques modernos exigem detecção e resposta rápidas ao comportamento anômalo do usuário – algo que um modelo de IA pode ser treinado para identificar rapidamente, mas que requer poder humano significativo para tentar e replicar manualmente. O objetivo da IA ​​é aumentar a eficiência e a confiança, reduzindo o atrito e melhorando a interface do usuário para usuários comuns. Carros autônomos, por exemplo, são projetados para aumentar a segurança dos usuários finais. Na segurança cibernética, especificamente na autenticação de usuários (humanos e não humanos), as abordagens baseadas em IA estão avançando rapidamente, trabalhando com sistemas baseados em regras para melhorar a experiência dos usuários finais.

Em um mundo cada vez mais digital, os invasores já podem contornar a detecção de autenticação de identidade binária, incluindo local, dispositivo, rede e outras verificações. Inevitavelmente, os cibercriminosos também analisarão as novas oportunidades que o ChatGPT abre. As ferramentas de IA que interagem de maneira conversacional podem ser aproveitadas por cibercriminosos para lançar campanhas de phishing convincentes ou invasões de contas. No passado, talvez fosse mais fácil identificar um ataque de phishing devido à gramática ruim, frases incomuns ou erros ortográficos frequentes tão comuns em e-mails de phishing. Isso está evoluindo rapidamente com soluções como o ChatGPT, que usa processamento de linguagem natural para criar a mensagem inicial e, em seguida, gerar respostas realistas às perguntas de um usuário-alvo sem nenhum desses marcadores reveladores.

Repense as abordagens de segurança

Para se preparar para ataques aumentados por chatbot, as organizações precisam repensar as abordagens de segurança para mitigar possíveis ameaças. Cinco medidas que eles podem tomar incluem:

  1. Atualizar a educação dos funcionários sobre os riscos de phishing. Os funcionários que entendem como o ChatGPT pode ser aproveitado provavelmente serão mais cautelosos ao interagir com chatbots e outras soluções suportadas por IA e, assim, evitarão ser vítimas desses tipos de ataques.
  2. Implementar protocolos de autenticação fortes para dificultar o acesso de invasores às contas. Os invasores já sabem como tirar proveito de usuários cansados ​​de se autenticar novamente por meio de ferramentas de autenticação multifator (MFA), portanto, aproveitar AI/ML para autenticar usuários por meio de correspondência de impressão digital e evitar senhas pode ajudar a aumentar a segurança e reduzir a fadiga de MFA.
  3. Adotando um modelo de confiança zero. Ao conceder acesso apenas após a verificação e garantir o acesso com menos privilégios, os líderes de segurança podem criar um ambiente em que, mesmo que um invasor aproveite o ChatGPT para contornar usuários desavisados, os cibercriminosos ainda terão que verificar sua identidade e, mesmo assim, só terão acesso a recursos limitados. Limitar o acesso não apenas dos desenvolvedores, mas também da liderança, incluindo a liderança técnica, ao mínimo de acesso necessário para realizar seus trabalhos com eficácia, pode inicialmente encontrar resistência, mas tornará mais difícil para um invasor aproveitar qualquer acesso não autorizado para obter ganhos.
  4. Monitoramento de atividades em contas corporativas e uso de ferramentas, incluindo filtros de spam, análise comportamental e filtragem de palavras-chave, para identificar e bloquear mensagens maliciosas. Seus funcionários não podem ser vítimas de um ataque de phishing, por mais sofisticada que seja a linguagem, se nunca virem a mensagem. A quarentena de mensagens maliciosas com base no comportamento e relacionamento dos correspondentes, em vez de palavras-chave específicas, tem maior probabilidade de bloquear agentes mal-intencionados.
  5. Aproveitando a IA. Os ataques cibernéticos já estão aproveitando a IA, e o ChatGPT é apenas mais uma maneira de usá-lo para obter acesso aos ambientes da sua organização. As organizações devem aproveitar os recursos oferecidos pela IA/ML para melhorar a segurança cibernética e responder mais rapidamente a ameaças e possíveis violações.

A aquisição de contas por meio de engenharia social, aproveitando senhas de violações de dados e ataques de phishing se tornará mais frequente e mais bem-sucedido – apesar de nossas melhores defesas – visto que o ChatGPT pode fornecer respostas que parecem autênticas para consultas direcionadas. Ao atualizar e adotar essas cinco abordagens, as organizações podem ajudar a reduzir os riscos para si mesmas e para seus funcionários quando chatbots e outras ferramentas de IA são usadas para fins maliciosos.

FONTE: DARK READING

POSTS RELACIONADOS