Como evitar a IA de sombra em seu SOC

Views: 361
0 0
Read Time:4 Minute, 56 Second

A recente descoberta da Samsung de que os funcionários enviaram código sensível para o ChatGPT deve servir como um lembrete para os líderes de segurança seguirem com cuidado quando se trata de integrar novas ferramentas de inteligência artificial em suas organizações.

IA de sombra

Os funcionários estão usando a nova família de ferramentas de IA generativa, como o ChatGPT, com permissão ou não. Pesquisas mostram que os funcionários estão se tornando desonestos por dois motivos: eles veem como a IA pode torná-los mais eficazes e estão insatisfeitos com a má (ou falta de) adoção de IA de suas organizações em seus centros de operações de segurança.

Os funcionários frequentemente usam mal as ferramentas, expondo suas organizações a riscos de segurança de curto prazo e complicações de negócios de longo prazo. Os hackers não apenas podem explorar as lacunas de segurança das ferramentas de IA, mas também podem mexer com os dados de treinamento e distorcer a precisão dos modelos de negócios construídos sobre eles.

Para transformar a IA em uma aliada da segurança cibernética, as organizações precisam atualizar – ou talvez criar – planos de ação para lidar com a adoção de novas ferramentas de IA de ponta. Aqui estão algumas táticas que eles devem empregar.

Atualizar políticas de uso de tecnologia para abranger novas ferramentas de IA

Uma prioridade é revisitar todas as políticas relativas ao uso de tecnologia em um contexto de segurança cibernética. Trate o ChatGPT como todas as ferramentas que os funcionários adotaram em rodadas anteriores de shadow IT e atualize as políticas para cobrir a nova onda de ferramentas de IA. O ChatGPT é um serviço SaaS, portanto, os controles existentes que abrangem todos os outros SaaS devem ser estendidos para abordar tudo, desde a filtragem de saída até a filtragem de conteúdo e controles de governança de dados.

Esclareça claramente quais ferramentas de IA são aceitáveis para uso e quais não são. Você não precisa necessariamente proibir o uso de novas ferramentas de IA, como muitas organizações fizeram, ou colocar restrições temporárias em seu uso, como a Samsung fez depois que os uploads de código vieram à tona – mas desenvolver uma política e aplicá-la.

Muitos funcionários não entendem o quão valiosos são os dados que estão colocando nesses serviços, como eles podem ser usados por outras pessoas e que certos dados são confidenciais. Depois que as políticas forem atualizadas, é importante educar a equipe sobre as regras de manipulação e classificação de dados.

Entenda por que suas equipes de segurança estão aproveitando essas ferramentas

Os funcionários estão testando o ChatGPT e outras ferramentas de IA generativa não autorizadas para fins de segurança porque estão insatisfeitos com as opções atuais de IA à sua disposição. Descobrir por que armar os líderes de segurança com as informações de que precisam para construir um plano de IA estratégico mais eficaz.

Poll employees regularly about their preferences regarding the use of AI and their thoughts about how it could do a better job securing corporate assets inside the SOC. Are they frustrated with the number of mundane, repeatable tasks they must handle on a day-to-day basis? Are they annoyed with the way existing AI tools work? Are they looking for a better user interface, or more extensive capabilities?

Another source of frustration could be the lack of automation that’s been woven into security operations. Advanced SOCs deploy Security Orchestration Automation Response (SOAR) capability that automate functions like managing cloud security or detecting compromised user accounts. Find out if employees are trying out new AI tools to streamline functions that are currently handled manually. If they can create a list of use cases that could save time or improve accuracy, it can influence security leaders’ decisions about whether to build or buy certain AI tools in the future.

Certifique-se de que a equipe esteja preparada para usar IA no SOC

Como as ferramentas de IA generativa são tão novas, as organizações não tiveram tempo de desenvolver treinamento extensivo sobre cada oferta que chega ao mercado. Os usuários estão essencialmente aprendendo a operá-los em tempo real. Isso valoriza a garantia de que a equipe de segurança seja qualificada o suficiente para lidar com o uso de novos produtos que não são amigáveis ao usuário e ainda não estão totalmente integrados às políticas de sua organização.

A equipe deve ser capaz de discernir quando usar IA generativa e quando não. Os assistentes alimentados por IA podem automatizar tarefas básicas, mas processos de várias etapas podem confundir a tecnologia e produzir resultados defeituosos. A equipe também deve ter a diligência de procurar erros e inconsistências na IA generativa corporativa.

Crie uma “sandbox” para incentivar a manipulação e o compartilhamento de conhecimento

Para organizações avessas ao risco, proibir o uso de ferramentas de IA generativas pode ser um passo prudente. Mas também pode ser um movimento míope para equipes que estão procurando encontrar, cultivar e reter os melhores talentos. Os profissionais de segurança que estão dispostos a experimentar novas ferramentas de IA são os funileiros naturais que você deseja trabalhar em soluções futuras.

Dê a esses tomadores de risco alguma latitude para experimentar e jogar. O campo está evoluindo muito rapidamente, e as organizações precisarão ser ágeis para aproveitar ao máximo as tecnologias que estão sendo lançadas. Ainda há uma lacuna entre uma ideia legal e uma que gera um ROI. Permitir que os funileiros experimentem as ferramentas em uma “sandbox” protegida de dados corporativos importantes pode ser benéfico. Em seguida, configure um pipeline de compartilhamento de conhecimento – almoço e aprendizado, um canal do Teams – para garantir que os tomadores de decisão possam aplicar as tecnologias certas para os casos de uso certos.

Ao tomar essas medidas, as organizações podem ajudar as equipes de segurança a gerar valor a partir da IA, ao mesmo tempo em que mitigam riscos e mantêm os dados seguros.

FONTE: HELPNET SECURITY

POSTS RELACIONADOS