Bloquear o acesso ao ChatGPT é uma solução de curto prazo para mitigar riscos

Views: 182
0 0
Read Time:3 Minute, 28 Second

ChatGPT domina o mercado de IA generativa

Os pesquisadores descobriram que organizações com 10.000 usuários ou mais usam uma média de 5 aplicativos de IA diariamente. O ChatGPT vê mais de 8 vezes mais usuários ativos diariamente do que qualquer outro aplicativo generativo de IA. Na taxa de crescimento atual, espera-se que o número de usuários que acessam aplicativos de IA dobre nos próximos sete meses.

Nos últimos dois meses, o aplicativo de IA de crescimento mais rápido foi o Google Bard, atualmente adicionando usuários em 7,1% por semana, em comparação com 1,6% do ChatGPT. Nas taxas atuais, o Google Bard não está pronto para alcançar o ChatGPT por mais de um ano, embora o espaço de aplicativos de IA generativa deva evoluir significativamente antes disso, com muitos outros aplicativos em desenvolvimento.

ChatGPT mais propenso a exposição de código-fonte

A Netskope descobriu que o código-fonte é postado no ChatGPT mais do que qualquer outro tipo de dados confidenciais, a uma taxa de 158 incidentes por 10.000 usuários por mês. Outros dados confidenciais compartilhados no ChatGPT incluem dados regulamentados – incluindo dados financeiros e de saúde, informações de identificação pessoal – juntamente com propriedade intelectual, excluindo o código-fonte e, mais preocupante, senhas e chaves, geralmente incorporadas ao código-fonte.

“É inevitável que alguns usuários carreguem código-fonte proprietário ou texto contendo dados confidenciais para ferramentas de IA que prometem ajudar na programação ou na escrita”, disse Ray Canzanese , diretor de pesquisa de ameaças do Netskope Threat Labs. “Portanto, é imperativo que as organizações coloquem controles em torno da IA ​​para evitar vazamentos de dados confidenciais. Controles que capacitam os usuários a colher os benefícios da IA, simplificando as operações e melhorando a eficiência, ao mesmo tempo em que reduzem os riscos, são o objetivo final. Os controles mais eficazes que vemos são uma combinação de DLP e treinamento interativo do usuário.”

Adoção segura de aplicativos de IA

Atualmente, o Netskope Threat Labs está rastreando proxies ChatGPT e mais de 1.000 URLs e domínios maliciosos de invasores oportunistas que buscam capitalizar o hype da IA, incluindo várias campanhas de phishing , campanhas de distribuição de malware e sites de spam e fraudes.

Bloquear o acesso a conteúdo relacionado a IA e aplicativos de IA é uma solução de curto prazo para mitigar riscos, mas prejudica os benefícios potenciais que os aplicativos de IA oferecem para complementar a inovação corporativa e a produtividade dos funcionários. Os dados mostram que nos serviços financeiros e na saúde – ambos setores altamente regulamentados – quase 1 em cada 5 organizações implementou uma proibição geral do uso do ChatGPT por funcionários, enquanto no setor de tecnologia, apenas 1 em cada 20 organizações fez o mesmo.

“Como líderes de segurança, não podemos simplesmente decidir banir aplicativos sem afetar a experiência e a produtividade do usuário”, disse James Robinson , vice-CISO da Netskope. “As organizações devem se concentrar na evolução de suas políticas de conscientização e dados da força de trabalho para atender às necessidades dos funcionários que usam produtos de IA de forma produtiva. Existe um bom caminho para a habilitação segura da IA ​​generativa com as ferramentas certas e a mentalidade certa.”

Para que as organizações permitam a adoção segura de aplicativos de IA, elas devem centrar sua abordagem na identificação de aplicativos permitidos e na implementação de controles que capacitem os usuários a usá-los em todo o seu potencial, protegendo a organização contra riscos. Essa abordagem deve incluir filtragem de domínio, filtragem de URL e inspeção de conteúdo para proteção contra ataques. Outras etapas para proteger os dados e usar com segurança as ferramentas de IA incluem:

  • Bloqueie o acesso a aplicativos que não atendam a nenhuma finalidade comercial legítima ou que representem um risco desproporcional para a organização.
  • Empregue treinamento de usuário para lembrá-los da política da empresa em relação ao uso de aplicativos de IA.
  • Use tecnologias modernas de prevenção contra perda de dados (DLP) para detectar postagens que contenham informações potencialmente confidenciais.

FONTE: HELP NET SECURITY

POSTS RELACIONADOS