“Uma vez que uma nova tecnologia passa por cima de você, se você não faz parte do rolo compressor, você faz parte da estrada.” – Stewart Brand
O mundo digital é vasto e em constante evolução, e no centro dessa evolução estão os grandes modelos de linguagem (LLMs), como o recém-popularizado ChatGPT. Ambos estão revolucionando e potencialmente revolucionando o mundo corporativo. Eles estão competindo para se tornar uma espécie de canivete suíço, ansiosos para emprestar suas capacidades a uma infinidade de aplicativos de negócios. No entanto, a intersecção de LLMs com segurança e privacidade corporativas justifica um mergulho mais profundo.
No mundo corporativo, os LLMs podem ser ativos inestimáveis. Eles estão sendo aplicados e mudando a forma como fazemos negócios coletivamente em atendimento ao cliente, comunicação interna, análise de dados, modelagem preditiva e muito mais. Imagine um colega digital que é incansavelmente eficiente, complementando e acelerando seu trabalho. É isso que um LLM traz para a mesa.
Mas o potencial dos LLMs vai além dos ganhos de produtividade. Agora devemos considerar seu papel no fortalecimento de nossas defesas de segurança cibernética. (Há um lado sombrio a considerar também, mas vamos chegar a isso.)
LLMs podem ajudar nos esforços de segurança cibernética
Os LLMs podem ser treinados para identificar potenciais ameaças à segurança, atuando assim como uma camada adicional de proteção. Além disso, são ferramentas fantásticas para promover a conscientização sobre segurança cibernética, capazes de simular ameaças e fornecer orientação em tempo real.
No entanto, com a adoção de LLMs, as preocupações com a privacidade inevitavelmente emergem. Esses modelos de IA podem lidar com dados comerciais confidenciais e, portanto, precisam ser tratados com cuidado. A chave é encontrar o equilíbrio certo entre utilidade e privacidade, sem comprometer nenhum dos dois.
O lado bom aqui é que temos as ferramentas para manter esse equilíbrio. Técnicas como a privacidade diferencial podem garantir que os LLMs aprendam com os dados sem expor informações individuais. Além disso, o uso de controles de acesso robustos e trilhas de auditoria rigorosas podem ajudar a prevenir o acesso não autorizado e o uso indevido.
Como adotamos LLMs enquanto protegemos nosso ecossistema corporativo?
Começa com a compreensão das capacidades e limitações desses modelos. Em seguida, o processo de integração deve ser gradual e medido, tendo em mente a sensibilidade das diferentes áreas de negócio. Existem algumas aplicações que devem sempre manter a supervisão e a governança humana: LLMs não passaram da barra e não são médicos.
A privacidade nunca deve ficar em segundo plano ao treinar LLMs com dados específicos da empresa. Seja transparente com as partes interessadas sobre o tipo de dados que estão sendo usados e a finalidade por trás deles. Por fim, não economize no monitoramento e refinamento do desempenho e do comportamento ético do LLM ao longo do tempo. Algumas especificidades a considerar aqui:
- Obviamente, interfaces LLM e ofertas corporativas são simples de bloquear – triviais mesmo – e devem ser bloqueadas, para que a empresa possa escolher quais permitir. Isso significa que é necessária uma política de uso correto, e um projeto deve existir para sancionar os corretos. Ignorar esta última parte levará ao uso desonesto ou desonesto de LLMs, então não ignore.
- Com o tempo, novos serviços de LLM surgirão para satisfazer a demanda reprimida (como organizações que proíbem e nunca assinam serviços sancionados). Então, suspeito que uma nova lista ou meios de detecção semelhantes ao RBL surgirão para bloquear o acesso a novos e emergentes ou mesmo serviços obscuros de LLM. Para esse assunto, espere que os cibercriminosos enfrentem intencionalmente esses serviços com tudo, desde modelos reais até turcos mecânicos nos bastidores.
- As pessoas começarão a usar telefones e sistemas pessoais para interagir com LLMs se a interação for proibida. As motivações para contornar proibições (por exemplo, desempenho, economia de tempo, geração de receita, etc.) estão lá, então isso acontecerá.
- O tráfego direcionado ao LLM se transformará ao longo de (não muito) tempo para progressivamente se parecer muito com outros tipos de tráfego. Ele começará rapidamente a parecer novos tipos de tráfego para contornar o bloqueio, a detecção comportamental e a detecção de padrões. Também migrará para novos protocolos. O QUIC é uma escolha óbvia, mas até mesmo a forma do tráfego pode parecer muito diferente se a resistência ao uso desses serviços for alta.
- Outros serviços atuarão como proxies e se conectarão via API/WS ao GPT, o que significa que qualquer coisa pode ser um gateway. E pior, muitos usuários podem não saber onde estão na “cadeia de suprimentos da API”, especialmente em serviços de “interação humana”, como serviços de suporte. Este é o grande deles. Eu recomendaria que as empresas sempre sinalizassem seus próprios serviços como tendo humanos ou máquinas com uma bandeira para os usuários finais, para incentivar comportamentos semelhantes (um exemplo onde um padrão é uma ótima coisa para defender).
- Agora, a maior preocupação. Parte do problema é manter o IP e informações específicas fora das mãos de terceiros, com certeza, e a proteção contra perda de dados (DLP) pode ajudar nisso. Mas também há ataques de análise de tráfego e ataques de análise de dados (especialmente em escala) e informações que podem ser inferidas do uso do LLM. Os dados nunca precisam sair para implicar algo sobre o que existe ou está acontecendo dentro dos muros de uma empresa (A grande lição da era do Big Data foi que os armazenamentos de Big Data podem criar PII e outros tipos de dados. Isso é ainda pior do que isso). Isso significa que as regras de forma de vida anteriormente baseadas em carbono para carbono sobre sigilo agora têm que se aplicar às interações carbono-silício também: lábios soltos afundam navios quando se fala com qualquer coisa!
Não resista à mudança, adapte-se a ela
Olhando para o futuro, a incorporação de LLMs no cenário corporativo é uma maré que dificilmente diminuirá. Quanto mais cedo nos adaptarmos, mais preparados estaremos para navegar pelos desafios e oportunidades que vêm com isso. LLMs como o ChatGPT devem desempenhar papéis fundamentais na formação dos cenários corporativo e de segurança. É uma era empolgante em que estamos entrando e, como em qualquer jornada, a preparação é fundamental. Então, aperte o cinto e vamos abraçar esse futuro “liderado por IA” com uma mente aberta e um plano seguro.
Um último comentário crítico: o gênio está fora da garrafa, por assim dizer, o que significa que os cibercriminosos e os Estados-nação armarão e usarão IA e ferramentas derivadas para medidas ofensivas. A tentação de proibir totalmente esses usos deve ser evitada porque devemos garantir que os testadores de caneta e os jogadores vermelhos possam acessar essas ferramentas para garantir que nossas equipes e defesas azuis estejam preparadas. É por isso que temos o Kali Linux, por exemplo. Não podemos impedir a proibição do uso de ferramentas de LLM e IA, agora ou no futuro.
FONTE: HELPNET SECURITY