O realismo reina na IA na Black Hat e DEF CON

Views: 153
0 0
Read Time:4 Minute, 8 Second

Tem sido uma evolução rápida, até mesmo para o setor de TI. Na edição de 2022 do Black Hat, os CISOs disseram que não queriam ouvir as letras “AI”; no RSAC 2023, praticamente todo mundo falava sobre IA generativa e especulava sobre as enormes mudanças que isso representaria para a indústria de segurança; na Black Hat USA 2023, ainda se falava em IA generativa, mas com conversas centradas na gestão da tecnologia como auxílio aos operadores humanos e no trabalho dentro dos limites dos motores de IA. Mostra, no geral, uma mudança muito rápida de um entusiasmo sem fôlego para um realismo mais útil.

O realismo é bem-vindo porque a IA generativa será absolutamente uma característica dos produtos, serviços e operações de segurança cibernética nos próximos anos. Entre as razões que são verdadeiras está a realidade de que a escassez de profissionais de segurança cibernética também será uma característica da indústria nos próximos anos. Com o uso de IA generativa focado em ampliar a eficácia dos profissionais de segurança cibernética, em vez de substituir FTEs (equivalentes em tempo integral ou funcionários em tempo integral), não ouvi ninguém discutir a redução da escassez de talentos substituindo humanos por IA generativa. O que ouvi muito foi o uso de IA generativa para tornar cada profissional de segurança cibernética mais eficaz – especialmente para tornar os analistas de nível 1 tão eficazes quanto os “analistas de nível 1.5”, já que esses analistas menos experientes são capazes de fornecer mais contexto, mais certeza, e opções mais prescritivas para analistas de nível superior à medida que movem os alertas para cima na cadeia

Preciso conhecer as limitações

Parte da conversa sobre como a IA generativa será usada foi um reconhecimento das limitações da tecnologia. Estas não foram discussões do tipo “provavelmente escaparemos do futuro mostrado em Matrix ”, foram conversas francas sobre as capacidades e usos que são objetivos legítimos para as empresas que implantam a tecnologia.

Duas das limitações que ouvi discutidas merecem ser mencionadas aqui. Um tem a ver com a forma como os modelos são treinados, enquanto o outro se concentra em como os humanos respondem à tecnologia. Quanto à primeira questão, houve um grande acordo de que nenhuma implementação de IA pode ser melhor do que os dados sobre os quais é treinada. Paralelamente, houve o reconhecimento de que a pressão por conjuntos de dados maiores pode colidir diretamente com preocupações sobre privacidade, segurança de dados e proteção da propriedade intelectual. Tenho ouvido cada vez mais empresas falarem sobre “especialização de domínio” em conjunto com IA generativa: limitar o escopo de uma instância de IA a um único tópico ou área de interesse e garantir que ela seja treinada de maneira ideal para receber instruções sobre esse assunto. Espere ouvir muito mais sobre isso nos próximos meses.

A segunda limitação é chamada de limitação da “caixa preta”. Simplificando, as pessoas tendem a não confiar na magia, e os motores de IA são o tipo de magia mais profundo para a maioria dos executivos e funcionários . Para fomentar a confiança nos resultados da IA, tanto os departamentos de segurança como os de TI terão de expandir a transparência em torno da forma como os modelos são treinados, gerados e utilizados. Lembre-se de que a IA generativa será usada principalmente como uma ajuda aos trabalhadores humanos. Se esses trabalhadores não confiarem nas respostas que recebem das solicitações, essa ajuda será incrivelmente limitada.

Defina seus termos

Houve um ponto em que a confusão ainda estava em evidência em ambas as conferências: o que alguém quis dizer quando disse “IA”? Na maioria dos casos, as pessoas estavam falando sobre IA generativa (ou modelo de linguagem grande, também conhecido como LLM) ao discutir as possibilidades da tecnologia, mesmo que simplesmente dissessem “IA”. Outros, ao ouvirem as duas letras simples, apontariam que a IA fazia parte do seu produto ou serviço há anos. A desconexão destacou o fato de que será fundamental definir termos ou ser muito específico ao falar sobre IA nos próximos tempos.

Por exemplo, a IA que tem sido utilizada em produtos de segurança há anos utiliza modelos muito menores do que a IA generativa, tende a gerar respostas muito mais rapidamente e é bastante útil para automação. Dito de outra forma, é útil para encontrar rapidamente a resposta a uma pergunta muito específica feita repetidamente. A IA generativa, por outro lado, pode responder a um conjunto mais amplo de questões utilizando um modelo construído a partir de enormes conjuntos de dados. No entanto, ele não tende a gerar consistentemente a resposta com rapidez suficiente para torná-lo uma excelente ferramenta de automação.

Houve muito mais conversas e haverá muito mais artigos, mas o LLM AI veio para ficar como um tópico em segurança cibernética. Prepare-se para as conversas que virão.

FONTE: DARKREADING

POSTS RELACIONADOS