4 maneiras de lidar com a tomada de decisões de IA em segurança cibernética

Views: 141
0 0
Read Time:4 Minute, 43 Second

A escala de ataques cibernéticos que as organizações enfrentam hoje significa que os sistemas autônomos estão se tornando um componente crítico da segurança cibernética. Isso nos obriga a questionar a relação ideal entre equipes de segurança humana e inteligência artificial (IA): que nível de confiança deve ser concedido a um programa de IA e em que ponto as equipes de segurança intervêm em sua tomada de decisão?

Com sistemas autônomos em segurança cibernética, os operadores humanos estão elevando o nível de sua tomada de decisão. Em vez de tomar um número cada vez mais incontrolável de “microdecisões”, eles agora estabelecem as restrições e diretrizes que as máquinas de IA devem seguir ao tomar milhões de microdecisões granulares em escala. Como resultado, os humanos não gerenciam mais em um nível micro, mas em um nível macro: suas tarefas diárias tornam-se de nível superior e mais estratégicos, e eles são trazidos apenas para as solicitações mais essenciais de entrada ou ação.

Mas como será a relação entre humanos e IA? Abaixo, dissecamos quatro cenários descritos pela Harvard Business Review que estabelecem possibilidades de interação variada entre humanos e máquinas e exploramos como isso será no reino cibernético.

Humano no Loop (HitL)

Nesse cenário, o ser humano está, de fato, tomando a decisão e a máquina está fornecendo apenas recomendações de ações, bem como o contexto e as evidências de apoio por trás dessas decisões para reduzir o tempo para significado e o tempo para ação para aquele operador humano.

Nessa configuração, a equipe de segurança humana tem total autonomia sobre como a máquina age ou não.

Para que esta abordagem seja eficaz a longo prazo, são necessários recursos humanos suficientes. Freqüentemente, isso excederia em muito o que é realista para uma organização. No entanto, para as organizações que estão lidando com a tecnologia, esse estágio representa um passo importante na construção da confiança no mecanismo de resposta autônoma da IA.

Human in the Loop for Exceptions (HitLfE)

A maioria das decisões é tomada de forma autônoma neste modelo, e o humano lida apenas com exceções, onde a IA solicita algum julgamento ou entrada do humano antes que ele possa tomar a decisão.

Os humanos controlam a lógica para determinar quais exceções são sinalizadas para revisão e, com sistemas digitais cada vez mais diversificados e personalizados, diferentes níveis de autonomia podem ser definidos para diferentes necessidades e casos de uso.

Isso significa que a maioria dos eventos será acionada de forma autônoma e imediata pela resposta autônoma alimentada por IA, mas a organização permanece “no circuito” para casos especiais, com flexibilidade sobre quando e onde esses casos especiais surgem. Eles podem intervir, conforme necessário, mas devem permanecer cautelosos ao substituir ou recusar a ação recomendada pela IA sem uma revisão cuidadosa.

Humano no Loop (HotL)

Nesse caso, a máquina executa todas as ações e o operador humano pode revisar os resultados dessas ações para entender o contexto em torno dessas ações. No caso de um incidente de segurança emergente, esse arranjo permite que a IA contenha um ataque, enquanto indica a um operador humano que um dispositivo ou conta precisa de suporte, e é aí que eles são trazidos para remediar o incidente. Trabalho forense adicional pode ser necessário e, se o comprometimento ocorreu em vários locais, a IA pode escalar ou ampliar sua resposta.

Para muitos, isso representa o arranjo de segurança ideal. Dada a complexidade dos dados e a escala das decisões que precisam ser tomadas, simplesmente não é prático ter o humano no circuito (HitL) para cada evento e cada vulnerabilidade potencial.

Com esse arranjo, os humanos mantêm o controle total sobre quando, onde e em que nível o sistema atua, mas quando os eventos ocorrem, esses milhões de microdecisões são deixados para a máquina.

Humano fora do circuito (HootL)

Nesse modelo, a máquina toma todas as decisões e o processo de melhoria também é um circuito fechado automatizado. Isso resulta em um loop de feedback de autocorreção e autoaperfeiçoamento, onde cada componente da IA ​​alimenta e melhora o próximo, elevando o estado de segurança ideal.

Isso representa a abordagem definitiva para a segurança. É improvável que os operadores de segurança humana desejem que os sistemas autônomos sejam uma “caixa preta” – operando de forma totalmente independente, sem a capacidade das equipes de segurança de ter uma visão geral das ações que estão sendo executadas ou por quê. Mesmo que um humano esteja confiante de que nunca terá que intervir no sistema, ele sempre desejará supervisão. Consequentemente, à medida que os sistemas autônomos melhoram com o tempo, uma ênfase na transparência será importante. Isso levou a um impulso recente em inteligência artificial explicável (XAI), que usa processamento de linguagem natural para explicar a um operador humano, em linguagem cotidiana básica, por que a máquina realizou a ação que realizou.

Esses quatro modelos têm seus próprios casos de uso exclusivos, portanto, não importa qual seja a maturidade de segurança de uma empresa, o CISO e a equipe de segurança podem se sentir confiantes ao aproveitar as recomendações de um sistema, sabendo que ele faz essas recomendações e decisões com base em microanálise que vai muito além do escala que qualquer indivíduo ou equipe pode esperar de um ser humano nas horas que têm disponíveis. Dessa forma, organizações de qualquer tipo e tamanho, com qualquer caso de uso ou necessidade de negócios, poderão alavancar a tomada de decisões de IA da maneira que mais lhes convier, enquanto detectam e respondem autonomamente a ataques cibernéticos e evitam a interrupção que eles causam.

FONTE: DARK READING

POSTS RELACIONADOS