Na era da tomada de decisões baseada em dados, as empresas estão aproveitando o poder do aprendizado de máquina (ML) para desbloquear insights valiosos, obter eficiência operacional e solidificar a vantagem competitiva.
Embora os desenvolvimentos recentes na inteligência artificial generativa (IA) tenham aumentado uma consciência sem precedentes sobre o poder da IA/ML, também iluminaram a necessidade fundamental de privacidade e segurança. Grupos como IAPP, Brookings e a recente estrutura AI TRiSM do Gartner delinearam considerações importantes para organizações que buscam alcançar os resultados de negócios disponíveis exclusivamente por meio da IA, sem aumentar seu perfil de risco.
Na vanguarda desses imperativos está a segurança do modelo de ML. Abordando diretamente esta área-chave, a aprendizagem automática que preserva a privacidade surgiu como um caminho para garantir que os utilizadores possam capitalizar todo o potencial das aplicações de ML neste campo cada vez mais importante.
Usando aprendizado de máquina para gerar insights
Os modelos de aprendizado de máquina são algoritmos que processam dados para gerar insights significativos e informar decisões críticas de negócios. O que torna o ML notável é sua capacidade de aprender e melhorar continuamente. Quando um modelo é treinado em conjuntos de dados novos e díspares, ele se torna mais inteligente com o tempo, resultando em insights cada vez mais precisos e valiosos que antes eram inacessíveis. Esses modelos podem então ser usados para gerar insights a partir de dados, o que é conhecido como avaliação ou inferência de modelo.
Para fornecer os melhores resultados, os modelos precisam aprender e/ou ser aproveitados em uma variedade de fontes de dados ricas. Quando essas fontes de dados contêm informações confidenciais ou proprietárias, usá-las para treinamento ou avaliação/inferência de modelos de aprendizado de máquina levanta preocupações significativas de privacidade e segurança. Qualquer vulnerabilidade do próprio modelo torna-se um passivo para a entidade que o utiliza, o que significa que esta capacidade que prometia fornecer insights acionáveis e que melhoram os negócios está agora aumentando o perfil de risco da organização.
Esta questão é uma das principais barreiras que impedem hoje uma utilização mais ampla do BC. As empresas enfrentam o desafio de equilibrar os benefícios do BC com a necessidade de proteger os seus interesses e cumprir os requisitos regulamentares e de privacidade em constante evolução.
Vulnerabilidades em modelos de ML
Vulnerabilidades em modelos de ML normalmente levam a duas macrocategorias de vetores de ataque: inversão de modelo e falsificação de modelo.
Os ataques de inversão de modelo envolvem direcionar o próprio modelo para fazer engenharia reversa dos dados sobre os quais ele foi treinado – dados que provavelmente são confidenciais e, portanto, valiosos para o invasor. Isso pode incluir informações de identificação pessoal (PII), propriedade intelectual (IP) e outras informações confidenciais ou regulamentadas que, se expostas, podem causar estragos na organização.
A falsificação de modelo, por outro lado, representa uma forma de aprendizado de máquina adversário em que um invasor tenta enganar o modelo manipulando os dados de entrada de tal maneira que o modelo tome decisões incorretas alinhadas com as intenções do invasor. Este processo envolve observar cuidadosamente ou “aprender” o comportamento do modelo e subsequentemente alterar os dados de entrada (de uma forma que muitas vezes é imperceptível) para enganar o modelo para que tome decisões que sejam vantajosas para os seus objectivos. Ambos os ataques têm como alvo vulnerabilidades relacionadas aos pesos do modelo, uma parte essencial de um modelo de ML. Como tal, a necessidade crítica de dar prioridade à protecção do peso do modelo foi destacada durante a recente discussão convocada pela Casa Branca sobre o risco da IA .
Usando tecnologias que melhoram a privacidade
O aprendizado de máquina que preserva a privacidade usa avanços nas tecnologias de aprimoramento da privacidade (PETs) para enfrentar essas vulnerabilidades de frente. PETs são uma família de tecnologias que preservam e melhoram a privacidade e a segurança dos dados durante todo o seu ciclo de vida de processamento, permitindo de forma única o uso seguro e privado de dados. Essas tecnologias poderosas permitem que as empresas criptografem modelos de ML confidenciais, executem-nos e/ou treinem-nos e extraiam insights valiosos, ao mesmo tempo que eliminam o risco de exposição. As empresas podem aproveitar com segurança fontes de dados diferentes, inclusive através de fronteiras organizacionais e domínios de segurança, mesmo quando há interesses competitivos envolvidos.
Dois pilares notáveis da família PETs que permitem ML seguro e privado são a criptografia homomórfica e a computação multipartidária segura (SMPC).
A criptografia homomórfica é uma tecnologia que permite às empresas realizar cálculos criptografados nos dados, preservando assim a privacidade do conteúdo da pesquisa ou análise. Ao criptografar homomorficamente os modelos de ML, as organizações podem executá-los ou avaliá-los em fontes de dados confidenciais sem expor os dados do modelo subjacente, permitindo que modelos treinados em dados confidenciais sejam aproveitados fora dos limites de seu ambiente confiável.
Usando o SMPC, as organizações podem treinar modelos de forma criptografada, protegendo o processo de desenvolvimento do modelo, os dados usados para treinamento e os interesses e intenções das partes envolvidas. Os modelos podem ser treinados de forma colaborativa em dados confidenciais, sem risco de exposição. Essa abordagem aos modelos de treinamento garante privacidade, segurança e confidencialidade, ao mesmo tempo que aproveita o poder coletivo de diversos conjuntos de dados para aumentar a precisão e a eficácia dos modelos de aprendizado de máquina.
Conclusão
A crescente dependência da aprendizagem automática para melhorar a atividade empresarial não é uma tendência passageira – nem o são os riscos significativos associados aos modelos de ML. Uma vez estabelecido o valor central que a IA/ML pode oferecer à organização, construir e instrumentar para segurança, risco e governança é o próximo passo para a adoção.
Os avanços nos PETs estão proporcionando um caminho promissor. O aprendizado de máquina que preserva a privacidade permite que as organizações liberem com segurança todo o potencial do ML, ao mesmo tempo que mantêm a privacidade, cumprem as diretivas regulatórias e protegem dados confidenciais. Ao adotar essa abordagem voltada para a segurança, as organizações podem navegar com confiança no cenário orientado por dados , aproveitando insights valiosos e, ao mesmo tempo, mantendo a confiança dos clientes e das partes interessadas.
FONTE: HELP NET SECURITY