Explorando a IA: Regulamentações e Mitigação de Ameaças 20 de agosto de 2024

Views: 197
0 0
Read Time:7 Minute, 15 Second

Por Tim Phipps Tim Phipps | Diretor de Alianças na Nuvem da Thales

É algo que todos nós ouvimos repetidamente, mas é um ponto que vale a pena enfatizar: a IA moldará o futuro da humanidade. Esse fato não passa despercebido pelos legisladores, que estão reagindo de acordo.

Em outubro de 2022, os EUA lançaram seu Blueprint for an AI Bill of Rights. Embora o Blueprint ainda seja apenas isso, um esboço sem respaldo legal, o fato de os EUA terem escolhido chamar esse framework de “Bill of Rights” reflete a seriedade com que o Governo dos EUA encara a IA.

De forma semelhante, em maio de 2024, o Conselho Europeu aprovou o Artificial Intelligence Act, o primeiro framework legal sobre IA. O Ato foi publicado no Jornal Oficial da UE em 12 de julho e entrará em vigor em 1º de agosto. Ele impõe requisitos às empresas que projetam e/ou utilizam IA na União Europeia e fornece uma forma de avaliar os níveis de risco.

Mas vamos analisá-los com um pouco mais de detalhe.

Por que Precisamos de uma Regulamentação de IA

Essas regulamentações foram introduzidas em parte em resposta a vários incidentes controversos envolvendo IA que ocorreram nos últimos anos. O Blueprint for an AI Bill of Rights explica áreas de potencial vulnerabilidade; por exemplo, em fevereiro de 2024, a Air Canada foi condenada a pagar indenização a um passageiro após seu assistente virtual fornecer informações incorretas sobre tarifas de voo. O Tribunal Canadense afirmou que a companhia aérea não tomou “cuidado razoável para garantir que seu chatbot fosse preciso”. O Blueprint dos EUA visa garantir que chatbots baseados em IA (e outros sistemas de IA) sejam confiáveis e que as empresas entendam que são responsáveis pelas decisões tomadas por esses sistemas.

De forma semelhante, a seção “sistemas seguros e eficazes” do Blueprint visa prevenir, em parte, sistemas ineficazes, como o infeliz chatbot de atendimento ao cliente da DPD. No início de 2024, a usuária do X Ashley Beauchamp descobriu que o chatbot não conseguia responder nem mesmo às perguntas mais simples de atendimento ao cliente, mas era capaz de escrever um poema rudimentar sobre o quão ruim era.

O Ato de IA da UE, no entanto, destaca a importância de reconhecer que a IA ainda está em sua relativa infância e deve ser tratada com níveis apropriados de cautela (tanto em termos de entradas quanto de saídas) com base no uso e no risco de implantação.

Blueprint for an AI Bill of Rights 

O Blueprint for an AI Bill of Rights dos EUA delineia cinco princípios e práticas para garantir o uso seguro e equitativo dos sistemas automatizados. Eles estão listados abaixo, juntamente com alguns exemplos do mundo real para contexto:

  • Sistemas Seguros e Eficazes – Os sistemas devem passar por testes pré-implantação, identificação e mitigação de riscos, e monitoramento contínuo que demonstre que são seguros e eficazes com base em seu uso pretendido.
  • Proteções Contra Discriminação Algorítmica – Designers, desenvolvedores e operadores de sistemas automatizados devem tomar medidas proativas e contínuas para proteger indivíduos e comunidades contra discriminação algorítmica e para usar e projetar sistemas de maneira equitativa.
  • Privacidade de Dados – Indivíduos devem ser protegidos contra práticas abusivas de dados por meio de proteções embutidas e ter autonomia sobre como os dados pessoais são utilizados. Designers, desenvolvedores e operadores devem buscar permissão dos indivíduos com um pedido de consentimento breve e acessível e respeitar suas decisões sobre coleta, uso, acesso, transferência e exclusão de dados.
  • Aviso e Explicação – Indivíduos devem ser notificados quando um sistema automatizado é usado e devem ser explicados como e por que ele contribui para resultados que os afetam.
  • Alternativas Humanas, Consideração e Alternância – Indivíduos devem poder optar por sair quando apropriado e ter acesso a alguém que possa rapidamente considerar e remediar quaisquer problemas.

Artificial Intelligence Act (EU AI Act) 

O Artificial Intelligence Act (EU AI Act) adota uma abordagem baseada em risco para regular a IA, definindo quatro níveis de risco para sistemas de IA:

Risco Inaceitável – Sistemas de IA considerados uma ameaça clara à segurança, aos meios de subsistência e aos direitos das pessoas serão banidos. Isso inclui uma ampla gama de cenários, como pontuação social por governos, ou brinquedos que utilizam assistência por voz e incentivam comportamentos perigosos.

Alto Risco – Inclui, mas não se limita a, tecnologia de IA usada em infraestruturas críticas, serviços privados e públicos essenciais, e gestão de migração, asilo e controle de fronteiras. Esses sistemas de IA estão sujeitos às seguintes obrigações antes de poderem ser colocados no mercado:

  • Avaliação e mitigação de riscos adequados;
  • Alta qualidade dos conjuntos de dados que alimentam o sistema para minimizar riscos e resultados discriminatórios;
  • Registro de atividades para garantir a rastreabilidade dos resultados;
  • Documentação detalhada fornecendo todas as informações necessárias sobre o sistema e seu propósito para que as autoridades possam avaliar sua conformidade;
  • Informações claras e adequadas ao operador;
  • Medidas de supervisão humana apropriadas para minimizar riscos;
  • Alto nível de robustez, segurança e precisão.

Risco Limitado – Relaciona-se principalmente com a transparência no uso da IA; por exemplo, garantir que os humanos sejam informados ao interagir com um chatbot ou que o conteúdo gerado por IA seja identificável.

Risco Mínimo – Sistemas de IA de risco mínimo, como videogames habilitados para IA ou filtros de spam, são permitidos livremente sob o Ato. O denominador comum em ambos os frameworks é o conceito de segurança e proteção. Vamos examinar as ameaças mais comuns às plataformas de IA e como as empresas podem mitigá-las.

Ameaças às Plataformas de IA 

As ameaças emergentes às plataformas de IA pairam sobre as equipes de cibersegurança, deixando seus ambientes corporativos vulneráveis a ataques e perda de dados. As duas ameaças mais comuns aos sistemas de IA são:

Roubo de Modelos – Quando um atacante tenta roubar o modelo de aprendizado de máquina de uma plataforma de IA. Técnicas comuns incluem consultar o modelo-alvo e usar as respostas para criar uma réplica ou roubar dados de treinamento para treinar um novo modelo que reproduza o comportamento do modelo-alvo. Isso permitiria que partes não autorizadas usassem um modelo de aprendizado de máquina sem licença, resultando potencialmente em perda de receita.

Envenenamento de Dados – Introduzindo dados maliciosos para corromper os dados de treinamento de um modelo de IA de forma que o modelo aprenda informações tendenciosas ou incorretas. Essas informações falsas criam vulnerabilidades que os atacantes podem explorar para lançar ataques futuros em um modelo intencionalmente corrompido ou para extrair dados sensíveis não autorizados.

Mitigação das Ameaças às Plataformas de IA

Para proteger contra o roubo de modelos, as organizações devem controlar o acesso aos seus modelos de máquina. A melhor maneira de conseguir isso é por meio de criptografia e proteção das chaves de criptografia associadas. Criptografar um modelo e controlar rigorosamente o acesso às chaves de criptografia com base na aplicação de autenticação forte, papéis e políticas, garante que apenas usuários autorizados possam acessá-lo, impedindo que atacantes analisem a estrutura do modelo e, em última instância, a repitam. Da mesma forma, um sistema robusto de licenciamento impedirá que usuários não autorizados acessem o modelo.

Para mitigar o envenenamento de dados, as organizações devem monitorar, avaliar e depurar o software de IA. Isso envolve selecionar, verificar e limpar cuidadosamente os dados antes de usá-los para treinar ou testar modelos de IA e evitar o uso de fontes de dados não confiáveis ou descontroladas, como crowdsourcing ou scraping da web. Uma governança de dados forte também é essencial para prevenir ataques de envenenamento de dados.

As organizações devem considerar a construção de modelos de IA Confidenciais, que permitiriam executar processos de IA dentro de um ambiente de computação confidencial confiável com total segurança. Nesse esquema, a segurança e a integridade do ambiente de execução de hardware, bem como dos dados e aplicativos em execução, são atestadas de forma independente por uma terceira parte para confirmar que não foram comprometidas.

A Thales está permitindo que sua plataforma de segurança de dados CipherTrust (CDSP) suporte a Proteção de Dados de Ponta a Ponta (E2EDP) em chips Intel TDX que oferecem serviços de Computação Confidencial (CC) fornecidos pelo Google Cloud e Microsoft Azure. Nessa arquitetura, a atestação independente da nuvem é fornecida pela Intel Trust Authority e, posteriormente, verificada pela Thales.

Da mesma forma, Thales e Imperva uniram forças para fornecer segurança para um mundo impulsionado pela nuvem, dados e software. Confira nossas soluções de Proteção e Licenciamento na Nuvem para proteger seu sistema de IA hoje mesmo.

Esse artigo tem informações retiradas do blog da Thales. A Neotel é parceira da Thales e, para mais informações sobre as soluções e serviços da empresa, entre em contato com a gente.

POSTS RELACIONADOS