Os compromissos
“As empresas que estão desenvolvendo essas tecnologias emergentes têm a responsabilidade de garantir que seus produtos sejam seguros. Para aproveitar ao máximo o potencial da IA, o governo Biden-Harris está incentivando esse setor a manter os mais altos padrões para garantir que a inovação não prejudique os direitos e a segurança dos americanos”, observou o governo Biden- Harris .
Enquanto o governo trabalha em uma ordem executiva que imporá obrigações legais às empresas no campo da IA, essas sete empresas se comprometem a:
- Testar a segurança de seus sistemas de IA antes do lançamento (os testes serão feitos internamente e por especialistas independentes)
- Compartilhar conhecimento sobre as melhores práticas de gerenciamento de risco de IA entre si e com o governo
- Proteja pesos de modelos proprietários e inéditos – “a parte mais essencial de um sistema de IA” – investindo em segurança cibernética e proteções contra ameaças internas
- Facilite para terceiros detectar e relatar vulnerabilidades em seus sistemas de IA
- Certifique-se de que os usuários saibam inequivocamente quando o conteúdo (vídeo, áudio) é gerado por IA (por exemplo, com marcas d’água)
- Divulgue as capacidades, limitações e usos apropriados e inapropriados de seus sistemas de IA (e os riscos sociais e de segurança que eles carregam)
- Continue pesquisando os riscos sociais potenciais (preconceito, discriminação) do uso de IA e proteja a privacidade
- Crie sistemas avançados de IA para enfrentar os desafios mais significativos da sociedade (por exemplo, prevenção do câncer, mudança climática, combate a ameaças cibernéticas)
Lidando com os riscos apresentados pela IA
No documento oficial que descreve os oito compromissos, ele diz que eles “se aplicam apenas a modelos generativos que são, em geral, mais poderosos do que a atual fronteira da indústria (por exemplo, modelos que são, em geral, mais poderosos do que quaisquer modelos lançados atualmente, incluindo GPT-4, Claude 2, PaLM 2, Titan e, no caso de geração de imagens, DALL-E 2)”.
Essa disposição não combina com a organização sem fins lucrativos de pesquisa e defesa AlgorithmWatch, que apontou que os sistemas de IA atualmente disponíveis estão causando danos no momento. “Se as empresas concordam que é uma boa ideia aplicar essas precauções, elas não deveriam aplicá-las aos produtos que estão vendendo globalmente neste momento? Claro que deveriam!” eles disseram .
“A conscientização pública sobre a validação de informações provenientes da Internet é obrigatória”, observa James Campbell, CEO da Cado Security.
“Um problema com os LLMs em particular é que eles fornecem informações de maneira autoritária, muitas vezes incorretas (descritas como ‘alucinações’). Isso faz com que os usuários desses LLMs acreditem que têm conhecimento íntimo de uma área de assunto, mesmo em ocasiões em que foram enganados. Os usuários de LLMs precisam abordar os resultados de suas sugestões com uma grande dose de ceticismo e validação adicional de uma fonte alternativa. A orientação do governo para os usuários deve enfatizar isso até que os resultados sejam mais confiáveis.”
“Os ‘testes’ mencionados no comunicado provavelmente giram em torno da segurança interna dos desenvolvedores de IA e do impacto social mais amplo das próprias tecnologias”, acrescentou.
“Existe muito potencial para problemas de privacidade decorrentes do uso de tecnologias de IA, especialmente em torno de Large Language Models (LLMs), como o ChatGPT. A própria OpenAI divulgou uma vulnerabilidade no ChatGPT que inadvertidamente fornecia acesso aos títulos de conversas de outros usuários. Claramente, isso tem sérias implicações de segurança de dados para os usuários desses LLMs. De maneira mais geral, as empresas podem ser solicitadas a realizar uma avaliação de risco de uma perspectiva de impacto social antes de lançar tecnologias habilitadas para IA”.
Mas, de acordo com o CISO da Abnormal Security, Mike Britton, quando finalmente promulgada, a regulamentação mais significativa será sobre ética, transparência e garantias de como a IA opera.
“Qualquer boa solução de IA também deve permitir que um ser humano tome a decisão final quando se trata de executar (e potencialmente desfazer) quaisquer ações realizadas pela IA”, disse ele ao Help Net Security.
Trabalhando em sistemas de IA seguros, confiáveis e éticos
A administração publicou anteriormente um projeto para uma declaração de direitos de IA , destinada a proteger os cidadãos americanos dos riscos que os sistemas de IA podem representar, como preconceito e discriminação.
Eles identificaram cinco princípios que orientam o projeto, uso e implantação de tais sistemas:
- Proteção contra sistemas inseguros ou ineficazes
- Proteção contra discriminação algorítmica
- Proteção de privacidade de dados
- Aviso e explicação sobre os sistemas utilizados
- Disponibilidade de uma alternativa humana para sistemas automatizados
Para proteger o público da discriminação algorítmica, o presidente Biden assinou uma Ordem Executiva para instar as agências federais a combater o viés no desenvolvimento e implementação de tecnologias emergentes, como a IA.
Com a intenção de reforçar a pesquisa e o desenvolvimento de IA, o governo também investiu US$ 140 milhões na National Science Foundation para lançar sete novos Institutos Nacionais de Pesquisa em IA (aumentando os 18 existentes).
FONTE: HELP NET SECURITY