Novas iniciativas de IA da Casa Branca incluem evento de verificação de software de IA no DEF CON

Views: 358
0 0
Read Time:4 Minute, 15 Second

A Casa Branca anunciou esta semana novas ações para promover a inovação responsável em IA que terão implicações significativas para a cibersegurança.

As ações visam abordar o espectro de preocupações em torno da IA, incluindo seu impacto econômico e seu potencial de discriminação. Mas as medidas do governo enfatizaram os riscos cibernéticos da inteligência artificial.

Mais notavelmente, a Casa Branca organizou os principais desenvolvedores do país para um evento no próximo AI Village no DEF CON 31 em agosto, no qual seus algoritmos serão expostos a uma verificação rigorosa do público.

“Está chamando a atenção”, diz Chenxi Wang, chefe da Rain Capital. “Eles estão basicamente dizendo: ‘Olha, a confiabilidade da IA agora é uma questão de segurança nacional’.”

Ações para a IA Cibersegura

Mais do que qualquer governo anterior, a Casa Branca Biden-Harris se manifestou e projetou políticas para conter a IA.

Outubro trouxe o “Plano para uma Declaração de Direitos de IA” e ações executivas associadas. Em janeiro, a National Science Foundation traçou um plano para um Recurso Nacional de Pesquisa em Inteligência Artificial, que agora está se concretizando. Em março, o Instituto Nacional de Padrões e Tecnologia (NIST) lançou sua estrutura de gerenciamento de risco de IA.

As novas políticas de IA deixam claro que, entre todos os outros riscos, a segurança cibernética deve estar em primeiro lugar quando se pensa em IA.

“O governo também está trabalhando ativamente para abordar as preocupações de segurança nacional levantadas pela IA, especialmente em áreas críticas como segurança cibernética, biossegurança e segurança”, diz o anúncio da Casa Branca. “Isso inclui contar com o apoio de especialistas em segurança cibernética do governo de toda a comunidade de segurança nacional para garantir que as principais empresas de IA tenham acesso às melhores práticas, incluindo a proteção de modelos e redes de IA.”

Claro que dizer é uma coisa e fazer é outra. Para mitigar o risco cibernético em IA, a National Science Foundation financiará sete novos Institutos Nacionais de Pesquisa em IA que, entre outras áreas, fornecerão pesquisas no campo da cibersegurança de IA.

Evento DEF CON AI Village

O governo disse que tem “compromisso independente” de algumas das principais empresas de IA do país “para participar de uma avaliação pública de sistemas de IA, consistente com os princípios de divulgação responsável” no DEF CON 31. Entre os participantes estão Anthropic, Google, Hugging Face, Microsoft, Nvidia, OpenAI e Stability AI.

O objetivo será jogar luz sobre a proverbial caixa preta, revelando as falhas algorítmicas que permitem discriminação racial, risco de segurança cibernética e muito mais. “Isso permitirá que esses modelos sejam avaliados minuciosamente por milhares de parceiros comunitários e especialistas em IA”, explicou a Casa Branca. “O teste de modelos de IA independentes do governo ou das empresas que os desenvolveram é um componente importante em sua avaliação eficaz.”

“Todas essas iniciativas públicas – DEF CON, centros de pesquisa e assim por diante – realmente chamam a atenção para o problema”, diz Wang. “Precisamos estar realmente cientes de como avaliar a IA e, no final, confiar nos resultados desses modelos ou não.”

Ameaças iminentes de IA

Hackers intermediários já atacaram a IA, com vídeos do YouTube gerados automaticamente que espalham malware, ataques de phishing imitando o ChatGPT, malware desenvolvido por meio do ChatGPT e muitos outros métodos criativos.

Mas o problema real com a IA é muito maior e mais ameaçador existencialmente para o futuro de uma Internet segura. A IA pode um dia permitir que hackers – ou mesmo aqueles sem habilidade técnica – espalhem malware em escalas nunca antes vistas, de acordo com especialistas. Isso permitirá que os malfeitores projetem iscas de phishing mais atraentes, malware mais avançado e adaptável, até mesmo cadeias de ataque inteiras. E à medida que se torna ainda mais integrado em todas as partes da vida cotidiana de civis e organizações, nossos sistemas benignos de IA expandirão a superfície de ataque cibernético para além de seu estado já inchado.

O potencial de dano também não termina aí.

“Na minha opinião”, diz Wang, “a maior ameaça é a desinformação. Dependendo de quais dados você coleta no treinamento de seu modelo e quão robusto ele é, isso pode levar ao uso sério de desinformação na tomada de decisões e outros resultados ruins que podem ter impactos duradouros.”

O governo pode mesmo começar a resolver esse problema?

Wang acredita que sim. “No momento em que você coloca dinheiro e valores de contrato por trás de uma iniciativa, ela tem dentes”, diz ela, citando a influência particular do Escritório de Gestão e Orçamento (OMB). Como parte das notícias de 4 de maio, a OMB revelou que divulgará um esboço de orientação política sobre o uso de IA dentro do governo.

“Assim que a OMB anunciar suas políticas”, continua ela, “todos que estão vendendo para o governo federal, que podem ter IA em seus produtos ou tecnologias, terão que aderir a essas políticas. E então isso se tornará uma prática regular em toda a indústria.”

“Então”, conclui, “estou muito esperançosa”.

FONTE: DARK READING

POSTS RELACIONADOS