A IA é tendenciosa. A Casa Branca está trabalhando com hackers para tentar consertar isso

Views: 206
0 0
Read Time:3 Minute, 51 Second

A MARTÍNEZ, ANFITRIÃO:

A Casa Branca está preocupada com os riscos da inteligência artificial, incluindo o risco de que esta nova tecnologia possa ser usada para discriminar. Então, eles convidaram um grupo de hackers para ver que tipo de preconceitos estão embutidos na IA. Deepa Shivaram da NPR viu em primeira mão e nos trouxe este relatório.

DEEPA SHIVARAM, BYLINE: Estou em um centro de conferências excessivamente climatizado em Las Vegas, entre um robô zumbindo no chão e fileiras de mesas montadas com laptops abertos. E do lado de fora desta sala, há uma longa fila de cerca de cem pessoas esperando para entrar. Esta é a DEF CON, a maior convenção de hackers do mundo. E este é o primeiro ano em que a IA está na frente e no centro. Essas pessoas estão prestes a participar do maior desafio público de equipes vermelhas de todos os tempos. O objetivo? Fazer com que a tecnologia quebre as regras fazendo todo tipo de perguntas e ver como é fácil fazer com que ela diga coisas inadequadas, ilegais ou tendenciosas.

KELSEY DAVIS: Como tentamos quebrá-lo para que possamos encontrar todas essas torções e para que outras pessoas não o façam?

SHIVARAM: Essa é Kelsey Davis. Ela está aqui com o grupo chamado Black Tech Street. É uma organização sem fins lucrativos com sede em Tulsa, Oklahoma, e tem como objetivo ajudar o desenvolvimento econômico dos negros por meio da tecnologia. O racismo e a discriminação na IA não são algo novo. Em 2015, por exemplo, o Google Fotos, que usa inteligência artificial, rotulava fotos de negros como gorilas. As empresas de tecnologia tentaram fazer mudanças, mas o problema subjacente permanece. Há uma falta de diversidade de dados sendo usados ​​e uma falta de diversidade entre as pessoas que projetaram a tecnologia em primeiro lugar.

PESSOA NÃO IDENTIFICADA: Você precisava me devolver isso, senhor?

SHIVARAM: A maioria das pessoas aqui são brancas e a maioria são homens. Mas os organizadores convidaram grupos como o Black Tech Street para ter mais representação neste desafio. Aqui está Denzel Wilson com SeedAI, um dos organizadores do evento.

DENZEL WILSON: É importante quando você tem, você sabe, pessoas da minoria negra e parda chegando, fazendo esses desafios, e fazendo instruções que esses modelos não estão acostumados a ver. Então, quanto mais conseguirmos evoluir isso e mais conseguirmos obter respostas mais inovadoras, isso será muito importante para todos os envolvidos, especialmente para as empresas que constroem os modelos, porque agora elas entendem melhor o que precisam fazer. para aliviar o preconceito.

SHIVARAM: Volto a falar com Kelsey cerca de 20 minutos após o início do desafio, e ela está se sentindo muito realizada porque acabou de fazer o chatbot dizer algo realmente racista sobre blackface.

DAVIS: Mas, você sabe, isso é bom porque significa que eu quebrei.

SHIVARAM: O processo não é exatamente simples. Ela começou perguntando as definições do chatbot.

DAVIS: Eu perguntei a ele coisas como, o que é blackface? Blackface está errado?

SHIVARAM: Conseguiu responder a essas perguntas básicas, mas continuou pressionando. Ela perguntou ao chatbot como uma criança branca poderia convencer seus pais a deixá-los ir para uma HBCU, uma faculdade historicamente negra. A resposta foi dizer que eles podiam correr rápido e dançar bem – perpetuando o estereótipo de que todos os negros podem correr rápido e dançar bem. Kelsey envia a conversa que teve com o chatbot para empresas de tecnologia. Eles podem usá-lo para ajustar sua programação para que essa resposta não apareça novamente.

Mas, no geral, estes casos representam apenas uma pequena fração das ameaças que a IA pode representar para grupos marginalizados. A IA tem o potencial de exacerbar a discriminação em coisas como a vigilância policial contra pessoas negras e pardas na tomada de decisões financeiras e nas oportunidades de habitação. Arati Prabhakar também está na DEF CON. Ela é chefe do Escritório de Política Científica e Tecnológica da Casa Branca e está procurando soluções para garantir que a IA seja segura, protegida e equitativa.

ARATI PRABHAKAR: Esta é uma prioridade. Está se movendo rápido. Isso afetará a vida dos americanos de muitas maneiras diferentes.

SHIVARAM: Prabhakar e outras autoridades têm se reunido com líderes dos direitos civis, sindicatos e outros grupos há meses para falar sobre IA. Seus esforços aparecerão em uma ordem executiva que o presidente Biden emitirá sobre o gerenciamento de IA, que deverá ser publicada em setembro. Deepa Shivaram, NPR News.

FONTE: NPR

POSTS RELACIONADOS