Repensando uma IA mais segura: pode realmente haver um “TruthGPT”?

Views: 141
0 0
Read Time:7 Minute, 44 Second

As preocupações com o viés nas ferramentas emergentes de inteligência artificial (IA) receberam um novo ar recentemente, quando o bilionário Elon Musk falou sobre seus planos de criar uma “IA máxima de busca da verdade” como uma alternativa ao ChatGPT da OpenAI, apoiado pela Microsoft, e às tecnologias Bard do Google.

Em uma entrevista com Tucker Carlson, da Fox News, no início deste mês, Musk expressou preocupação com o que ele descreveu como ChatGPT sendo treinado para mentir e ser politicamente correto, entre outras coisas. Ele descreveu o chamado “TruthGPT” como uma terceira opção que seria improvável de “aniquilar os seres humanos” e ofereceria o “melhor caminho para a segurança” em comparação com as outras ferramentas de IA generativas.

Musk não ofereceu nenhum cronograma para seu chatbot planejado. Mas ele já estabeleceu uma nova empresa de IA chamada X.AI e supostamente começou a contratar funcionários de IA do criador do ChatGPT, OpenAI, bem como do Google e de sua controladora, a Alphabet.

Enquanto isso, é claro, o viés da IA também afeta o risco de segurança cibernética.

Surgindo uma preocupação familiar

Os comentários de Musk a Carlson ecoaram alguns dos sentimentos que ele e centenas de outros líderes de tecnologia, especialistas em ética e acadêmicos expressaram em uma carta aberta às empresas de IA em março. A carta instou as organizações envolvidas em pesquisa e desenvolvimento de IA a pausar seu trabalho por pelo menos seis meses, para que os formuladores de políticas tenham a oportunidade de colocar algumas grades de proteção em torno do uso da tecnologia. Ao fazer seu argumento, Musk e os outros apontaram para o potencial de ferramentas de IA tendenciosas inundando “nossos canais de informação com propaganda e inverdade” como uma de suas principais preocupações.

Suzannah Hicks, estrategista de dados e cientista da Associação Internacional de Profissionais de Privacidade (IAPP), diz que o problema fundamental com o viés na IA e no aprendizado de máquina é que ele decorre da tomada de decisões humanas. Todos os modelos de IA aprendem com conjuntos de dados extremamente grandes e não são programados explicitamente para responder de maneiras específicas. Normalmente, o viés acontece nos dados que os humanos escolhem inserir no modelo.

“Se dados tendenciosos forem inseridos no modelo, a saída provavelmente também conterá viés”, diz Hicks. “O viés também pode ser introduzido por meio da omissão de dados ou por cientistas de dados que escolhem uma variável como proxy para algo diferente do que é o elemento de dados”, diz ela. Como exemplo, Hicks aponta para um algoritmo de aprendizado de máquina que pode levar o número de “cliques” que um usuário faz ao navegar na Netflix como um proxy para um indicador positivo. “Posso estar clicando em filmes para ler sua descrição e decidir que não gosto, mas o modelo pode interpretar mal o clique como um indicador de um ‘like'”, diz ela.

Da mesma forma, um serviço de empréstimo que usa IA para determinar a elegibilidade de crédito pode acabar negando um número desproporcionalmente alto de empréstimos a pessoas em um CEP de alta criminalidade se o CEP fizer parte do conjunto de dados no modelo de aprendizado da ferramenta de IA. “Nesse caso, o CEP está sendo usado como um proxy para o comportamento humano e, ao fazê-lo, produz um resultado tendencioso”, diz Hicks.

Andrew Barratt, vice-presidente da Coalfire, diz que seu próprio teste de uma ferramenta de geração de texto para imagem forneceu um exemplo do viés que existe nas tecnologias emergentes de IA. Quando ele pediu à ferramenta para gerar uma imagem fotorrealista de um homem feliz desfrutando do sol, a ferramenta apenas gerou tons de pele caucasianos e características, embora a entrada que ele forneceu não contivesse nenhum contexto racial. Ele diz que uma preocupação daqui para frente é que os provedores de plataformas de IA que buscam monetizar suas tecnologias possam introduzir preconceitos em seus modelos de uma maneira favorável aos anunciantes ou provedores de plataforma.

Sempre que você monetiza um serviço, normalmente deseja maximizar o potencial de monetização com qualquer evolução adicional desse serviço, diz Krishna Vishnubhotla, vice-presidente de estratégia de produtos da Zimperium. Muitas vezes, essa evolução pode começar a se desviar dos objetivos originais ou do caminho da evolução – uma preocupação que Musk vocalizou sobre o ChatGPT em sua entrevista com Carlson. “Aqui reside a questão sobre a qual Elon fala”, diz Vishnubhotla.

Viés de segurança cibernética em Inteligência Artificial

Embora Musk et al não tenham chamado especificamente as implicações do viés da IA na segurança cibernética, esse tem sido um tópico há algum tempo, e vale a pena revisitar na era do ChatGPT. Como Aarti Borkar, ex-executivo da IBM e da Microsoft e agora com um fundo de capital de risco, observou em uma coluna inovadora para a Fast Company em 2019, com a IA se tornando uma ferramenta de segurança principal, o viés é uma forma de risco.

“Quando os modelos de IA são baseados em falsas suposições de segurança ou vieses inconscientes, eles fazem mais do que ameaçar a postura de segurança de uma empresa”, escreveu Borkar. “A IA que é ajustada para qualificar o tráfego de rede benigno ou malicioso com base em fatores não relacionados à segurança pode perder ameaças, permitindo que elas valsem na rede de uma organização. Ele também pode bloquear demais o tráfego de rede, exceto o que pode ser comunicações críticas para os negócios.”

Com o ChatGPT sendo entusiasticamente introduzido em produtos de segurança cibernética, o risco de viés oculto defeituoso pode contribuir ainda mais para falsos positivos, abuso de privacidade e defesa cibernética que tem buracos abertos. E, para começar, os cibercriminosos também podem envenenar a IA para influenciar os resultados de segurança.

“Se a IA fosse hackeada e manipulada para fornecer informações que são aparentemente objetivas, mas na verdade são informações tendenciosas bem disfarçadas ou uma perspectiva distorcida, então a IA poderia se tornar perigosa … máquina”, de acordo com a Harvard Business Review.

Então, a questão se torna se realmente pode haver uma IA completamente imparcial e o que seria necessário para chegar lá.

Eliminando o viés na IA

O primeiro passo para eliminar o viés de dados é entender o potencial disso na IA e no aprendizado de máquina, diz Hicks. Isso significa entender como e quais variáveis de dados são incluídas em um modelo.

Muitos dos chamados modelos de “caixa preta”, como redes neurais e árvores de decisão, são projetados para aprender padrões de forma independente e tomar decisões com base em seus conjuntos de dados. Eles não exigem que o usuário ou mesmo o desenvolvedor entenda completamente como ele pode ter chegado a uma conclusão específica, diz ela.

“A IA e a inclinação de máquinas dependem muito de modelos de caixa-preta, porque podem lidar com grandes quantidades de dados e produzir resultados muito precisos”, observa Hicks. “Mas é importante lembrar que eles são exatamente isso – caixas-pretas – e não temos compreensão de como eles chegam ao resultado fornecido.”

Os autores de um post no blog do Fórum Econômico Mundial em outubro passado argumentaram que a ciência de dados de código aberto (OSDS) – onde as partes interessadas colaboram de maneira transparente – pode ser uma maneira de combater o viés na IA. Assim como o software de código aberto transformou o software, o OSDS pode abrir os dados e modelos que as ferramentas de IA usam, disseram os autores. Quando os dados e os modelos de IA estão abertos, os cientistas de dados teriam a oportunidade de “identificar bugs e ineficiências e criar modelos alternativos que priorizam várias métricas para diferentes casos de uso”, escreveram.

Trajetória de classificação de risco de IA proposta pela UE

Lei de Inteligência Artificial proposta pela União Europeia está adotando outra abordagem. Exige um sistema de classificação de IA no qual as ferramentas de IA sejam classificadas com base no nível de risco que apresentam para a saúde, a segurança e os direitos fundamentais de um indivíduo. As tecnologias de IA que apresentam um risco inaceitavelmente alto, como sistemas de identificação biométrica em tempo real, seriam banidas. Aqueles considerados como apresentando risco limitado ou mínimo, como videogames e filtros de spam, estariam sujeitos a alguma supervisão básica. Projetos de IA de alto risco, como veículos autônomos, estariam sujeitos a rigorosos requisitos de teste e mostrariam evidências de adesão a padrões específicos de qualidade de dados. Ferramentas de IA generativa, como o ChatGPT, também estariam sujeitas a alguns desses requisitos.

A abordagem do NIST

Nos EUA, o Instituto Nacional de Padrões e Tecnologia (NIST) recomendou que as partes interessadas ampliem o escopo de onde olham ao procurar fontes de viés na IA. Além dos processos de aprendizado de máquina e dos dados usados no treinamento de ferramentas de IA, a indústria deve considerar os fatores sociais e humanos, disse o NIST em uma publicação especial sobre a necessidade de padrões para identificar e gerenciar o viés na IA.

“O viés não é novo nem exclusivo da IA e não é possível alcançar o risco zero de viés em um sistema de IA”, observou o NIST. Para mitigar parte do risco, o NIST desenvolverá padrões para “identificar, entender, medir, gerenciar e reduzir o viés”.

FONTE: DARK READING

POSTS RELACIONADOS