Avaliando o conhecimento adquirido da IA a partir do banco de dados de uma organização

Views: 108
0 0
Read Time:1 Minute, 47 Second

Pesquisadores da Universidade de Surrey desenvolveram um software que pode avaliar a quantidade de dados que um sistema de inteligência artificial (IA) adquiriu de um banco de dados digital de uma organização, em resposta ao crescente interesse global em sistemas de IA generativos.

Esse software de verificação pode ser usado como parte do protocolo de segurança on-line de uma empresa, ajudando uma organização a entender se uma IA aprendeu demais ou até mesmo acessou dados confidenciais.

O software também é capaz de identificar se a IA identificou e é capaz de explorar falhas no código do software. Por exemplo, em um contexto de jogos online, ele poderia identificar se uma IA aprendeu a sempre ganhar no poker online explorando uma falha de codificação.

“Em muitas aplicações, os sistemas de IA interagem uns com os outros ou com os seres humanos, como carros autônomos em uma rodovia ou robôs hospitalares. Descobrir o que um sistema inteligente de dados de IA sabe é um problema contínuo para o qual levamos anos para encontrar uma solução de trabalho”, disse o Dr. Solofomampionona Fortunat Rajaona, pesquisador em verificação formal de privacidade na Universidade de Surrey e principal autor do artigo.

“Nosso software de verificação pode deduzir o quanto a IA pode aprender com sua interação, se eles têm conhecimento suficiente para permitir uma cooperação bem-sucedida e se eles têm muito conhecimento que quebrará a privacidade. Através da capacidade de verificar o que a IA aprendeu, podemos dar às organizações a confiança para liberar com segurança o poder da IA em ambientes seguros”, acrescentou Rajaona.

O professor Adrian Hilton, diretor do Instituto de IA Centrada nas Pessoas da Universidade de Surrey, disse:

“Nos últimos meses, houve uma enorme onda de interesse do público e da indústria em modelos de IA generativos, alimentados por avanços em grandes modelos de linguagem, como o ChatGPT. A criação de ferramentas que possam verificar o desempenho da IA generativa é essencial para sustentar sua implantação segura e responsável. Esta pesquisa é um passo importante para manter a privacidade e a integridade dos conjuntos de dados usados no treinamento.”

FONTE: HELPNET SECURITY

POSTS RELACIONADOS