Comissão Federal de Comércio dos EUA pede à empresa que forneça informações sobre natureza dos dados que estão sendo usados para treinar seu sistema e suas práticas comerciais
A Comissão Federal de Comércio (FTC, na sigla em inglês) dos EUA está investigando a OpenAI, fabricante do ChatGPT, chatbot de IA generativa, por possíveis violações dos regulamentos de proteção ao consumidor, envolvendo privacidade de dados e declarações falsas sobre terceiros.
De acordo com relatórios que surgidos na quinta-feira, 13, a FTC apresentou um pedido oficial à OpenAI para que a empresa forneça explicações sobre a natureza dos dados que estão sendo usados para treinar seu sistema, sobre suas práticas comerciais, como identifica e corrige falhas no sistema, entre outros questionamentos.
O The Washington Post publicou um documento de 20 páginas que seria o pedido de informações da FTC, conhecido como demanda de investigação civil (CID, na sigla em inglês). O CID contém 49 perguntas para a OpenAI responder sobre suas operações, bem como 14 solicitações de documentação relacionadas a essas perguntas.
O que se sabe é que o ChatGPT e outros sistemas de IA generativa — como o do Google e o do Facebook — são “abastecidos” por grandes modelos de linguagem (LLM). Por trás dessa tecnologia estão imensos volumes de informações que turbinam as respostas dos sistemas de IA. O jornal americano analisou um pacote chamado C4, usado para treinar o LLM T5 do Bard, do Google, e o LLaMA do Facebook. Encontrou 15 milhões de sites, que incluem veículos jornalísticos, fóruns de jogos, repositórios piratas de livros e dois bancos de dados que hospedavam informações estaduais de eleitores nos EUA.
A FTC tem sido a agência federal mais ativa envolvida nesse tipo de ação de proteção ao consumidor contra a indústria de tecnologia, em parte porque o processo legislativo geralmente fica muito atrás do ritmo de mudança no setor de tecnologia.
A presidente da FTC, Lina Khan, disse ao Comitê Judiciário da Câmara dos EUA na quinta-feira que sua agência está preocupada com o fato de aplicativos de IA generativa voltados para o consumidor, como o ChatGPT, “não terem controle” sobre as informações que coletam dos consumidores, de acordo com um relatório do The Wall Street Journal.
É difícil exagerar o impacto que a IA generativa terá em vários setores, concordam os especialistas. É unânime entre eles que muitos dos problemas envolvidos são comuns a novas tecnologias que chegam ao mercado rapidamente, sem uma extensa estrutura regulatória em vigor. Muitos citam o caso do Facebook em que usuários, na época, não entendiam exatamente o que estava acontecendo com seus dados, levando a sérias consequências quando eclodiu o escândalo da Cambridge Analytica.
FONTE: CISO ADVISOR