Uma vulnerabilidade na biblioteca de código aberto redis-py estava na raiz do vazamento de dados do ChatGPT da semana passada, confirmou a OpenAI.
Não apenas alguns usuários do ChatGPT conseguiram ver para que outros usuários estavam usando o chatbot de IA, mas também informações pessoais e de cobrança limitadas acabaram sendo reveladas.
Como aconteceu o vazamento de dados do ChatGPT?
O ChatGPT sofreu uma interrupção em 20 de março e problemas para tornar o histórico de conversas acessível aos usuários.
Mas acabou sendo um problema ainda mais sério:
“Durante uma janela de nove horas em 20 de março de 2023, outro usuário do ChatGPT pode ter visto inadvertidamente suas informações de cobrança ao clicar em sua própria página ‘Gerenciar assinatura’”, a OpenAI notificou 1,2% dos assinantes do ChatGPT Plus por e-mail.
“As informações de cobrança que outro usuário pode ter visto consistiam em seu nome e sobrenome, endereço de cobrança, tipo de cartão de crédito, data de validade do cartão de crédito e os quatro últimos dígitos do cartão de crédito. As informações não incluíam o número completo do seu cartão de crédito e não temos evidências de que qualquer informação do cliente tenha sido visualizada por mais de um outro usuário do ChatGPT.”
Em relação ao histórico de bate-papo vazado, a boa notícia é que apenas os títulos dos prompts de conversa estavam acessíveis .
A investigação interna montada pela OpenAI apontou para um bug na biblioteca de código aberto do cliente Redis, redis-py.
Como a empresa explica, eles usam o Redis para armazenar em cache as informações do usuário em seu servidor, o Redis Cluster para distribuir essa carga por várias instâncias do Redis e a biblioteca redis-py para interagir com o Redis do servidor Python, que é executado com o Asyncio .
“A biblioteca mantém um pool compartilhado de conexões entre o servidor e o cluster e recicla uma conexão para ser usada para outra solicitação depois de concluída. Ao usar o Asyncio, as solicitações e respostas com redis-py se comportam como duas filas: o chamador envia uma solicitação para a fila de entrada e exibe uma resposta da fila de saída e, em seguida, retorna a conexão ao pool. Se uma solicitação for cancelada após a solicitação ser enviada para a fila de entrada, mas antes que a resposta saia da fila de saída, vemos nosso bug: a conexão fica corrompida e a próxima resposta retirada da fila para uma solicitação não relacionada pode receber dados deixados para trás na conexão”, observaram .
Infelizmente, naquela segunda-feira, eles fizeram uma alteração no servidor que causou um aumento nos cancelamentos de solicitações do Redis, e muitas conexões acabaram retornando dados incorretos.
Corrigindo o problema
O bug já foi corrigido e o OpenAI adicionou verificações para garantir que os usuários solicitantes não obtenham dados pertencentes a outros usuários. Em seguida, eles vasculharam seus logs para garantir que o comportamento indesejado parasse e para identificar os usuários afetados.
Por fim, eles dizem que melhoraram a robustez e a escala de seu cluster Redis para reduzir a probabilidade de erros de conexão em cargas extremas – um curso de ação sábio, dada a enorme popularidade do ChatGPT.
Estima-se que o AI chatbot tenha atingido 100 milhões de usuários ativos mensais em janeiro de 2023, apenas dois meses após seu lançamento.
É popular entre consumidores e empresas, embora o último deva garantir que ele e o OpenAI passem pelo mesmo processo de gerenciamento de risco de terceirosque qualquer outro aplicativo.
FONTE: HELPNET SECURITY