O truque do jailbreak quebra as proteções de conteúdo do ChatGPT

Views: 213
0 0
Read Time:46 Second

Os usuários já encontraram uma maneira de contornar os controles de programação do ChatGPT que o impedem de criar determinados conteúdos considerados muito violentos, ilegais e muito mais.

O prompt, chamado DAN (Do Anything Now), usa o sistema de token do ChatGPT contra ele, de acordo com um relatório da CNBC. O comando cria um cenário para o ChatGPT que não consegue resolver, permitindo que a DAN ignore as restrições de conteúdo no ChatGPT.

Embora o DAN não seja bem-sucedido o tempo todo, um subreddit dedicado à capacidade do prompt do DAN de contornar as políticas de conteúdo do ChatGPT já acumulou mais de 200.000 assinantes.

Além de sua incrível capacidade de escrever malware , o próprio ChatGPT apresenta um novo vetor de ataque para agentes de ameaças.

“Adoro como as pessoas estão iluminando uma IA”, escreveu um usuário chamado Kyledude95 sobre a descoberta.

FONTE: DARK READING

POSTS RELACIONADOS