Hackers violam segurança para forçar ChatGPT a escrever malware

Views: 152
0 0
Read Time:1 Minute, 9 Second

Bot de Telegram usa API da inteligência artificial para contornar restrições, criar códigos para roubar informações e imitar e-mails de bancos

O ChatGPT promete agilizar uma série de tarefas do dia a dia, como buscar informações, escrever códigos ou redigir e-mails. Ele pode, também, facilitar o desenvolvimento de malwares, golpes e outros ataques. Cibercriminosos estão driblando as restrições e colocando a inteligência artificial para fazer seu trabalho sujo.

A OpenAI, empresa por trás do ChatGPT, colocou algumas barreiras no algoritmo para impedir que ele seja usado para desenvolver programas maliciosos ou campanhas de roubo de informações.

Ao pedir diretamente à inteligência artificial para escrever um e-mail de phishing ou um código de malware, por exemplo, o programa responde que não pode fazer essas tarefas, porque elas são ilegais.

No entanto, cibercriminosos deram um jeitinho para ela executar trabalhos desse tipo.

Telegram e scripts violam segurança do ChatGPT

O laboratório Check Point Research, da empresa de cibersegurança Check Point descobriu duas formas usadas por agentes mal-intencionados.

Uma delas envolve a API do GPT-3, que serve de base para o ChatGPT. Ela não tem as mesmas restrições do programa que ficou famoso nos últimos meses.

A partir dela, os criminosos conseguiram criar um bot de Telegram que se conecta à inteligência artificial, mas não tem as mesmas restrições que ela.

FONTE: IG

POSTS RELACIONADOS