Bot de Telegram usa API da inteligência artificial para contornar restrições, criar códigos para roubar informações e imitar e-mails de bancos
O ChatGPT promete agilizar uma série de tarefas do dia a dia, como buscar informações, escrever códigos ou redigir e-mails. Ele pode, também, facilitar o desenvolvimento de malwares, golpes e outros ataques. Cibercriminosos estão driblando as restrições e colocando a inteligência artificial para fazer seu trabalho sujo.
A OpenAI, empresa por trás do ChatGPT, colocou algumas barreiras no algoritmo para impedir que ele seja usado para desenvolver programas maliciosos ou campanhas de roubo de informações.
Ao pedir diretamente à inteligência artificial para escrever um e-mail de phishing ou um código de malware, por exemplo, o programa responde que não pode fazer essas tarefas, porque elas são ilegais.
No entanto, cibercriminosos deram um jeitinho para ela executar trabalhos desse tipo.
Telegram e scripts violam segurança do ChatGPT
O laboratório Check Point Research, da empresa de cibersegurança Check Point descobriu duas formas usadas por agentes mal-intencionados.
Uma delas envolve a API do GPT-3, que serve de base para o ChatGPT. Ela não tem as mesmas restrições do programa que ficou famoso nos últimos meses.
A partir dela, os criminosos conseguiram criar um bot de Telegram que se conecta à inteligência artificial, mas não tem as mesmas restrições que ela.
FONTE: IG