Google Bard tem falhas de segurança que permitem uso por cibercriminoso

Views: 150
0 0
Read Time:2 Minute, 54 Second

O Google Bard chegou nesta quinta-feira (13) ao Brasil, mas já vem chamando a atenção negativamente de pesquisadores de segurança. Um estudo realizado pela Check Point Software apontou que a inteligência artificial generativa tem menos salvaguardas quanto ao seu uso para fins maliciosos na comparação com outras opções do mercado, se tornando bem interessantes para cibercriminosos.

Ainda que os dados dos usuários do Bard não estejam em risco de forma direta, a empresa especializada em segurança aponta o perigo indireto, a partir da criação de campanhas de phishing e códigos de vírus espiões ou ransomware a partir da solução de IA, que começou a funcionar em março deste ano e chega agora ao nosso país, inclusive falando o português brasileiro.

De acordo com a análise da Check Point, houve pouca ou nenhuma restrição da plataforma quando a solicitação envolveu a criação de e-mails fraudulentos, que poderiam ser usados em golpes online. Enquanto solicitações diretas para fazer isso foram negadas pelo Bard, uma simples mudança de palavras, com o pedido de um exemplo de mensagem de phishing contra clientes de uma instituição financeira sendo atendido de forma detalhada.

Da mesma maneira, a inteligência artificial do Google também auxiliou no desenvolvimento de keyloggers, os vírus espiões que detectam o que é digitado pelo usuário em um dispositivo infectado, negando uma solicitação direta mas atendendo a um pedido envolvendo “pesquisa em segurança digital”. No caso do ransomware, mais barreiras foram encontradas, mas o Bard acabou entregando códigos maliciosos a partir de comandos específicos que não citavam o nome da exploração diretamente.

As mesmas solicitações feitas às duas IAs generativas, com o Bard apresentando um índice maior de atendimento de pedidos maliciosos. “Parece que o Google não aprendeu as lições do processamento inicial do ChatGPT na implementação de medidas de segurança, trazendo [barreiras] relativamente básicas relacionadas ao abuso cibernético”, explica Sergey Shykevich, gerente de inteligência de ameaças da Check Point Research.

O especialista vai além, indicando que a nova IA estaria em um estágio imaturo do ponto de vista da proteção. Por outro lado, Shykevich aponta que o ChatGPT evoluiu bastante nos últimos meses, com a expectativa de que o Google Bard siga o mesmo caminho. “Várias melhorias tornaram a vida dos cibercriminosos mais difícil quando eles tentam tirar proveito da plataforma. À medida que a ferramenta se desenvolve, se espera a adoção das limitações necessárias de segurança”, finaliza.

Google Bard pode “alucinar” ou ser ofensivo

No lançamento da IA generativa no Brasil, o vice-presidente global de engenharia para busca do Google, Bruno Pôssas, afirmou que o Bard pode “alucinar ou apresentar viés e respostas ofensivas”. Segundo ele, é sempre importante lembrar que a ferramenta ainda está em fase de experimentação e desenvolvimento, com novos recursos e melhorias sendo adicionadas o tempo todo para aprimorar o sistema.

Além disso, do ponto de vista da privacidade, a empresa afirma que dados pessoais privados dos usuários não são usados para treinar a IA. Enquanto o seu uso exige login com uma conta do Google, o Google indica que somente informações públicas são utilizadas na melhoria da solução e na geração de respostas; a negativa aparece, inclusive, relacionada a um processo iniciado nos Estados Unidos, que acusa a companhia de violar o sigilo de seus utilizadores por meio da tecnologia.

FONTE: CANALTECH

POSTS RELACIONADOS