O Google Bard chegou nesta quinta-feira (13) ao Brasil, mas já vem chamando a atenção negativamente de pesquisadores de segurança. Um estudo realizado pela Check Point Software apontou que a inteligência artificial generativa tem menos salvaguardas quanto ao seu uso para fins maliciosos na comparação com outras opções do mercado, se tornando bem interessantes para cibercriminosos.
- Testamos o Bard, a IA do Google para enfrentar o ChatGPT
- 10 coisas que o Google Bard faz melhor que o ChatGPT
Ainda que os dados dos usuários do Bard não estejam em risco de forma direta, a empresa especializada em segurança aponta o perigo indireto, a partir da criação de campanhas de phishing e códigos de vírus espiões ou ransomware a partir da solução de IA, que começou a funcionar em março deste ano e chega agora ao nosso país, inclusive falando o português brasileiro.
De acordo com a análise da Check Point, houve pouca ou nenhuma restrição da plataforma quando a solicitação envolveu a criação de e-mails fraudulentos, que poderiam ser usados em golpes online. Enquanto solicitações diretas para fazer isso foram negadas pelo Bard, uma simples mudança de palavras, com o pedido de um exemplo de mensagem de phishing contra clientes de uma instituição financeira sendo atendido de forma detalhada.
Da mesma maneira, a inteligência artificial do Google também auxiliou no desenvolvimento de keyloggers, os vírus espiões que detectam o que é digitado pelo usuário em um dispositivo infectado, negando uma solicitação direta mas atendendo a um pedido envolvendo “pesquisa em segurança digital”. No caso do ransomware, mais barreiras foram encontradas, mas o Bard acabou entregando códigos maliciosos a partir de comandos específicos que não citavam o nome da exploração diretamente.
As mesmas solicitações feitas às duas IAs generativas, com o Bard apresentando um índice maior de atendimento de pedidos maliciosos. “Parece que o Google não aprendeu as lições do processamento inicial do ChatGPT na implementação de medidas de segurança, trazendo [barreiras] relativamente básicas relacionadas ao abuso cibernético”, explica Sergey Shykevich, gerente de inteligência de ameaças da Check Point Research.
O especialista vai além, indicando que a nova IA estaria em um estágio imaturo do ponto de vista da proteção. Por outro lado, Shykevich aponta que o ChatGPT evoluiu bastante nos últimos meses, com a expectativa de que o Google Bard siga o mesmo caminho. “Várias melhorias tornaram a vida dos cibercriminosos mais difícil quando eles tentam tirar proveito da plataforma. À medida que a ferramenta se desenvolve, se espera a adoção das limitações necessárias de segurança”, finaliza.
Google Bard pode “alucinar” ou ser ofensivo
No lançamento da IA generativa no Brasil, o vice-presidente global de engenharia para busca do Google, Bruno Pôssas, afirmou que o Bard pode “alucinar ou apresentar viés e respostas ofensivas”. Segundo ele, é sempre importante lembrar que a ferramenta ainda está em fase de experimentação e desenvolvimento, com novos recursos e melhorias sendo adicionadas o tempo todo para aprimorar o sistema.
Além disso, do ponto de vista da privacidade, a empresa afirma que dados pessoais privados dos usuários não são usados para treinar a IA. Enquanto o seu uso exige login com uma conta do Google, o Google indica que somente informações públicas são utilizadas na melhoria da solução e na geração de respostas; a negativa aparece, inclusive, relacionada a um processo iniciado nos Estados Unidos, que acusa a companhia de violar o sigilo de seus utilizadores por meio da tecnologia.
FONTE: CANALTECH