Ataque conversacional é ameaça móvel que mais cresce

Views: 110
0 0
Read Time:1 Minute, 56 Second

Especialistas em segurança dizem que os chamados “golpes de conversação” se tornaram a ameaça de crescimento mais rápido para usuários móveis no ano passado

Especialistas em segurança alertaram para um aumento de 12 vezes nas denúncias dos chamados “golpes de conversação”, o que tornou a ameaça de crescimento mais rápido para usuários móveis no ano passado. De acordo com uma postagem da Proofpoint no blog corporativo,  esses golpes geralmente exigem um tempo de espera muito maior do que a entrega de phishing ou malware. O operador da ameaça pode inicialmente abordar seu alvo nas mídias sociais ou em um site de namoro e, em seguida, procurar construir um relacionamento nas semanas seguintes, trocando mensagens aparentemente inofensivas. No entanto, o objetivo real do fraudador é roubar as informações, dinheiro ou credenciais da vítima.

Frequentemente, a vítima é induzida a investir em um esquema falso de criptomoeda. Esse tipo de golpe foi responsável por um expressivo aumento nas fraudes de investimento no ano passado, que ultrapassou US$ 3,3 bilhões em perdas, de acordo com o FBI. “Além das perdas financeiras, esses ataques também extraem um custo humano significativo. Os golpes financeiros e românticos envolvem um investimento emocional por parte da vítima”, alertou a Proofpoint. “A confiança é conquistada e depois abusada, o que pode gerar sentimentos de vergonha e constrangimento junto com a consequência de perder dinheiro.”

A fornecedora de soluções de segurança diz ter evidências sugerindo que alguns dos perpetradores desses golpes são vítimas de tráfico humano, incluindo uma mulher chinesa que vive no Camboja. No entanto, no futuro, as máquinas poderão assumir seu trabalho, acrescentou. “O lançamento de ferramentas como ChatGPT, Bing Chat e Google Bard anuncia a chegada de um novo tipo de chatbot, capaz de entender o contexto, exibir o raciocínio e até tentar a persuasão. Olhando para o futuro, robôs de IA treinados para entender códigos tributários complexos e veículos de investimento podem ser usados para fraudar até mesmo as vítimas mais sofisticadas”, diz a Proofpoint.

Segundo a empresa, “juntamente com modelos de geração de imagem capazes de criar fotos únicas de pessoas que parecem reais, os agentes de ameaças de conversação poderão em breve usar a IA como um cúmplice criminoso completo, criando todos os ativos de que precisam para enganar e fraudar as vítimas”.

FONTE: CISO ADVISOR

POSTS RELACIONADOS