Os Estados Unidos vivem uma explosão das chamadas fraudes do impostor, que a cada dia estão mais comuns com a grande evolução da tecnologia. O golpe ocorre assim: você recebe uma chamada de emergência de um familiar ou cônjuge solicitando uma ajuda financeira após um acidente ou problema com a lei. Geralmente, o pedido é atendido, mas somente depois é que você vai perceber que, na verdade, caiu em um golpe. Os criminosos estão usando Inteligência Artificial (IA) para simular vozes conhecidas e, assim, aplicar os golpes.
Quer receber os conteúdos da TrendsCE no seu smartphone?
Acesse o nosso Whatsapp e dê um oi para a gente.
Esse foi o crime digital mais comum nos EUA em 2022, com mais de 36 mil casos registrados ao longo do ano, segundo números da Comissão Federal de Comércio (FTC). A prática também trouxe o segundo maior prejuízo aos cidadãos, com mais de US$ 11 milhões perdidos, cerca de R$ 56 milhões.
O jornal americano The Washington Post publicou uma reportagem mostrando casos onde a IA foi absolutamente convincente. Em um deles, um casal de idosos perdeu mais de US$ 15 mil, aproximadamente R$ 77 mil, após a falsificação da voz do próprio filho, que estaria sendo acusado de matar um diplomata americano após um acidente de carro. O contato envolveu indivíduos reais, se passando por advogados e policiais, além da tecnologia, com a transferência acontecendo a partir de um caixa eletrônico de criptomoedas.
As situações também começam a chamar a atenção dos bancos. Foi o que impediu um casal de idosos no Canadá de transferir mais de US$ 2,2 mil, ou cerca de R$ 10 mil, após terem o neto supostamente preso e solicitando o pagamento de fiança. O gerente da instituição usada para o saque notou o problema e alertou aos dois sobre o golpe, que já havia sido sofrido por outro cliente na mesma semana.
Até mesmo criminosos com pouco conhecimento tecnológico seriam capazes de realizar fraudes desse tipo. Softwares de geração de modelos de voz estão disponíveis ao público e custam pouco, com valores de assinatura a partir de US$ 5 (aproximadamente R$ 25) de acordo com a quantidade de falas geradas; o céu é o limite, assim como as opções de tom, volume, níveis e outros ajustes que tornam a simulação mais realista.
Enquanto isso, obter amostras se torna cada vez mais fácil. Meros stories no Instagram ou mensagens de áudio no WhatsApp podem ser usadas para treinar modelos de simulação de voz por inteligência artificial, e a quantidade de informações só aumenta caso a vítima tenha um podcast, canal na Twitch ou goste de publicar vídeos no YouTube e outras redes sociais.
Celebridades, claro, são um alvo usual, mas os cidadãos comuns se tornam cada vez mais o centro da mira, justamente, pela maior possibilidade de ganhos. A fidelidade dos modelos criados é alta, enquanto indivíduos com conhecimento desse tipo de fraude e da própria tecnologia podem acabar caindo pela tensão de um contato de emergência altamente realista.
Como se proteger
As próprias autoridades americanas admitem que eles ainda são difíceis de rastrear. As chamadas se originam de diferentes lugares do mundo, enquanto a preferência por criptomoedas faz com que os fundos transferidos sejam rapidamente pulverizados. Além disso, há uma dificuldade técnica, principalmente de forças policiais locais, em lidar com as fraudes altamente tecnológicas.
Para a FTC, a conscientização é o melhor caminho. No Brasil, a dinâmica do crime via inteligência artificial se assemelha à dos velhos golpes do falso sequestro, com a abordagem dos cidadãos, também, devendo ser parecida.
É importante se certificar que o contato é legítimo e que o ente querido efetivamente está em perigo antes de ceder a pressões ou realizar transferências. Muitas vezes, basta uma ligação ou mensagem de texto para perceber a fraude.
*Com informações do The Washington Post e do Canaltech
Saiba mais:
Inovação aberta vem acelerando crescimento de empresas
Novo padrão de internet traz privacidade e inteligência artificial