O anfitrião do podcast The Wolf Of All Streets, Scott Melker, diz que recebeu notícias de que seu rosto e nome estão sendo imitados por golpistas, com pelo menos uma vítima enganada em $4 milhões.
Em 23 de abril, o investidor em criptomoedas disse: “Estou doente”, relatando que foi contatado por um investigador particular revelando que um cliente seu foi enganado em $4 milhões por um grupo nigeriano usando seu nome e rosto como isca.
“Eles aparentemente enganaram várias pessoas,” disse Melker, acrescentando: “Eles enviaram uma carteira de motorista falsa para provar que era eu,” e usaram seu avatar do X como foto.
Os golpistas usaram IA para gerar a identidade falsa e usaram uma conta de email falsa, mas convincente.
“Eles fazem chamadas por vídeo com IA,” que são “aparentemente sofisticadas,” disse Melker, que acrescentou que os golpistas também falsificaram contas de sua esposa e filhos para apoiar a confirmação de identidade.
Analistas técnicos “TheChartGuys” relataram algo semelhante, com uma pessoa sendo enganada em $5.000 após os golpistas replicarem sua voz usando deepfakes de IA.
Identidade falsa é fácil de detectar, diz trader
O consultor e trader de criptomoedas “Nebraskan Gooner” disse que uma rápida pesquisa no Google revela facilmente que a identidade é falsa.
Ele apontou que havia algumas discrepâncias sutis nos formatos de endereço e data. Ele disse que é uma pena que esses golpistas estejam se tornando tão sofisticados, mas ficou “surpreendido com quão mal isso estava, considerando quão sofisticada essa operação parece ser.”
O Cointelegraph entrou em contato com Melker para comentários adicionais, mas não recebeu uma resposta imediata.
Golpes gerados por IA estão aumentando à medida que a tecnologia evolui.
Em março, o Departamento de Justiça da Califórnia alertou que havia descoberto sete novos tipos de golpes de criptomoeda que envolviam IA.
Em fevereiro, a Chainalysis disse que 2025 será um grande ano para golpes de IA, afirmando que a IA generativa está tornando os golpes “mais escaláveis e acessíveis para maus atores realizar.”
Em um relatório recente, o gigante do software Microsoft disse que maus atores estavam usando IA para “potencializar seus golpes.”
“Ferramentas de IA podem escanear e extrair informações da web sobre empresas, ajudando atacantes cibernéticos a construir perfis detalhados de funcionários ou outros alvos para criar iscas de engenharia social altamente convincentes,” afirmou.
“Vai ficar exponencialmente pior, eu imagino,” lamentou Melker.
Revista: Seu ‘gêmeo digital’ de IA pode participar de reuniões e confortar seus entes queridos