Os cibercriminosos dependem cada vez mais de “modelos de IA” humanos para conduzir fraudes elaboradas, especialmente no Sudeste Asiático. Esses indivíduos se candidatam a funções que exigem fluência em vários idiomas e alta disponibilidade – até 100 videochamadas deepfake por dia – para manipular as vítimas em esquemas fraudulentos de criptomoeda e romance. A prática destaca a convergência da exploração humana e da inteligência artificial na fraude moderna.
A nova face dos golpes: modelos de IA e tecnologia Deepfake
Surgiu uma tendência perturbadora no mundo do cibercrime: o recrutamento de “modelos de IA” ou modelos de “face real”. Esses indivíduos, muitas jovens de países como Uzbequistão, Turquia e Rússia, são contratados para aparecer em videochamadas deepfake com vítimas em potencial. O objetivo? Estabelecer confiança e credibilidade em fraudes que muitas vezes envolvem investimentos em criptomoedas ou relacionamentos românticos fabricados.
Esses modelos não são apenas participantes passivos. Alguns candidatos possuem anos de experiência em fraudes, detalhando como usam técnicas de persuasão para convencer as vítimas a abrir mão de seu dinheiro. Um aplicativo até anunciou experiência em “golpes amorosos” e “plataformas de criptografia fraudulentas”. A escala é impressionante; os anúncios de recrutamento exigem horários incansáveis, às vezes exigindo 150 ligações por dia.
O Custo Humano: Trabalho Forçado e Exploração
O próprio processo de recrutamento levanta sérias preocupações éticas. As ofertas de emprego muitas vezes omitem detalhes importantes sobre o empregador, exigindo apenas fotos, vídeos e informações pessoais, como estado civil. Alguns anúncios afirmam mesmo que os passaportes serão retidos “para gestão de vistos e autorizações de trabalho”, uma tática normalmente utilizada para prender indivíduos em ambientes de trabalho forçado.
Embora alguns modelos de IA possam ser recrutados voluntariamente, a linha entre a participação voluntária e a exploração esbate-se rapidamente. As vítimas do tráfico de seres humanos são frequentemente coagidas a desempenhar estas funções, enquanto outras enfrentam tratamento severo, incluindo abuso físico e assédio sexual, de acordo com organizações antitráfico. A falta de transparência torna difícil determinar a extensão da coerção.
O papel do Telegram: um centro de recrutamento
O Telegram se tornou a principal plataforma para recrutamento de modelos de IA. Dezenas de canais anunciam abertamente essas posições, muitas vezes em centros de golpes conhecidos como o Camboja. Apesar das alegações do Telegram de que o conteúdo relacionado a fraudes é proibido, muitos canais de recrutamento permanecem ativos, indicando uma aplicação frouxa.
Pesquisadores e investigadores notam sinais de alerta nas ofertas de emprego: altos salários para a região, demandas por conhecimentos da língua chinesa e referências frequentes a “clientes” (um eufemismo para vítimas) e investimentos em criptomoedas. Uma postagem listou explicitamente o “golpe amoroso” como um mercado de trabalho, destacando a flagrante criminalidade dessas operações.
A evolução da fraude: de imagens roubadas a deepfakes ao vivo
A ascensão dos modelos de IA representa uma escalada nas táticas do crime cibernético. Anteriormente, os golpistas dependiam de imagens roubadas ou personificações de celebridades para construir relacionamento com as vítimas. Agora, as chamadas deepfake ao vivo oferecem um novo nível de realismo. Quando as vítimas solicitam verificação por vídeo, esses modelos intervêm, fornecendo uma face convincente para o golpe.
Como descobriu Frank McKenna, estrategista de fraude, alguns modelos parecem operar em vários golpes, alternando entre contratos e explorando as vítimas com uma eficiência perturbadora. Isto sugere uma rede altamente organizada de criminosos que aproveitam a tecnologia de IA para maximizar os lucros.
Conclusão
A utilização de modelos de IA em fraudes sublinha a crescente sofisticação do crime cibernético. A convergência de tecnologia deepfake, exploração humana e aplicação frouxa de plataformas cria um ambiente perigoso para vítimas em potencial. Enquanto persistir a procura de esquemas fraudulentos, o recrutamento e o abuso de modelos de IA provavelmente continuarão a expandir-se.



















