Les cybercriminels s’appuient de plus en plus sur des « modèles d’IA » humains pour mener des escroqueries élaborées, en particulier en Asie du Sud-Est. Ces personnes postulent à des postes exigeant la maîtrise de plusieurs langues et une haute disponibilité – jusqu’à 100 appels vidéo deepfake par jour – pour manipuler les victimes dans des stratagèmes frauduleux de crypto-monnaie et de romance. Cette pratique met en évidence la convergence de l’exploitation humaine et de l’intelligence artificielle dans la fraude moderne.

Le nouveau visage des escroqueries : modèles d’IA et technologie Deepfake

Une tendance inquiétante est apparue dans le monde de la cybercriminalité : le recrutement de « modèles IA » ou de modèles « à visage réel ». Ces personnes, de nombreuses jeunes femmes originaires de pays comme l’Ouzbékistan, la Turquie et la Russie, sont embauchées pour participer à de faux appels vidéo avec des victimes potentielles. Le but? Établir la confiance et la crédibilité dans les escroqueries qui impliquent souvent des investissements en crypto-monnaie ou des relations amoureuses fabriquées.

Ces modèles ne sont pas de simples participants passifs. Certains candidats vantent des années d’expérience en matière d’escroquerie et expliquent comment ils utilisent des techniques de persuasion pour convaincre les victimes de se séparer de leur argent. Une application a même annoncé une expérience dans les « escroqueries amoureuses » et les « plateformes d’arnaque cryptographique ». L’ampleur est stupéfiante ; Les annonces de recrutement exigent des plannings implacables, nécessitant parfois 150 appels par jour.

Le coût humain : travail forcé et exploitation

Le processus de recrutement lui-même soulève de sérieuses préoccupations éthiques. Les offres d’emploi omettent souvent des détails clés sur l’employeur, ne nécessitant que des photos, des vidéos et des informations personnelles comme l’état civil. Certaines publicités indiquent même que les passeports seront conservés « pour la gestion des visas et des permis de travail », une tactique couramment utilisée pour piéger les individus dans des environnements de travail forcé.

Même si certains modèles d’IA peuvent être recrutés volontairement, la frontière entre participation volontaire et exploitation s’estompe rapidement. Les victimes de la traite des êtres humains sont souvent contraintes d’assumer ces rôles, tandis que d’autres sont confrontées à des traitements sévères, notamment des violences physiques et du harcèlement sexuel, selon les organisations de lutte contre la traite. Le manque de transparence rend difficile la détermination de l’étendue de la coercition.

Le rôle de Telegram : une plateforme de recrutement

Telegram est devenu la principale plateforme de recrutement de modèles d’IA. Des dizaines de chaînes annoncent ouvertement ces postes, souvent dans des centres d’escroquerie connus comme le Cambodge. Malgré les affirmations de Telegram selon lesquelles les contenus liés à l’escroquerie sont interdits, de nombreux canaux de recrutement restent actifs, ce qui indique une application laxiste.

Les chercheurs et les enquêteurs notent des signaux d’alarme dans les offres d’emploi : des salaires élevés pour la région, des exigences en matière de maîtrise de la langue chinoise et des références fréquentes aux “clients” (un euphémisme pour les victimes) et aux investissements en crypto-monnaie. Un article citait explicitement les « arnaques amoureuses » comme marché du travail, soulignant la criminalité flagrante de ces opérations.

L’évolution de la fraude : des images volées aux deepfakes réels

La montée en puissance des modèles d’IA représente une escalade des tactiques de cybercriminalité. Auparavant, les escrocs s’appuyaient sur des images volées ou des usurpations d’identité de célébrités pour établir des relations avec leurs victimes. Désormais, les appels deepfakes en direct offrent un nouveau niveau de réalisme. Lorsque les victimes demandent une vérification vidéo, ces modèles interviennent, donnant un visage convaincant à l’arnaque.

Comme l’a découvert Frank McKenna, un stratège en matière de fraude, certains modèles semblent fonctionner sur plusieurs escroqueries, passant d’un contrat à l’autre et exploitant les victimes avec une efficacité inquiétante. Cela suggère un réseau hautement organisé de criminels tirant parti de la technologie de l’IA pour maximiser leurs profits.

Conclusion

L’utilisation de modèles d’IA dans les escroqueries souligne la sophistication croissante de la cybercriminalité. La convergence de la technologie deepfake, de l’exploitation humaine et du laxisme dans l’application des plateformes crée un environnement dangereux pour les victimes potentielles. Tant que la demande de stratagèmes frauduleux persistera, le recrutement et l’abus de modèles d’IA continueront probablement de se développer.