Cybercriminelen vertrouwen steeds meer op menselijke ‘AI-modellen’ om uitgebreide oplichting uit te voeren, vooral in Zuidoost-Azië. Deze personen solliciteren naar functies die vloeiendheid in meerdere talen en een hoge beschikbaarheid vereisen (tot 100 deepfake-videogesprekken per dag) om slachtoffers te manipuleren tot frauduleuze cryptocurrency- en romantiekplannen. De praktijk benadrukt de convergentie van menselijke uitbuiting en kunstmatige intelligentie in moderne fraude.
Het nieuwe gezicht van oplichting: AI-modellen en deepfake-technologie
Er is een verontrustende trend ontstaan in de wereld van cybercriminaliteit: de rekrutering van ‘AI-modellen’ of ‘real face’-modellen. Deze personen, veel jonge vrouwen uit landen als Oezbekistan, Turkije en Rusland, worden ingehuurd om op deepfake-videogesprekken met potentiële slachtoffers te verschijnen. Het doel? Om vertrouwen en geloofwaardigheid te creëren bij oplichting waarbij vaak investeringen in cryptocurrency of verzonnen romantische relaties betrokken zijn.
Deze modellen zijn niet alleen passieve deelnemers. Sommige aanvragers kunnen bogen op jarenlange ervaring met oplichting en leggen gedetailleerd uit hoe zij overredingstechnieken gebruiken om slachtoffers ervan te overtuigen afstand te doen van hun geld. Eén applicatie maakte zelfs reclame voor ervaringen met ‘liefdeszwendel’ en ‘crypto-zwendelplatforms’. De schaal is onthutsend; wervingsadvertenties vereisen meedogenloze schema’s, waarbij soms 150 telefoontjes per dag nodig zijn.
De menselijke kosten: dwangarbeid en uitbuiting
Het rekruteringsproces zelf roept ernstige ethische zorgen op. In vacatures worden vaak belangrijke details over de werkgever weggelaten, waardoor alleen foto’s, video’s en persoonlijke informatie zoals de burgerlijke staat nodig zijn. Sommige advertenties stellen zelfs dat paspoorten zullen worden bewaard “voor het beheer van visa en werkvergunningen”, een tactiek die vaak wordt gebruikt om individuen in dwangarbeidomgevingen op te sluiten.
Hoewel sommige AI-modellen vrijwillig worden aangeworven, vervaagt de grens tussen vrijwillige deelname en uitbuiting snel. Slachtoffers van mensenhandel worden vaak tot deze rollen gedwongen, terwijl anderen te maken krijgen met harde behandeling, waaronder fysieke mishandeling en seksuele intimidatie, aldus anti-mensenhandelorganisaties. Het gebrek aan transparantie maakt het moeilijk om de omvang van de dwang vast te stellen.
De rol van Telegram: een hub voor werving
Telegram is een primair platform geworden voor het werven van AI-modellen. Tientallen kanalen maken openlijk reclame voor deze posities, vaak in bekende oplichtingscentra zoals Cambodja. Ondanks de beweringen van Telegram dat oplichtingsgerelateerde inhoud verboden is, blijven veel wervingskanalen actief, wat wijst op lakse handhaving.
Onderzoekers en rechercheurs merken rode vlaggen op in de vacatures: hoge salarissen voor de regio, eisen aan de Chinese taalvaardigheid en frequente verwijzingen naar ‘klanten’ (een eufemisme voor slachtoffers) en investeringen in cryptocurrency. In één bericht werd ‘liefdeszwendel’ expliciet als arbeidsmarkt genoemd, wat de flagrante criminaliteit van deze operaties benadrukte.
De evolutie van fraude: van gestolen afbeeldingen tot live deepfakes
De opkomst van AI-modellen vertegenwoordigt een escalatie van de tactieken van cybercriminaliteit. Voorheen vertrouwden oplichters op gestolen afbeeldingen of nabootsingen van beroemdheden om een band met hun slachtoffers op te bouwen. Nu bieden live deepfake-oproepen een nieuw niveau van realisme. Wanneer slachtoffers om videoverificatie vragen, komen deze modellen tussenbeide en zorgen voor een overtuigend gezicht voor de zwendel.
Zoals Frank McKenna, een fraudestrateeg, ontdekte, lijken sommige modellen met meerdere vormen van oplichting te werken, waarbij ze tussen contracten wisselen en slachtoffers met verontrustende efficiëntie uitbuiten. Dit duidt op een goed georganiseerd netwerk van criminelen die gebruik maken van AI-technologie om de winst te maximaliseren.
Conclusie
Het gebruik van AI-modellen bij oplichting onderstreept de toenemende verfijning van cybercriminaliteit. De convergentie van deepfake-technologie, menselijke uitbuiting en lakse platformhandhaving creëert een gevaarlijke omgeving voor potentiële slachtoffers. Zolang de vraag naar frauduleuze plannen blijft bestaan, zal de rekrutering en het misbruik van AI-modellen waarschijnlijk blijven toenemen.
