Insbesondere in Südostasien verlassen sich Cyberkriminelle zunehmend auf menschliche „KI-Modelle“, um aufwändige Betrügereien durchzuführen. Diese Personen bewerben sich um Stellen, die fließende Beherrschung mehrerer Sprachen und eine hohe Verfügbarkeit – bis zu 100 Deepfake-Videoanrufe pro Tag – erfordern, um Opfer zu betrügerischen Kryptowährungs- und Liebesspielen zu manipulieren. Die Praxis verdeutlicht die Konvergenz von menschlicher Ausbeutung und künstlicher Intelligenz im modernen Betrug.
Das neue Gesicht des Betrugs: KI-Modelle und Deepfake-Technologie
In der Welt der Cyberkriminalität zeichnet sich ein beunruhigender Trend ab: die Rekrutierung von „KI-Modellen“ oder „Real Face“-Modellen. Diese Personen, viele junge Frauen aus Ländern wie Usbekistan, der Türkei und Russland, werden angeheuert, um in Deepfake-Videoanrufen mit potenziellen Opfern aufzutreten. Der Zweck? Um Vertrauen und Glaubwürdigkeit bei Betrügereien aufzubauen, bei denen es häufig um Kryptowährungsinvestitionen oder erfundene Liebesbeziehungen geht.
Diese Modelle sind nicht nur passive Teilnehmer. Einige Antragsteller rühmen sich jahrelanger Erfahrung im Betrügen und beschreiben detailliert, wie sie Überredungstechniken einsetzen, um Opfer davon zu überzeugen, sich von ihrem Geld zu trennen. Eine Anwendung bewarb sogar Erfahrungen mit „Liebesbetrug“ und „Krypto-Betrugsplattformen“. Das Ausmaß ist atemberaubend; Stellenausschreibungen erfordern einen kompromisslosen Zeitplan, der manchmal bis zu 150 Anrufe pro Tag erfordert.
Die menschlichen Kosten: Zwangsarbeit und Ausbeutung
Der Einstellungsprozess selbst wirft ernsthafte ethische Bedenken auf. In Stellenausschreibungen fehlen häufig wichtige Angaben zum Arbeitgeber und es werden lediglich Fotos, Videos und persönliche Informationen wie der Familienstand benötigt. In einigen Anzeigen heißt es sogar, dass Reisepässe „für die Verwaltung von Visa und Arbeitserlaubnissen“ einbehalten werden, eine Taktik, die häufig eingesetzt wird, um Personen in Zwangsarbeitsumgebungen in die Falle zu locken.
Während manche KI-Modelle freiwillig rekrutiert werden, verschwimmt die Grenze zwischen freiwilliger Teilnahme und Ausbeutung schnell. Nach Angaben von Anti-Menschenhandelsorganisationen werden Opfer von Menschenhandel häufig in diese Rollen genötigt, während andere harter Behandlung, einschließlich körperlicher Misshandlung und sexueller Belästigung, ausgesetzt sind. Die mangelnde Transparenz macht es schwierig, das Ausmaß des Zwanges zu bestimmen.
Die Rolle von Telegram: Eine Drehscheibe für die Rekrutierung
Telegram ist zu einer primären Plattform für die Rekrutierung von KI-Modellen geworden. Dutzende Kanäle bewerben diese Stellen offen, oft in bekannten Betrugszentren wie Kambodscha. Trotz der Behauptung von Telegram, dass betrügerische Inhalte verboten seien, bleiben viele Rekrutierungskanäle aktiv, was auf eine laxe Durchsetzung hindeutet.
Forscher und Ermittler stellen in den Stellenausschreibungen Warnsignale fest: hohe Gehälter für die Region, Anforderungen an Chinesischkenntnisse und häufige Verweise auf „Kunden“ (ein Euphemismus für Opfer) und Kryptowährungsinvestitionen. In einem Beitrag wurde „Love Scam“ ausdrücklich als Arbeitsmarkt aufgeführt und die offensichtliche Kriminalität dieser Operationen hervorgehoben.
Die Entwicklung des Betrugs: Von gestohlenen Bildern zu Live-Deepfakes
Der Aufstieg von KI-Modellen stellt eine Eskalation der Taktiken der Cyberkriminalität dar. Bisher verließen sich Betrüger auf gestohlene Bilder oder Nachahmungen von Prominenten, um eine Beziehung zu den Opfern aufzubauen. Jetzt bieten Live-Deepfake-Anrufe ein neues Maß an Realismus. Wenn Opfer eine Videoverifizierung anfordern, springen diese Models ein und geben dem Betrug ein überzeugendes Gesicht.
Wie Frank McKenna, ein Betrugsstratege, herausgefunden hat, scheinen einige Modelle über mehrere Betrügereien hinweg zu agieren, zwischen Verträgen zu wechseln und Opfer mit beunruhigender Effizienz auszubeuten. Dies deutet auf ein hochorganisiertes Netzwerk von Kriminellen hin, die KI-Technologie nutzen, um Gewinne zu maximieren.
Fazit
Der Einsatz von KI-Modellen bei Betrügereien unterstreicht die zunehmende Raffinesse der Cyberkriminalität. Die Konvergenz von Deepfake-Technologie, menschlicher Ausbeutung und laxer Plattformdurchsetzung schafft ein gefährliches Umfeld für potenzielle Opfer. Solange die Nachfrage nach betrügerischen Machenschaften anhält, wird die Rekrutierung und der Missbrauch von KI-Modellen wahrscheinlich weiter zunehmen.



















