Kyberzločinci stále více spoléhají na živé „modely umělé inteligence“ při provádění složitých podvodných schémat, zejména v jihovýchodní Asii. Tito jednotlivci se ucházejí o pozice, které vyžadují plynulost ve více jazycích a vysokou dostupnost – až 100 hluboce falešných videohovorů denně – za účelem manipulace obětí podvodů s kryptoměnami a romantikou. Tato praxe zdůrazňuje sloučení lidského vykořisťování a umělé inteligence v moderních podvodech.

Nová tvář podvodu: modely umělé inteligence a technologie deepfake

Ve světě kyberzločinu se objevil znepokojivý trend: nábor „modelů AI“ nebo „modelů skutečných tváří“. Tito lidé, z nichž mnohé jsou mladé ženy ze zemí jako Uzbekistán, Turecko a Rusko, jsou rekrutovány, aby se účastnili falešných videohovorů s potenciálními oběťmi. Cíl? Vybudujte si důvěru a důvěryhodnost v podvodných schématech, které často zahrnují investice do kryptoměn nebo fiktivní romantické vztahy.

Tyto modely nejsou jen pasivními účastníky. Někteří žalobci se mohou pochlubit dlouholetými zkušenostmi s podvody a podrobně popisují, jak používají techniky přesvědčování, aby přiměli oběti, aby se rozloučily se svými penězi. Jedna reklama dokonce propaguje odborné znalosti v oblasti „romantických podvodů“ a „platforem pro podvodné kryptoměny“. Rozsah je ohromující: náborové inzeráty vyžadují neúnavné plány, někdy vyžadují 150 hovorů denně.

Lidské náklady: Nucená práce a vykořisťování

Samotný náborový proces vyvolává vážné etické obavy. Inzeráty o zaměstnání často opomíjejí klíčové údaje o zaměstnavateli a požadují pouze fotografie, videa a osobní údaje, jako je rodinný stav. Některé reklamy dokonce uvádějí, že pasy budou drženy „za účelem vyřízení víz a pracovních povolení“, což je taktika často používaná k udržení lidí v podmínkách nucené práce.

Zatímco některé modely umělé inteligence mohou být rekrutovány dobrovolně, hranice mezi dobrovolnou účastí a vykořisťováním se rychle stírá. Oběti obchodování s lidmi jsou do těchto rolí často nuceny, zatímco jiné čelí tvrdému zacházení, včetně fyzického násilí a sexuálního obtěžování, podle organizací bojujících proti obchodování s lidmi. Nedostatek transparentnosti ztěžuje určení rozsahu nátlaku.

Telegram Role: Recruitment Center

Telegram se stal hlavní platformou pro nábor AI modelů. Tyto pozice otevřeně inzerují desítky kanálů, často ve známých podvodných centrech, jako je Kambodža. Navzdory tvrzení Telegramu, že obsah související s podvody je zakázán, zůstává mnoho náborových kanálů aktivních, což naznačuje slabé kontroly.

Výzkumníci a vyšetřovatelé zaznamenali v pracovních inzerátech varovné signály: vysoké platy pro region, požadavky na čínský jazyk a časté odkazy na „klienty“ (eufemismus pro oběti) a investice do kryptoměn. Jeden příspěvek dokonce identifikuje „romantické podvody“ jako trh práce a zdůrazňuje do očí bijící kriminalitu těchto operací.

Vývoj podvodu: od ukradených obrázků k živým deepfakes

Vzestup modelů umělé inteligence představuje eskalaci taktiky kybernetické kriminality. Dříve se podvodníci při navazování kontaktu s oběťmi spoléhali na ukradené obrázky nebo napodobování celebrit. Nyní živé deepfake hovory nabízejí novou úroveň realismu. Když oběti požádají o ověření pomocí videa, tyto modely vstupují do hry tím, že podvodníkovi poskytnou přesvědčivou tvář.

Jak zjistil stratég pro boj proti podvodům Frank McKenna, zdá se, že některé modely fungují ve více schématech, pohybují se mezi smlouvami a využívají oběti s alarmující účinností. To naznačuje vysoce organizovanou síť zločinců využívajících technologie umělé inteligence k maximalizaci zisků.

Závěr

Použití modelů umělé inteligence při podvodech zdůrazňuje rostoucí sofistikovanost kybernetické kriminality. Soutok technologie deepfake, vykořisťování lidí a slabé vymáhání práva na platformě vytváří nebezpečné prostředí pro potenciální oběti. Dokud bude poptávka po podvodných schématech pokračovat, nábor a využívání modelů umělé inteligence se bude pravděpodobně nadále rozšiřovat.