Penjahat dunia maya semakin mengandalkan “model AI” manusia untuk melakukan penipuan yang rumit, khususnya di Asia Tenggara. Orang-orang ini melamar peran yang memerlukan kefasihan dalam berbagai bahasa dan ketersediaan tinggi – hingga 100 panggilan video deepfake per hari – untuk memanipulasi korban ke dalam skema penipuan mata uang kripto dan percintaan. Praktik ini menyoroti konvergensi eksploitasi manusia dan kecerdasan buatan dalam penipuan modern.
Wajah Baru Penipuan: Model AI dan Teknologi Deepfake
Sebuah tren yang meresahkan telah muncul dalam dunia kejahatan dunia maya: perekrutan “model AI” atau model “wajah asli”. Orang-orang ini, banyak perempuan muda dari negara-negara seperti Uzbekistan, Turki, dan Rusia, disewa untuk tampil di video call deepfake dengan calon korban. Tujuannya? Untuk membangun kepercayaan dan kredibilitas dalam penipuan yang sering kali melibatkan investasi mata uang kripto atau hubungan romantis yang dibuat-buat.
Model-model ini bukan hanya peserta pasif. Beberapa pelamar memiliki pengalaman bertahun-tahun dalam penipuan, merinci bagaimana mereka menggunakan teknik persuasi untuk meyakinkan korban agar menyerahkan uang mereka. Satu aplikasi bahkan mengiklankan pengalaman dalam “penipuan cinta” dan “platform penipuan kripto.” Skalanya sangat mencengangkan; iklan rekrutmen menuntut jadwal yang tiada henti, terkadang membutuhkan 150 panggilan per hari.
Kerugian Manusia: Kerja Paksa dan Eksploitasi
Proses rekrutmen itu sendiri menimbulkan permasalahan etika yang serius. Postingan pekerjaan sering kali menghilangkan detail penting tentang perusahaan tersebut, sehingga hanya memerlukan foto, video, dan informasi pribadi seperti status perkawinan. Beberapa iklan bahkan menyatakan bahwa paspor akan disimpan “untuk pengurusan visa dan izin kerja”, sebuah taktik yang biasa digunakan untuk menjebak individu dalam lingkungan kerja paksa.
Meskipun beberapa model AI mungkin direkrut secara sukarela, batas antara partisipasi sukarela dan eksploitasi menjadi kabur dengan cepat. Korban perdagangan manusia sering kali dipaksa melakukan peran tersebut, sementara yang lain menghadapi perlakuan kasar, termasuk kekerasan fisik dan pelecehan seksual, menurut organisasi anti-perdagangan manusia. Kurangnya transparansi membuat sulit untuk menentukan tingkat pemaksaan.
Peran Telegram: Pusat Perekrutan
Telegram telah menjadi platform utama untuk merekrut model AI. Lusinan saluran secara terbuka mengiklankan posisi ini, sering kali di pusat penipuan terkenal seperti Kamboja. Meskipun Telegram mengklaim bahwa konten terkait penipuan dilarang, banyak saluran rekrutmen yang masih aktif, hal ini menunjukkan lemahnya penegakan hukum.
Para peneliti dan penyelidik mencatat tanda-tanda bahaya dalam lowongan pekerjaan tersebut: gaji yang tinggi untuk wilayah tersebut, tuntutan akan keterampilan bahasa Mandarin, dan seringnya merujuk pada “klien” (sebuah eufemisme untuk para korban) dan investasi mata uang kripto. Salah satu postingan secara eksplisit mencantumkan “penipuan cinta” sebagai pasar kerja, menyoroti kriminalitas yang mencolok dari operasi ini.
Evolusi Penipuan: Dari Gambar yang Dicuri hingga Deepfake Langsung
Munculnya model AI mencerminkan peningkatan taktik kejahatan dunia maya. Sebelumnya, penipu mengandalkan gambar curian atau peniruan identitas selebriti untuk membangun hubungan baik dengan korban. Kini, panggilan deepfake langsung menawarkan tingkat realisme baru. Saat korban meminta verifikasi video, model ini turun tangan dan memberikan gambaran yang meyakinkan tentang penipuan tersebut.
Seperti yang ditemukan oleh Frank McKenna, seorang ahli strategi penipuan, beberapa model tampaknya beroperasi pada berbagai penipuan, berpindah antar kontrak dan mengeksploitasi korban dengan efisiensi yang mengganggu. Hal ini menunjukkan adanya jaringan penjahat yang sangat terorganisir yang memanfaatkan teknologi AI untuk memaksimalkan keuntungan.
Kesimpulan
Penggunaan model AI dalam penipuan menggarisbawahi semakin canggihnya kejahatan dunia maya. Konvergensi teknologi deepfake, eksploitasi manusia, dan lemahnya penegakan platform menciptakan lingkungan yang berbahaya bagi calon korban. Selama permintaan akan skema penipuan masih ada, perekrutan dan penyalahgunaan model AI kemungkinan akan terus meningkat.
