Додому Ultime notizie e articoli Truffe basate sull’intelligenza artificiale: l’ascesa dei modelli “deepfake” nel sud-est asiatico

Truffe basate sull’intelligenza artificiale: l’ascesa dei modelli “deepfake” nel sud-est asiatico

Truffe basate sull’intelligenza artificiale: l’ascesa dei modelli “deepfake” nel sud-est asiatico

I criminali informatici fanno sempre più affidamento su “modelli di intelligenza artificiale” umana per condurre truffe elaborate, in particolare nel sud-est asiatico. Questi individui fanno domanda per ruoli che richiedono padronanza di più lingue e alta disponibilità (fino a 100 videochiamate deepfake al giorno) per manipolare le vittime in criptovalute fraudolente e schemi romantici. La pratica evidenzia la convergenza dello sfruttamento umano e dell’intelligenza artificiale nella frode moderna.

Il nuovo volto delle truffe: modelli IA e tecnologia Deepfake

Nel mondo del crimine informatico è emersa una tendenza inquietante: il reclutamento di “modelli AI” o modelli “real face”. Queste persone, molte giovani donne provenienti da paesi come Uzbekistan, Turchia e Russia, vengono assunte per apparire in videochiamate deepfake con potenziali vittime. Lo scopo? Per stabilire fiducia e credibilità nelle truffe che spesso coinvolgono investimenti in criptovalute o relazioni sentimentali inventate.

Questi modelli non sono solo partecipanti passivi. Alcuni candidati vantano anni di esperienza nelle truffe, descrivendo in dettaglio come utilizzano tecniche di persuasione per convincere le vittime a separarsi dai loro soldi. Un’applicazione pubblicizzava addirittura esperienze in “truffe amorose” e “piattaforme di truffe crittografiche”. La scala è sconcertante; gli annunci di reclutamento richiedono orari incessanti, a volte richiedono 150 chiamate al giorno.

Il costo umano: lavoro forzato e sfruttamento

Lo stesso processo di reclutamento solleva serie preoccupazioni etiche. Gli annunci di lavoro spesso omettono dettagli chiave sul datore di lavoro, richiedendo solo foto, video e informazioni personali come lo stato civile. Alcuni annunci affermano addirittura che i passaporti verranno conservati “per la gestione dei visti e dei permessi di lavoro”, una tattica comunemente usata per intrappolare le persone in ambienti di lavoro forzato.

Sebbene alcuni modelli di intelligenza artificiale possano essere reclutati volontariamente, il confine tra partecipazione volontaria e sfruttamento si sfuma rapidamente. Secondo le organizzazioni anti-tratta, le vittime della tratta di esseri umani sono spesso costrette a ricoprire questi ruoli, mentre altre subiscono trattamenti duri, tra cui abusi fisici e molestie sessuali. La mancanza di trasparenza rende difficile determinare la portata della coercizione.

Il ruolo di Telegram: un hub per il reclutamento

Telegram è diventata una piattaforma primaria per il reclutamento di modelli IA. Decine di canali pubblicizzano apertamente queste posizioni, spesso in noti centri di truffa come la Cambogia. Nonostante Telegram affermi che i contenuti legati alle truffe sono vietati, molti canali di reclutamento rimangono attivi, indicando un’applicazione lassista.

Ricercatori e investigatori notano segnali di allarme nelle offerte di lavoro: salari elevati per la regione, richieste di competenze in lingua cinese e frequenti riferimenti a “clienti” (un eufemismo per le vittime) e investimenti in criptovaluta. Un post elencava esplicitamente la “truffa amorosa” come mercato del lavoro, evidenziando la palese criminalità di queste operazioni.

L’evoluzione della frode: dalle immagini rubate ai deepfake live

L’ascesa dei modelli di intelligenza artificiale rappresenta un’escalation nelle tattiche del crimine informatico. In precedenza, i truffatori facevano affidamento su immagini rubate o imitazioni di celebrità per costruire un rapporto con le vittime. Ora, le chiamate deepfake dal vivo offrono un nuovo livello di realismo. Quando le vittime richiedono la verifica video, questi modelli intervengono, fornendo un volto convincente per la truffa.

Come ha scoperto Frank McKenna, uno stratega delle frodi, alcuni modelli sembrano operare su più truffe, spostandosi da un contratto all’altro e sfruttando le vittime con un’efficienza inquietante. Ciò suggerisce una rete altamente organizzata di criminali che sfrutta la tecnologia dell’intelligenza artificiale per massimizzare i profitti.

Conclusione

L’uso di modelli di intelligenza artificiale nelle truffe sottolinea la crescente sofisticazione della criminalità informatica. La convergenza della tecnologia deepfake, dello sfruttamento umano e dell’applicazione lassista delle piattaforme crea un ambiente pericoloso per le potenziali vittime. Finché persisterà la domanda di schemi fraudolenti, il reclutamento e l’abuso di modelli di intelligenza artificiale continueranno probabilmente ad espandersi.

Exit mobile version