Los ciberdelincuentes dependen cada vez más de “modelos de inteligencia artificial” humanos para realizar estafas elaboradas, particularmente en el Sudeste Asiático. Estas personas solicitan roles que requieren fluidez en varios idiomas y alta disponibilidad (hasta 100 videollamadas deepfake por día) para manipular a las víctimas para que realicen esquemas fraudulentos de criptomonedas y romances. La práctica destaca la convergencia de la explotación humana y la inteligencia artificial en el fraude moderno.
La nueva cara de las estafas: modelos de inteligencia artificial y tecnología deepfake
Ha surgido una tendencia inquietante en el mundo del cibercrimen: el reclutamiento de “modelos de IA” o modelos de “cara real”. Estas personas, muchas mujeres jóvenes de países como Uzbekistán, Turquía y Rusia, son contratadas para aparecer en videollamadas ultrafalsas con víctimas potenciales. ¿El propósito? Para establecer confianza y credibilidad en estafas que a menudo involucran inversiones en criptomonedas o relaciones románticas inventadas.
Estos modelos no son sólo participantes pasivos. Algunos solicitantes cuentan con años de experiencia en estafas y detallan cómo utilizan técnicas de persuasión para convencer a las víctimas de que se deshagan de su dinero. Una aplicación incluso anunciaba experiencia en “estafas amorosas” y “plataformas de estafa criptográfica”. La escala es asombrosa; Los anuncios de contratación exigen horarios implacables, que a veces requieren 150 llamadas por día.
El costo humano: trabajo forzoso y explotación
El proceso de contratación en sí plantea serias preocupaciones éticas. Las ofertas de trabajo a menudo omiten detalles clave sobre el empleador y solo requieren fotos, videos e información personal como el estado civil. Algunos anuncios incluso afirman que los pasaportes se conservarán “para la gestión de visas y permisos de trabajo”, una táctica comúnmente utilizada para atrapar a personas en entornos de trabajo forzoso.
Si bien algunos modelos de IA pueden ser reclutados voluntariamente, la línea entre la participación voluntaria y la explotación se difumina rápidamente. Las víctimas de la trata de personas a menudo son obligadas a asumir estos roles, mientras que otras enfrentan un trato severo, incluido abuso físico y acoso sexual, según organizaciones contra la trata. La falta de transparencia dificulta determinar el alcance de la coerción.
El papel de Telegram: un centro de contratación
Telegram se ha convertido en una plataforma principal para reclutar modelos de IA. Decenas de canales anuncian abiertamente estos puestos, a menudo en centros de fraude conocidos como Camboya. A pesar de las afirmaciones de Telegram de que el contenido relacionado con estafas está prohibido, muchos canales de reclutamiento permanecen activos, lo que indica una aplicación laxa.
Investigadores e investigadores notan señales de alerta en las ofertas de trabajo: altos salarios para la región, demandas de habilidades en el idioma chino y referencias frecuentes a “clientes” (un eufemismo para víctimas) e inversiones en criptomonedas. Una publicación mencionaba explícitamente la “estafa amorosa” como mercado laboral, destacando la flagrante criminalidad de estas operaciones.
La evolución del fraude: de imágenes robadas a deepfakes en vivo
El auge de los modelos de IA representa una escalada en las tácticas de delito cibernético. Anteriormente, los estafadores se basaban en imágenes robadas o suplantaciones de celebridades para establecer una relación con las víctimas. Ahora, las llamadas deepfake en vivo ofrecen un nuevo nivel de realismo. Cuando las víctimas solicitan una verificación por video, estos modelos intervienen y brindan una cara convincente de la estafa.
Como descubrió Frank McKenna, un estratega de fraude, algunos modelos parecen operar en múltiples estafas, moviéndose entre contratos y explotando a las víctimas con una eficiencia inquietante. Esto sugiere una red altamente organizada de delincuentes que aprovechan la tecnología de inteligencia artificial para maximizar sus ganancias.
Conclusión
El uso de modelos de IA en estafas subraya la creciente sofisticación del ciberdelito. La convergencia de la tecnología deepfake, la explotación humana y la aplicación laxa de las plataformas crea un entorno peligroso para las víctimas potenciales. Mientras persista la demanda de esquemas fraudulentos, es probable que el reclutamiento y el abuso de modelos de IA continúen expandiéndose.
