Cyberprzestępcy w coraz większym stopniu polegają na żywych „modelach sztucznej inteligencji” przy realizacji złożonych schematów oszustw, szczególnie w Azji Południowo-Wschodniej. Osoby te aplikują na stanowiska wymagające biegłości w posługiwaniu się wieloma językami i wysokiej dostępności – do 100 fałszywych rozmów wideo dziennie – w celu manipulowania ofiarami w oszustwach związanych z kryptowalutami i romansami. Praktyka ta uwypukla połączenie wyzysku człowieka i sztucznej inteligencji we współczesnych oszustwach.
Nowe oblicze oszustwa: modele AI i technologia deepfake
W świecie cyberprzestępczości pojawił się niepokojący trend: rekrutacja „modeli AI” lub „modeli prawdziwej twarzy”. Osoby te, z których wiele to młode kobiety z takich krajów jak Uzbekistan, Turcja i Rosja, są rekrutowane do udziału w fałszywych rozmowach wideo z potencjalnymi ofiarami. Cel? Buduj zaufanie i wiarygodność w przypadku oszukańczych programów, często obejmujących inwestycje w kryptowaluty lub fikcyjne związki romantyczne.
Modele te nie są jedynie biernymi uczestnikami. Niektórzy powodowie mogą pochwalić się wieloletnim doświadczeniem w oszustwach, szczegółowo opisując, w jaki sposób wykorzystują techniki perswazji, aby nakłonić ofiary do rozstania się z pieniędzmi. Jedna z reklam zachwala nawet wiedzę na temat „oszustw romantycznych” i „platform oszustw związanych z kryptowalutami”. Skala jest zdumiewająca: ogłoszenia rekrutacyjne wymagają nieubłaganych harmonogramów, czasami wymagających 150 rozmów dziennie.
Koszt ludzki: praca przymusowa i wyzysk
Sam proces rekrutacji budzi poważne wątpliwości etyczne. Ogłoszenia o pracę często pomijają kluczowe dane o pracodawcy, prosząc jedynie o zdjęcia, filmy i dane osobowe, takie jak stan cywilny. W niektórych reklamach wskazano nawet, że paszporty będą przechowywane „w celu zarządzania wizami i pozwoleniami na pracę”, co jest taktyką często stosowaną w celu trzymania ludzi w warunkach pracy przymusowej.
Chociaż rekrutacja niektórych modeli sztucznej inteligencji może być dobrowolna, granica między dobrowolnym uczestnictwem a wyzyskiem szybko się zaciera. Według organizacji zajmujących się zwalczaniem handlu ludźmi ofiary handlu ludźmi są często zmuszane do pełnienia tych ról, podczas gdy inne spotykają się z surowym traktowaniem, w tym przemocą fizyczną i molestowaniem seksualnym. Brak przejrzystości utrudnia określenie zakresu przymusu.
Rola w telegramie: Centrum rekrutacji
Telegram stał się główną platformą do rekrutacji modeli AI. Dziesiątki kanałów otwarcie reklamują te pozycje, często w znanych ośrodkach oszustw, takich jak Kambodża. Pomimo twierdzeń Telegramu, że treści związane z oszustwami są zabronione, wiele kanałów rekrutacyjnych pozostaje aktywnych, co wskazuje na słabą kontrolę.
Badacze i śledczy zauważyli w ogłoszeniach o pracę znaki ostrzegawcze: wysokie wynagrodzenia dla regionu, wymagania dotyczące języka chińskiego oraz częste odniesienia do „klientów” (eufemizm oznaczający ofiary) i inwestycji w kryptowaluty. W jednym z postów „oszustwa romantyczne” są nawet określane jako rynek pracy, podkreślając rażącą przestępczość tych operacji.
Ewolucja oszustw: od skradzionych obrazów po fałszywe fałszywe treści na żywo
Rozwój modeli sztucznej inteligencji oznacza eskalację taktyk cyberprzestępczości. Wcześniej oszuści wykorzystywali skradzione obrazy lub podszywanie się pod celebrytów, aby nawiązać kontakt z ofiarami. Teraz głębokie fałszywe połączenia na żywo oferują nowy poziom realizmu. Kiedy ofiary proszą o weryfikację wideo, modele te wchodzą w grę, zapewniając oszustowi przekonującą twarz.
Jak odkrył specjalista ds. strategii zwalczania nadużyć finansowych, Frank McKenna, niektóre modele wydają się działać w ramach wielu schematów, przełączając się między umowami i wykorzystując ofiary z alarmującą skutecznością. Sugeruje to wysoce zorganizowaną sieć przestępców wykorzystujących technologie sztucznej inteligencji w celu maksymalizacji zysków.
Wniosek
Wykorzystanie modeli sztucznej inteligencji w oszustwach podkreśla rosnące wyrafinowanie cyberprzestępczości. Połączenie technologii deepfake, wyzysku ludzi i słabego egzekwowania prawa na platformie tworzy niebezpieczne środowisko dla potencjalnych ofiar. Dopóki popyt na oszukańcze programy będzie się utrzymywał, rekrutacja i wykorzystywanie modeli sztucznej inteligencji prawdopodobnie będzie nadal rosnąć.
