Додому Najnowsze wiadomości i artykuły Oszustwo AI: wzrost liczby fałszywych modeli w Azji Południowo-Wschodniej

Oszustwo AI: wzrost liczby fałszywych modeli w Azji Południowo-Wschodniej

Oszustwo AI: wzrost liczby fałszywych modeli w Azji Południowo-Wschodniej

Cyberprzestępcy w coraz większym stopniu polegają na żywych „modelach sztucznej inteligencji” przy realizacji złożonych schematów oszustw, szczególnie w Azji Południowo-Wschodniej. Osoby te aplikują na stanowiska wymagające biegłości w posługiwaniu się wieloma językami i wysokiej dostępności – do 100 fałszywych rozmów wideo dziennie – w celu manipulowania ofiarami w oszustwach związanych z kryptowalutami i romansami. Praktyka ta uwypukla połączenie wyzysku człowieka i sztucznej inteligencji we współczesnych oszustwach.

Nowe oblicze oszustwa: modele AI i technologia deepfake

W świecie cyberprzestępczości pojawił się niepokojący trend: rekrutacja „modeli AI” lub „modeli prawdziwej twarzy”. Osoby te, z których wiele to młode kobiety z takich krajów jak Uzbekistan, Turcja i Rosja, są rekrutowane do udziału w fałszywych rozmowach wideo z potencjalnymi ofiarami. Cel? Buduj zaufanie i wiarygodność w przypadku oszukańczych programów, często obejmujących inwestycje w kryptowaluty lub fikcyjne związki romantyczne.

Modele te nie są jedynie biernymi uczestnikami. Niektórzy powodowie mogą pochwalić się wieloletnim doświadczeniem w oszustwach, szczegółowo opisując, w jaki sposób wykorzystują techniki perswazji, aby nakłonić ofiary do rozstania się z pieniędzmi. Jedna z reklam zachwala nawet wiedzę na temat „oszustw romantycznych” i „platform oszustw związanych z kryptowalutami”. Skala jest zdumiewająca: ogłoszenia rekrutacyjne wymagają nieubłaganych harmonogramów, czasami wymagających 150 rozmów dziennie.

Koszt ludzki: praca przymusowa i wyzysk

Sam proces rekrutacji budzi poważne wątpliwości etyczne. Ogłoszenia o pracę często pomijają kluczowe dane o pracodawcy, prosząc jedynie o zdjęcia, filmy i dane osobowe, takie jak stan cywilny. W niektórych reklamach wskazano nawet, że paszporty będą przechowywane „w celu zarządzania wizami i pozwoleniami na pracę”, co jest taktyką często stosowaną w celu trzymania ludzi w warunkach pracy przymusowej.

Chociaż rekrutacja niektórych modeli sztucznej inteligencji może być dobrowolna, granica między dobrowolnym uczestnictwem a wyzyskiem szybko się zaciera. Według organizacji zajmujących się zwalczaniem handlu ludźmi ofiary handlu ludźmi są często zmuszane do pełnienia tych ról, podczas gdy inne spotykają się z surowym traktowaniem, w tym przemocą fizyczną i molestowaniem seksualnym. Brak przejrzystości utrudnia określenie zakresu przymusu.

Rola w telegramie: Centrum rekrutacji

Telegram stał się główną platformą do rekrutacji modeli AI. Dziesiątki kanałów otwarcie reklamują te pozycje, często w znanych ośrodkach oszustw, takich jak Kambodża. Pomimo twierdzeń Telegramu, że treści związane z oszustwami są zabronione, wiele kanałów rekrutacyjnych pozostaje aktywnych, co wskazuje na słabą kontrolę.

Badacze i śledczy zauważyli w ogłoszeniach o pracę znaki ostrzegawcze: wysokie wynagrodzenia dla regionu, wymagania dotyczące języka chińskiego oraz częste odniesienia do „klientów” (eufemizm oznaczający ofiary) i inwestycji w kryptowaluty. W jednym z postów „oszustwa romantyczne” są nawet określane jako rynek pracy, podkreślając rażącą przestępczość tych operacji.

Ewolucja oszustw: od skradzionych obrazów po fałszywe fałszywe treści na żywo

Rozwój modeli sztucznej inteligencji oznacza eskalację taktyk cyberprzestępczości. Wcześniej oszuści wykorzystywali skradzione obrazy lub podszywanie się pod celebrytów, aby nawiązać kontakt z ofiarami. Teraz głębokie fałszywe połączenia na żywo oferują nowy poziom realizmu. Kiedy ofiary proszą o weryfikację wideo, modele te wchodzą w grę, zapewniając oszustowi przekonującą twarz.

Jak odkrył specjalista ds. strategii zwalczania nadużyć finansowych, Frank McKenna, niektóre modele wydają się działać w ramach wielu schematów, przełączając się między umowami i wykorzystując ofiary z alarmującą skutecznością. Sugeruje to wysoce zorganizowaną sieć przestępców wykorzystujących technologie sztucznej inteligencji w celu maksymalizacji zysków.

Wniosek

Wykorzystanie modeli sztucznej inteligencji w oszustwach podkreśla rosnące wyrafinowanie cyberprzestępczości. Połączenie technologii deepfake, wyzysku ludzi i słabego egzekwowania prawa na platformie tworzy niebezpieczne środowisko dla potencjalnych ofiar. Dopóki popyt na oszukańcze programy będzie się utrzymywał, rekrutacja i wykorzystywanie modeli sztucznej inteligencji prawdopodobnie będzie nadal rosnąć.

Exit mobile version