Amerykański organ imigracyjny i celny (ICE) aktywnie wdraża narzędzia sztucznej inteligencji (AI) opracowane przez firmę Palantir w celu analizowania i podsumowywania wiadomości otrzymywanych za pośrednictwem publicznego formularza internetowego. Z nowo opublikowanego spisu Departamentu Bezpieczeństwa Wewnętrznego (DHS) wynika, że agencja zaczęła korzystać z usługi „przetwarzania raportów ICE wspomaganego sztuczną inteligencją” w maju 2025 r. System ma przyspieszyć dochodzenia poprzez szybką identyfikację pilnych spraw i tłumaczenie raportów, które nie zostały złożone w języku angielskim.
Sztuczna inteligencja generuje raporty „BLUF” – w żargonie wojskowym oznaczające „co najważniejsze w skrócie” – dając śledczym szybki przegląd przychodzących wiadomości. DHS twierdzi, że narzędzie zmniejsza liczbę ręcznej pracy wymaganej do klasyfikowania wiadomości, usprawniając operacje ICE. Wykorzystane modele to dostępne na rynku modele dużych języków (LLM), trenowane na publicznie dostępnych danych, bez dodatkowego szkolenia specyficznego dla agencji. Oznacza to, że sztuczna inteligencja działa wyłącznie w oparciu o istniejące dane, bez specjalnego dostrajania z wykorzystaniem danych ICE.
Długoterminowa rola Palantira w ICE
Palantir jest głównym wykonawcą ICE od 2011 r., dostarczającym narzędzia analityczne dla organów ścigania. Ta nowa integracja sztucznej inteligencji to pierwszy publicznie znany przypadek przetwarzania raportów przez firmę Palantir za pośrednictwem infolinii agencji. O pracach wspomniano w ramach płatności w wysokości 1,96 mln dolarów we wrześniu 2025 r. za modyfikację systemu zarządzania przypadkami inwestycyjnymi (ICM), wersji platformy Gotham firmy Palantir, w celu uwzględnienia „zestawu infolinii i porad dochodzeniowych”. Narzędziem może być aktualizacja istniejącej infolinii FALCON, która funkcjonuje od około 2012 roku.
Infolinia FALCON obsługuje zgłoszenia od społeczeństwa lub organów ścigania dotyczące „podejrzanych nielegalnych działań”. Następnie agenci HSI przeszukują różne bazy danych, zanim sporządzą raporty dochodzeniowe i przekażą sprawy do odpowiednich biur DHS. Nie jest jasne, jaka część tego procesu jest obecnie zautomatyzowana przez sztuczną inteligencję, ale wprowadzenie tego narzędzia sugeruje znaczącą zmianę w kierunku analizy zautomatyzowanej.
Wewnętrzne obawy i rozwój sztucznej inteligencji
Niedawne wewnętrzne dyskusje w Palantir, wywołane śmiercionośną strzelaniną z udziałem agentów federalnych, uwypukliły presję ze strony pracowników na firmę, aby zajęła się jej rolą w działaniach związanych z egzekwowaniem prawa ICE. Zarząd zareagował, aktualizując wewnętrzną wiki Palantira, broniąc swojej pracy jako poprawy „efektywności operacyjnej ICE”. Wiki składa się z trzech kluczowych obszarów: „Nadawanie priorytetów i śledzenie operacji zatrzymania”, „Śledzenie samodeportacji” i „Operacje identyfikacji osób naruszających zasady imigracji”.
Oprócz raportowania sztucznej inteligencji w wykazie DHS znajduje się również lista „Ulepszona identyfikacja potencjalnych klientów i ukierunkowanie na potrzeby egzekwowania prawa (ELITE)”. Narzędzie tworzy mapy identyfikujące potencjalne cele deportacji na podstawie danych z Departamentu Zdrowia i Opieki Społecznej (HHS). Chociaż DHS twierdzi, że wyniki ELITE ograniczają się do adresów i nie mają bezpośredniego wpływu na decyzje, system wyraźnie pozwala na bardziej ukierunkowane operacje aresztowań.
Zaangażowanie publiczne i wzmocnienie egzekwowania prawa
ICE i Biały Dom aktywnie zachęcają społeczeństwo do zgłaszania incydentów, wzywając obywateli, aby „pomogli zwiększyć bezpieczeństwo swojej społeczności” poprzez zgłaszanie podejrzanych działań. Rozwój organów ścigania wykorzystujących sztuczną inteligencję rodzi pytania dotyczące prywatności, stronniczości i potencjalnego przekroczenia zakresu prawa imigracyjnego. Rosnące poleganie na zautomatyzowanych narzędziach wskazuje na rosnącą tendencję w kierunku działań policyjnych w zakresie imigracji w oparciu o dane, przy niewielkim nadzorze publicznym.
Wprowadzenie tych narzędzi sztucznej inteligencji prawdopodobnie wzmocni możliwości ICE w zakresie egzekwowania prawa i przyspieszy dochodzenia, ale zwiększy również obawy etyczne dotyczące stronniczości algorytmów i możliwości błędnej identyfikacji lub niewłaściwego ukierunkowania.
