L’Immigration and Customs Enforcement (ICE) des États-Unis déploie activement des outils d’intelligence artificielle (IA) développés par Palantir pour analyser et résumer les conseils soumis via son formulaire public en ligne. Un inventaire récemment publié par le Département de la Sécurité intérieure (DHS) révèle que l’agence a commencé à utiliser ce service « AI Enhanced ICE Tip Processing » en mai 2025. Le système est conçu pour accélérer les enquêtes en identifiant rapidement les cas urgents et en traduisant les soumissions dans une langue autre que l’anglais.
L’IA génère des résumés « BLUF » – jargon militaire signifiant « résultat net dès le départ » – fournissant aux enquêteurs un aperçu concis des informations reçues. Le DHS déclare que l’outil réduit l’effort manuel requis pour catégoriser les soumissions, rationalisant ainsi les opérations ICE. Les modèles utilisés sont des modèles de langage étendus (LLM) disponibles dans le commerce, formés sur des ensembles de données publics, sans formation supplémentaire spécifique à l’agence. Cela signifie que l’IA fonctionne uniquement sur les informations existantes, sans ajustement personnalisé à l’aide des données ICE.
Le rôle de longue date de Palantir au sein d’ICE
Palantir est un entrepreneur majeur de l’ICE depuis 2011, fournissant des outils analytiques pour l’application des lois. Cette nouvelle intégration de l’IA marque le premier exemple publiquement connu de Palantir traitant des soumissions de lignes de signalement pour l’agence. Le travail a été mentionné dans un paiement de 1,96 million de dollars en septembre 2025 pour modifier le système de gestion des cas d’enquête (ICM), une version de la plate-forme Gotham de Palantir, pour inclure une « suite de lignes de dénonciation et de pistes d’enquête ». L’outil peut être une mise à jour du FALCON Tipline existant, utilisé depuis environ 2012.
La FALCON Tipline traite les informations provenant du public ou des forces de l’ordre concernant des « activités illégales présumées ». Les agents du HSI interrogent ensuite diverses bases de données avant de rédiger des rapports d’enquête et de renvoyer les cas aux bureaux concernés du DHS. On ne sait pas exactement dans quelle mesure ce processus est désormais assisté par l’IA, mais la mise en œuvre de l’outil suggère une évolution significative vers une analyse automatisée.
Préoccupations internes et expansion des outils d’IA
De récentes discussions internes chez Palantir, provoquées par une fusillade mortelle impliquant des agents fédéraux, montrent la pression des employés pour qu’ils abordent le rôle de l’entreprise dans l’application de l’ICE. La direction a répondu en mettant à jour le wiki interne de Palantir, défendant le travail comme améliorant « l’efficacité opérationnelle de l’ICE ». Le wiki met en évidence trois domaines clés : « Priorisation et ciblage des opérations d’application de la loi », « Suivi des auto-expulsions » et « Opérations liées au style de vie de l’immigration ».
En plus de l’IA de traitement des pourboires, l’inventaire du DHS répertorie également « Enhanced Leads Identification & Targeting for Enforcement (ELITE) ». Cet outil crée des cartes identifiant les cibles potentielles d’expulsion à l’aide des données du ministère de la Santé et des Services sociaux (HHS). Même si le DHS affirme que les résultats d’ELITE se limitent aux données de traitement et n’ont pas d’impact direct sur les décisions, le système permet clairement des opérations d’application plus ciblées.
Participation du public et application accrue
L’ICE et la Maison Blanche ont activement encouragé la participation du public aux soumissions de renseignements, avec des publications sur les réseaux sociaux invitant les citoyens à « contribuer à rendre votre communauté plus sûre » en signalant les activités suspectes. Cette expansion de l’application des lois assistée par l’IA soulève des questions sur la protection de la vie privée, les préjugés et le risque d’excès dans l’application des lois en matière d’immigration. Le recours croissant aux outils automatisés suggère une tendance croissante vers une police de l’immigration basée sur les données, avec peu de surveillance publique.
La mise en œuvre de ces outils d’IA intensifiera probablement les capacités d’application de la loi de l’ICE et accélérera les enquêtes, mais elle approfondira également les préoccupations éthiques concernant les biais algorithmiques et le risque d’identification erronée ou de ciblage injustifié.
