Het ministerie van Volksgezondheid en Human Services (HHS) heeft stilletjes hulpmiddelen voor kunstmatige intelligentie ingezet, waaronder software van Palantir, om federale subsidies, functiebeschrijvingen en aanvragen voor afstemming op recente uitvoeringsbesluiten gericht op initiatieven op het gebied van diversiteit, gelijkheid en inclusiviteit (DEI) en wat ambtenaren ‘genderideologie’ noemen, te controleren. Deze praktijk, die sinds maart 2025 aan de gang is, heeft plaatsgevonden zonder publieke erkenning van HHS of Palantir.
AI-gestuurde audits en financieringsverschuivingen
Het initiatief richt zich op de handhaving van Executive Order 14151, die tot doel heeft DEI-gerelateerd beleid uit federale programma’s te elimineren, en Executive Order 14168, waarin seks wordt gedefinieerd als een ‘onveranderlijke biologische classificatie’. De AI-tools markeren inhoud die verwijst naar DEI, ‘gelijkheid’ of ‘genderidentiteit’ voor verdere beoordeling. Palantir verdiende voor dit werk ruim 35 miljoen dollar van HHS tijdens het eerste jaar van de tweede regering-Trump, hoewel financiële onthullingen deze ideologische audits niet expliciet vermelden.
De Administration for Children and Families (ACF) binnen HHS staat centraal in deze inspanning en gebruikt de software van Palantir om ‘functiebeschrijvingen te identificeren die mogelijk moeten worden aangepast’. Credal AI, opgericht door voormalige medewerkers van Palantir, assisteert ACF ook bij het beoordelen van subsidieaanvragen. Het AI-systeem genereert initiële vlaggen, die vervolgens handmatig worden beoordeeld door ACF-programmapersoneel.
Bredere impact op federale financiering en onderzoek
De uitvoering van deze uitvoeringsbesluiten heeft al aanzienlijke gevolgen gehad. De National Science Foundation (NSF) begon onderzoek met DEI-gerelateerde termen, zoals ‘inclusie’ of ‘ondervertegenwoordigd’, ter beoordeling te markeren. De Centers for Disease Control and Prevention (CDC) stopten het onderzoek waarbij LGBTQ+-populaties betrokken waren, en de Substance Abuse and Mental Health Services Administration (SAMHSA) verwijderde een LGBTQ-jeugdhulplijn uit de 988 Suicide & Crisis Lifeline.
Bij het NSF en de National Institutes of Health was tegen het einde van het jaar bijna 3 miljard dollar aan subsidiefondsen bevroren of stopgezet. Ontslagen troffen werknemers bij verschillende instanties, waaronder het ministerie van Onderwijs en NASA, soms ongeacht hun directe betrokkenheid bij DEI-gerelateerde functies. NASA heeft bijvoorbeeld vermeldingen van vrouwen, inheemse volkeren en LGBTQ-individuen van haar website verwijderd.
Naleving van de particuliere sector en de groei van Palantir
Geconfronteerd met mogelijke bezuinigingen hebben meer dan 1.000 non-profitorganisaties hun missieverklaringen herschreven om taalgebruik te vermijden dat verband houdt met DEI. Zelfs organisaties als het National Center for Missing and Exploited Children verwijderden verwijzingen naar transgenders uit hun openbare materialen, ondanks hun toegenomen kwetsbaarheid voor seksueel misbruik.
Ondertussen zijn de inkomsten van Palantir uit federale contracten enorm gestegen. Het bedrijf verdiende tijdens het eerste jaar van de tweede regering-Trump ruim $1 miljard aan nettobetalingen, vergeleken met ongeveer $808 miljoen het jaar daarvoor. Immigration and Customs Enforcement (ICE) is een belangrijke klant van Palantir geworden en heeft het bedrijf nog eens 30 miljoen dollar toegekend om tools te ontwikkelen voor het volgen en deporteren van personen.
De software van Palantir, waaronder het Investigative Case Management System (ICM) en de app Enhanced Leads Identification & Targeting for Enforcement (ELITE), integreert gegevens van HHS en andere bronnen om gedetailleerde profielen te creëren over potentiële handhavingsdoelen. Ondanks de zorgen van interne medewerkers over ethische implicaties, blijft Palantir zijn werk bij ICE verdedigen.
De huidige trend demonstreert een systematische poging om ideologische afstemming binnen de federale financiering en onderzoek af te dwingen, waarbij sterk wordt geleund op AI-gestuurde surveillance- en handhavingsmechanismen. De langetermijngevolgen voor het wetenschappelijk onderzoek, sociale programma’s en individuele rechten moeten nog worden bezien.




















