Le département américain de la Défense a brusquement mis fin vendredi soir aux négociations avec la société d’intelligence artificielle Anthropic, après l’échec des négociations en raison de la demande du Pentagone d’un accès illimité aux systèmes d’IA de l’entreprise. L’échec de l’accord, d’une valeur estimée à 200 millions de dollars, souligne la tension croissante entre les agences gouvernementales à la recherche de technologies de pointe et les développeurs d’IA qui craignent de compromettre la vie privée des utilisateurs ou de permettre des applications de surveillance controversées.

L’impasse

Emil Michael, directeur de la technologie du DoD, aurait fait pression pour que le libellé autorise « la surveillance légale des Américains » comme condition du contrat. Anthropic a résisté, refusant que sa technologie soit utilisée à des fins de surveillance domestique. Selon des sources proches des négociations, le désaccord se résumait à quelques mots clés de la version finale.

Négociations parallèles avec OpenAI

Tout en poursuivant publiquement un accord avec Anthropic, Michael a engagé simultanément des discussions avec OpenAI, un développeur d’IA concurrent. Un cadre avec OpenAI était déjà en place, offrant au DoD une option alternative lorsqu’Anthropic refusait de céder. Cela suggère que le Pentagone était prêt à s’éloigner d’Anthropic depuis le début.

Les retombées

À 17h14 Vendredi, le secrétaire à la Défense, Pete Hegseth, a publiquement désigné Anthropic comme un « risque pour la sécurité » et a rompu tous les contrats gouvernementaux. Cette décision a été annoncée sur les réseaux sociaux avec la déclaration suivante : « Les combattants américains ne seront jamais pris en otage par les caprices idéologiques des grandes technologies ». Cette position agressive met en évidence la volonté de l’administration de donner la priorité au contrôle opérationnel plutôt qu’à d’éventuelles considérations éthiques.

Implications plus larges

Cette impasse souligne un dilemme critique : les gouvernements chercheront inévitablement à exploiter la puissance de l’IA à des fins de sécurité nationale, tandis que de nombreuses entreprises d’IA résisteront si cela implique de sacrifier les principes fondamentaux de la vie privée des utilisateurs. Cette affaire démontre que lorsque les choses se présentent, le DoD donnera la priorité à son accès à la technologie, même si cela signifie rompre les partenariats avec des entreprises peu disposées à coopérer pleinement. L’incident est susceptible de créer un précédent pour les futures négociations entre le Pentagone et les développeurs d’IA, les obligeant soit à s’aligner sur les exigences du gouvernement, soit à risquer d’être exclus des contrats de défense lucratifs.