Le ministère américain de la Justice (DOJ) a défendu la décision de l’administration Trump de désigner le développeur d’IA Anthropic comme un risque pour la chaîne d’approvisionnement, arguant que les droits de l’entreprise liés au premier amendement n’ont pas été violés par cette décision. Le gouvernement maintient que le procès d’Anthropic contre le Pentagone échouera, car il n’a pas le droit de dicter ses conditions aux agences fédérales.
Le différend porte sur le refus d’Anthropic d’autoriser une utilisation militaire sans restriction de ses modèles d’IA, en particulier de son chatbot Claude. Le Pentagone craint qu’Anthropic puisse saboter ou manipuler sa technologie s’il n’est pas d’accord avec les opérations gouvernementales, ce qui pourrait perturber les systèmes de guerre. Les responsables ont décrit Anthropic comme un « entrepreneur voyou » dont on ne peut pas faire confiance à la technologie.
Anthropic soutient que la désignation de chaîne d’approvisionnement constitue une représaille illégale à ses restrictions sur le déploiement de l’IA dans les armes autonomes et la surveillance de masse. L’entreprise affirme que cette action pourrait lui coûter des milliards de dollars en perte de revenus, car les contrats de défense sont suspendus. Il cherche à rétablir le statu quo pendant que les litiges se poursuivent, mais le DOJ a qualifié cette demande de « juridiquement insuffisante ».
Le ministère de la Défense remplace activement les outils d’IA d’Anthropic par des alternatives de Google, OpenAI et xAI. Ce changement est accéléré par le fait qu’Anthropic est actuellement le seul modèle d’IA autorisé à être utilisé dans les systèmes classifiés et les opérations de haute intensité. Le gouvernement affirme qu’il ne peut pas compter sur un fournisseur peu disposé à garantir une pleine coopération.
Plusieurs entreprises et chercheurs en IA ont déposé des mémoires en faveur d’Anthropic, mais aucun soutien n’a été proposé au gouvernement. L’affaire doit être entendue la semaine prochaine, où un juge décidera de lever ou non temporairement les sanctions contre Anthropic. Le DOJ insiste sur le fait que les préoccupations en matière de sécurité nationale l’emportent sur les intérêts financiers de l’entreprise, et le Pentagone est prêt à aller de l’avant sans Anthropic si nécessaire.
Ce différend met en évidence une tension plus large entre les développeurs d’IA qui donnent la priorité aux restrictions éthiques et les gouvernements exigeant un accès illimité aux technologies avancées à des fins militaires. Le résultat créera un précédent pour les interactions futures entre le secteur privé et les agences de défense dans un monde de plus en plus axé sur l’IA.




















