Fin février 2026 éclate un affrontement d’un type nouveau. Le Pentagone adresse à Anthropic un ultimatum : supprimer toute limitation d’usage dans les contrats militaires, permettant notamment d’utiliser Claude sans restriction dans les systèmes d’armes. Le PDG d’Anthropic, Dario Amodei, refuse publiquement. Anthropic maintient deux lignes rouges absolues : l’utilisation de Claude dans des systèmes d’armes létales entièrement autonomes (où une IA décide seule de tuer sans supervision humaine) et dans des systèmes de surveillance de masse de citoyens américains. L’administration Trump réagit en bannissant Anthropic des agences fédérales américaines.

Contexte mondial : Ce bras de fer intervient alors que la militarisation de l’IA s’accélère. Plusieurs pays ont signé la «Déclaration de Bletchley» sur l’IA sûre, mais sans mécanisme contraignant. OpenAI — qui avait initialement banni les usages militaires dans ses conditions d’utilisation — avait levé cette restriction en 2024, choisissant de travailler avec le Pentagone. La frontière entre «assistance à la décision militaire» (acceptable) et «système létal autonome» (problématique) reste floue et non définie en droit international, faisant de ce cas Anthropic une référence mondiale dans le débat sur la gouvernance de l’IA.

Cet épisode illustre la tension structurelle entre des entreprises IA qui ont construit leur identité sur des principes de sécurité (Anthropic a cofondé le mouvement de l’«IA constitutionnelle» et publie des recherches sur l’alignment), et des États souverains qui considèrent ces technologies comme un outil de puissance militaire incontournable. La décision d’Anthropic isole temporairement la société sur le marché fédéral américain, mais renforce sa crédibilité en Europe et parmi les développeurs attachés à l’éthique de l’IA.