Le secrétaire à la Défense américain envisage de désigner Anthropic comme « supply chain risk » — une étiquette qui ferait de l’éditeur IA un paria pour toute l’industrie de la défense. L’enjeu dépasse un contrat de 200 millions de dollars : c’est le précédent que l’administration Trump fixe pour l’écosystème IA, et la bataille entre sécurité militaire et garde-fous éthiques privés.
La quarantaine commerciale : une sanction plus dévastatrice qu'une rupture
Une rupture de contrat, c’est de l’argent perdu. Une désignation « supply chain risk » est bien pire : elle signifie que tout partenaire voulant faire affaire avec le Pentagon doit couper ses liens avec Anthropic. C’est une mise en quarantaine commerciale.
Le mécanisme fonctionne ainsi. Le Pentagon pose un standard de sécurité, ce standard s’étend instantanément à toute sa chaîne d’approvisionnement, et si une entreprise de défense utilise Claude, elle devient automatiquement suspecte. Entreprises aérospatiales, sous-traitants militaires, agences fédérales — tous devraient se demander s’il vaut mieux couper les ponts avec Anthropic.
Selon un officiel de l’administration Trump cité par Axios, Anthropic « paierait le prix » de son refus. La menace est explicite : fin des contrats actuels, isolation du marché militaire américain — le plus lucratif au monde pour les technologies stratégiques.
Chronologie : du silence à l'ultimatum
Le conflit n’a éclaté au grand jour que le 16 février 2026, mais il couve depuis des semaines.
Janvier 2026
Le Pentagon adresse un ultimatum à quatre grands éditeurs IA — OpenAI, Google, xAI et Anthropic. Le message est simple : autoriser l’accès « tous usages légaux » aux modèles militaires. Trois éditeurs montrent une certaine flexibilité. Anthropic refuse catégoriquement.
Février 2026
Le Wall Street Journal révèle que Claude avait été utilisé lors de l’opération militaire au Venezuela qui a mené à la capture de Nicolás Maduro en janvier. Claude avait été intégré via Palantir, le fournisseur de logiciels d’analyse travaillant directement avec les agences de défense.
Pour l’administration Trump, la révélation pose une question gênante : si Anthropic ne voulait pas que son IA soit utilisée à des fins militaires, comment expliquer qu’elle l’ait été sans même que l’entreprise soit informée des détails ?
Au cœur du différend : deux lignes rouges non négociables
Anthropic fonde son refus sur deux principes centraux.
Interdiction des armes autonomes à contrôle total
Le Pentagon et ses alliés travaillent sur les « loyal wingmen » — des systèmes aériens qui pourraient bientôt opérer sans pilote humain. En Ukraine, les drones autonomes s’approchent déjà du champ de bataille.
Anthropic refuse de fournir les outils qui feraient franchir à ces systèmes le pas décisif : le tir sans décision humaine en temps réel. Cette ligne rouge correspond à ce que Dario Amodei, le PDG d’Anthropic, a exprimé publiquement : l’IA militaire oui, à condition qu’elle ne nous rende pas « plus semblables à nos adversaires autocratiques ».
Interdiction de la surveillance de masse
Anthropic refuse que Claude soit utilisé pour surveiller les citoyens américains à grande échelle. L’entreprise positionne ce refus comme une ligne de principes : les outils publiquement financés par l’innovation privée ne doivent pas servir la surveillance interne.
La riposte du Pentagon
Le département de la Défense établit sa propre doctrine : il « insiste sur l’utilisation d’IA commerciale indépendamment des politiques d’utilisation des fabricants, pourvu que la loi américaine soit respectée ». Le raisonnement est pragmatique : la légalité suffit, les garde-fous éthiques des éditeurs n’ont pas à s’interposer.
Venezuela : ce qu'on sait, ce qu'on ne sait pas
Le rapport du Wall Street Journal était percutant : Claude avait été déployé lors de l’opération qui a conduit à la capture de Maduro début janvier 2026. Cette ambiguïté est révélatrice. Anthropic aurait préféré qu’une telle utilisation ne se produise pas, mais Claude était accessible au Pentagon via Palantir, et une fois dans ce pipeline, l’IA est devenue un outil comme un autre — intégrée dans des décisions qu’Anthropic ne maîtrise plus.
Le problème structurel est fondamental : Anthropic n’a aucun moyen de surveiller ou de refuser l’utilisation ex-post une fois le modèle intégré dans une chaîne d’opérations classifiées. Seule une restriction d’accès amont le pourrait — or c’est précisément ce que le Pentagon refuse.
Pourquoi les rivaux cèdent, pourquoi Anthropic refuse
Le calcul des concurrents
OpenAI, Google et xAI ont tous montré plus de flexibilité face à la demande « tous usages légaux ». Le calcul est stratégique : ces trois éditeurs ont tous intérêt à conserver leur accès au marché militaire américain — le plus gros contrat d’IA disponible mondialement. Sacrifier des clauses éthiques est un prix acceptable pour eux. OpenAI, en particulier, a opéré un virage récent vers une collaboration plus étroite avec le département de la Défense.
L'ADN fondateur d'Anthropic
Anthropic s’était positionnée différemment depuis sa création. L’entreprise avait fait de la sécurité IA et l’alignement éthique son ADN fondateur — l’inverse d’une stratégie de diversification tous azimuts. Cette posture s’est avérée coûteuse face à un Pentagon qui n’a pas envie de négocier avec la conscience industrielle. D’où la menace : si vous ne jouez pas le jeu, vous êtes dehors.
Les enjeux en cascade : IPO, précédent, géopolitique
Pour Anthropic, les enjeux s’empilent.
L’entreprise prépare une introduction en bourse — valorisée à 380 milliards de dollars selon des données récentes. Un contrat de 200 millions de dollars n’est pas négligeable, mais c’est surtout l’étiquette « supply chain risk » qui dévalorise l’IPO. Tout investisseur demande immédiatement : Anthropic peut-elle faire affaire avec le gouvernement fédéral ? La réponse devient : pas sans risque réglementaire accru.
Une victoire d’Anthropic — ou même un compromis — aurait un effet de précédent inverse. Cela montrerait à l’industrie que les garde-fous éthiques peuvent survivre aux pressions gouvernementales. Mais pour cela, il faudrait que le Pentagon cède — ce qui semble peu probable sous l’administration Trump.
Trois scénarios possibles
Scénario 1 : Compromis partiel
Anthropic accepte de relâcher partiellement ses garde-fous sur la surveillance, tout en maintenant un refus catégorique sur les armes autonomes. C’est un compromis qui sauverait partiellement la face : Anthropic garde ses principes les plus forts, mais accepte une intrusion partielle. Le contrat se renouvellerait, accompagné d’un communiqué louant un accord éthique.
Scénario 2 : Standoff implicite
Le Pentagon n’annule rien officiellement mais paralyse l’accès progressivement. Anthropic subit une asphyxie implicite plutôt qu’une rupture directe. C’est pénible mais moins spectaculaire.
Scénario 3 : Rupture directe
Le Pentagon ferme le dossier, applique le label « supply chain risk », et transfère ses besoins à OpenAI ou xAI. Le message politique est sans équivoque : l’éthique coûte cher quand on regarde mal le Pentagon.
Le signal qui s'adresse à tout l'écosystème IA
Ce qui se joue dépasse le contrat Anthropic. L’administration Trump envoie un signal au secteur IA : la sécurité nationale prime sur les garde-fous éthiques privés. Les entreprises qui refusent d’avancer sur ce terrain seront isolées.
Anthropic refuse cette logique. Dario Amodei a répété publiquement que l’IA militaire est acceptable, à condition de ne pas franchir certaines lignes. Le Pentagon répond : nous fixons les lignes, pas vous.
C’est un bras de fer géopolitique classique, joué sur le terrain de l’IA. D’un côté, l’État qui refuse que les garde-fous privés limitent sa puissance opérationnelle. De l’autre, une entreprise qui tente de conserver une autonomie éthique malgré ses partenariats d’État. L’issue reste ouverte, mais la menace du Pentagon — cette simple étiquette « supply chain risk » — a montré que dans le conflit entre l’éthique industrielle et la puissance militaire, l’État dispose d’armes bien plus redoutables qu’un simple contrat annulé.
Sources
- https://www.axios.com/2026/02/16/anthropic-defense-department-relationship-hegseth
- https://www.reuters.com/technology/pentagon-threatens-cut-off-anthropic-ai-safeguards-dispute-axios-reports-2026-02-15/
- https://www.semafor.com/article/02/16/2026/pentagon-could-cut-ties-with-anthropic-over-ai-safeguard-rift
- https://www.reuters.com/business/pentagon-clashes-with-anthropic-over-military-ai-use-2026-01-29/
- https://www.reuters.com/world/americas/us-used-anthropics-claude-during-the-venezuela-raid-wsj-reports-2026-02-13/
- https://www.theguardian.com/technology/2026/feb/14/us-military-anthropic-ai-model-claude-venezuela-raid
- https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17
- https://techcrunch.com/2026/02/15/anthropic-and-the-pentagon-are-reportedly-arguing-over-claude-usage/
- https://the-decoder.com/anthropic-still-wont-give-the-pentagon-unrestricted-access-to-its-ai-models/











