Mars 2026 : Un procès historique redessine les frontières entre puissance militaire et responsabilité des concepteurs d’IA.
Nous le savions depuis longtemps, la technologie est politique. L’affaire Anthropic nous le démontre si besoin en était.
Rappel des faits :
Le 9 mars 2026, une plainte de 48 pages a été déposée devant la cour fédérale américaine. Son titre, Anthropic PBC v. United States Department of War, résume à lui seul une confrontation inédite : pour la première fois, une entreprise d’IA américaine de premier rang attaque juridiquement son propre gouvernement… pour avoir refusé de trahir ses principes éthiques.
Ce procès n’est pas un banal litige commercial. C’est un révélateur brutal des tensions qui traversent l’ensemble de l’écosystème de l’intelligence artificielle : qui décide de ce qu’une IA peut ou ne peut pas faire ? Le marché ? L’État ? Ou les concepteurs eux-mêmes ?
Le refus qui a tout déclenché
Tout part d’une ligne dans les conditions d’utilisation de Claude, le modèle d’IA développé par Anthropic. Deux restrictions, claires et non négociables :
Pas d’armes létales autonomes : Claude ne peut pas être utilisé pour déclencher une force létale sans supervision humaine directe.
Pas de surveillance de masse : Claude ne peut pas servir à l’espionnage généralisé des citoyens américains.
Rappel des faits : le Pentagone et ses réseaux classifiés voulait un accès « illimité » aux capacités du modèle. Anthropic a refusé. Ce refus, l’administration Trump ne l’a pas accepté.
La réponse du gouvernement a été rapide, coordonnée et brutale là aussi : Anthropic a été officiellement désignée comme un “risque pour la chaîne d’approvisionnement en matière de sécurité nationale” , une étiquette traditionnellement réservée aux entreprises liées à des puissances adverses comme la Chine ou la Russie. Toutes les agences fédérales ont reçu l’ordre de cesser immédiatement d’utiliser les technologies de l’entreprise. Un ultimatum avait même été posé : accepter l’usage “illimité” avant le 27 février 2026, sous peine de sanctions.
Pour Anthropic, ce n’était pas une option. La plainte en justice est devenue, selon ses propres termes, « un dernier recours ».
Une attaque juridique en trois actes
La plainte d’Anthropic repose sur des arguments constitutionnels et administratifs solides.
Premier acte : la liberté d’expression. L’entreprise soutient que le gouvernement la punit pour ses convictions idéologiques sur la sécurité de l’IA , c’est-à-dire pour avoir exercé son droit, protégé par le Premier Amendement, de fixer des limites éthiques à son propre produit. En d’autres termes : une entreprise qui refuse de vendre un couteau à quelqu’un qu’elle soupçonne de vouloir blesser quelqu’un ne peut pas être criminalisée pour ce refus.
Deuxième acte : l’abus de pouvoir. La loi sur la sécurisation de la chaîne d’approvisionnement a été conçue pour contrer le sabotage industriel par des puissances étrangères. L’utiliser contre une entreprise américaine qui refuse de modifier ses conditions générales d’utilisation représente, selon Anthropic, un détournement manifeste de son objet. La firme souligne elle-même que ce précédent pourrait affecter « tout contractant fédéral dont le gouvernement n’apprécierait pas les opinions ».
Troisième acte : la procédure arbitraire. La décision est jugée “arbitraire et capricieuse”, un standard juridique américain qui, s’il est retenu par les juges, peut suffire à faire annuler une décision administrative. Le droit à une procédure régulière (due process) aurait été bafoué.
L’enjeu financier : des centaines de millions en suspens
Les enjeux ne sont pas que symboliques. Un contrat de 200 millions de dollars avec le Pentagone est directement menacé. Plus largement, Anthropic craint que le label “risque national” ne la rende toxique aux yeux de l’ensemble de ses partenaires privés et institutionnels. L’effet de contamination peut être dévastateur dans un secteur où la confiance est le premier actif.
Ce que ce procès dit de l’éthique en IA
Au-delà du dossier juridique, c’est une question philosophique et politique fondamentale qui est posée : à qui appartient l’éthique d’un système d’IA ?
Le nœud du problème est le double usage de l’IAe. Pour Anthropic, imposer des garde-fous est une question de sécurité existentielle. Pour le Département de la Guerre, ces mêmes garde-fous sont perçus comme des menottes technologiques qui empêchent l’armée américaine de rester compétitive face à des adversaires qui, eux, n’auront aucune restriction éthique
Depuis des années, les chercheurs et militants de la sécurité des systèmes d’IA plaident pour ce qu’on appelle l’IA “alignée” , c’est-à-dire des systèmes dont les valeurs et les comportements sont alignés sur des principes humains bénéfiques. Anthropic a bâti son identité entière autour de cette mission. L’entreprise a été fondée en 2021 par d’anciens membres d’OpenAI précisément parce qu’ils estimaient que la course à la puissance des modèles devait être tempérée par une réflexion sérieuse sur la sécurité. Ici, ces principes ne restent plus dans des livres blancs académiques. Ils se confrontent à la réalité brutale de la géopolitique, des budgets militaires et du pouvoir exécutif.
Plusieurs tensions majeures émergent de cette affaire :
La tension entre souveraineté technologique et éthique d’usage. Un gouvernement qui finance massivement la recherche en IA peut-il exiger en retour un accès sans restriction à ces technologies ? L’argument de la souveraineté nationale est puissant. Mais il entre en collision directe avec le principe de responsabilité des concepteurs, ce que les juristes anglais appellent le “duty of care” des créateurs de systèmes potentiellement dangereux. C’est un tournant juridique. Si le gouvernement gagne, cela signifie qu’une entreprise privée de la “Tech” peut être contrainte de modifier l’ADN de son produit (ses filtres de sécurité) sous la pression de la sécurité nationale. Si Anthropic gagne, cela confirme que les entreprises d’IA disposent d’un droit de “conscience” ou, du moins, d’une liberté éditoriale totale sur le comportement de leurs modèles, même face aux besoins militaires.
La tension entre compétitivité et valeurs. L’IA est au cœur d’une compétition technologique mondiale féroce, notamment face à la Chine. Dans ce contexte, certains voient les garde-fous éthiques comme un handicap compétitif. D’autres , et c’est la position d’Anthropic, soutiennent que la robustesse éthique est précisément ce qui crédibilise un modèle dans le long terme, y compris auprès des démocraties alliées.
La tension entre la puissance de l’IA et le contrôle humain. La restriction centrale en jeu dans cette affaire, l’IA ne doit pas déclencher une force létale sans contrôle humain, renvoie directement au débat mondial sur les LAWS (Lethal Autonomous Weapon Systems). Des dizaines de pays, des ONG, des comités de l’ONU réclament depuis des années un cadre international. Ce procès montre que même à l’intérieur des États-Unis, la frontière n’est pas tracée.
Un précédent historique
a rupture de l’idée que les entreprises technologiques n’ont comme seul choix que la docilité ou la discrétion face aux demandes gouvernementales est ce qui rend cette affaire inédite. Anthropic a choisi une troisième voie : la contestation publique et juridique. En déposant une plainte nommant explicitement le Department of War (la nouvelle dénomination du Pentagone sous l’administration Trump), l’entreprise pose un acte politique autant que juridique.
Pour la première fois, les conditions d’utilisation d’un modèle d’IA sont au cœur d’un litige constitutionnel américain. Cela transforme ces clauses, souvent ignorées, en actes de gouvernance technologique avec une portée réelle. Une portée qui va créer une tension là aussi
Ce que les acteurs de l’IA doivent en retenir
Pour les CMO, les DSI, les responsables de transformation numérique, cette affaire n’est pas lointaine. Elle pose des questions concrètes :
Vos usages de l’IA sont-ils documentés et encadrés par des politiques d’utilisation responsable ?
Savez-vous quelles restrictions s’appliquent aux modèles que vous déployez ?
Êtes-vous prêts à défendre ces choix face à vos parties prenantes, internes comme externes ?
L’éthique de l’IA n’est plus un sujet réservé aux philosophes ou aux régulateurs. C’est désormais un enjeu de gouvernance d’entreprise, un risque juridique, et comme ce procès le démontre, un terrain de confrontation politique au plus haut niveau.
L’éthique n’est pas un frein, c’est un choix stratégique
Anthropic aurait pu céder. Sur le plan purement commercial, accepter les conditions du Pentagone aurait préservé des centaines de millions de dollars de contrats. L’entreprise a choisi l’inverse : risquer tout cela pour défendre deux principes, pas d’armes autonomes, pas de surveillance de masse. Ce choix est discutable. Il est certainement risqué. Mais il est aussi le signe que quelque chose est en train de changer dans l’industrie de l’IA : les concepteurs de ces systèmes commencent à assumer publiquement la responsabilité de ce qu’ils créent. Ce procès est sain car il force la société à répondre à une question que nous avons longtemps esquivée : qui contrôle les valeurs morales d’une intelligence artificielle ? Le créateur de l’outil ou l’utilisateur qui finance son développement ? La réponse du tribunal de Columbia fera jurisprudence pour la décennie à venir.
Dans un monde où les modèles d’IA deviennent des infrastructures critiques, militaires, civiles, démocratiques, la question de qui fixe les règles n’est plus technique, si tant est qu’elle l’ait déjà été. Elle est fondamentalement politique. C’est un moment charnière pour l’industrie : le résultat de ce procès déterminera si les entreprises d’IA resteront des entités indépendantes ou si elles deviendront, de fait, des extensions technologiques de l’appareil d’État.
Ce procès pourrait bien en être le premier chapitre visible.
A voir : (395) Géopolitique de l’IA – Conférence de l’IFRI à La Sorbonne – YouTube
A relire : Technopolitique d’Asma Mhalla : pourquoi il faut lire cet essai – Fabrice Frossard
Et à lire : Avons-nous le choix d’utiliser l’IA en temps de guerre – Portail de la recherche de l’Université de Namur

