← AI War Room
Souverainete

Anthropic (contre) attaque le gouvernement américain en justice - et c'est historique

Tech4B2B · · 3 min (mis à jour le )
Illustration : Anthropic (contre) attaque le gouvernement américain en justice - et c'est historique
  • Sujet: Anthropic (contre) attaque le gouvernement américain en justice - et c'est historique
  • Date:
Quand une entreprise d'IA refuse de laisser l'armée faire n'importe quoi avec ses modèles, ça finit devant les tribunaux. Le 9 mars 2026, Anthropic a déposé deux plaintes distinctes contre l'administration Trump, contestant à la fois le blacklistage décidé par le Pentagone et la

La genèse du conflit : deux lignes rouges

Pour comprendre ce qui a mené à ce bras de fer judiciaire, il faut remonter à la fin 2025. Le Département de la Guerre - nouvelle appellation du Pentagone sous l'administration Trump - cherchait à renégocier les conditions d'utilisation de Claude dans ses systèmes, en exigeant un accès dit "all lawful use" : autrement dit, une carte blanche pour tout usage jugé légal par le gouvernement.

Anthropic a largement accepté. Sauf sur deux points non négociables : l'utilisation de Claude pour des systèmes d'armement létaux autonomes sans supervision humaine, et pour la surveillance de masse de citoyens américains. Pas une posture idéologique, selon Anthropic, mais une limite technique : Claude n'a tout simplement pas été conçu ni testé pour ces usages, et l'entreprise estime qu'il ne peut pas les assurer de manière fiable ou sûre aujourd'hui.

Le Pentagone a répondu par un ultimatum public : se plier aux exigences avant le 27 février 2026 à 17h01, ou "payer le prix". Les termes employés par un responsable du département ? "An enormous pain in the ass to disentangle, and we are going to make sure they pay a price."

L'escalade : de Truth Social aux tribunaux

Le 26 février, le CEO d'Anthropic, Dario Amodei, publie une déclaration publique sobre et ferme : ces deux usages sont "hors des limites de ce que la technologie actuelle peut faire de manière sûre et fiable". Le lendemain, avant même l'expiration du délai fixé, le président Trump répondait sur Truth Social en ordonnant à "CHAQUE agence fédérale" de "CESSER IMMÉDIATEMENT" tout usage de la technologie Anthropic, qualifiant la société de "RADICAL LEFT, WOKE COMPANY" et menaçant de "conséquences civiles et pénales".

Quelques heures plus tard, le secrétaire à la Guerre Pete Hegseth officialisait la désignation d'Anthropic comme "Supply-Chain Risk to National Security" - un label jusqu'alors réservé aux menaces émanant d'adversaires étrangers comme la Chine ou la Russie - et interdisait à tout contractant ou partenaire militaire de maintenir des relations commerciales avec l'entreprise. La GSA retirait Anthropic de ses contrats-cadres fédéraux. Le Trésor, le Département d'État, HHS suivaient dans les jours suivants.

Ironie cruelle : dans les heures suivant ces annonces, le Pentagone lançait une frappe aérienne en Iran... en utilisant les outils d'Anthropic.

Les arguments juridiques : 5 chefs d'accusation

La plainte déposée devant le tribunal fédéral du district nord de Californie articule cinq axes :

  1. Violation du Procurement Act (10 U.S.C. § 3252) : le label "supply chain risk" est un outil légal visant les risques de sabotage par des adversaires étrangers, pas un instrument de pression dans une négociation contractuelle avec une entreprise américaine.
  2. Violation du Premier Amendement : en punissant Anthropic pour ses prises de position publiques sur la sécurité de l'IA, le gouvernement a exercé des représailles contre une expression protégée par la Constitution.
  3. Action ultra vires du Président : la directive présidentielle dépasse les pouvoirs constitutionnels et légaux de l'exécutif en matière de passation de marchés publics.
  4. Violation du Cinquième Amendement (due process) : Anthropic a été privée de ses contrats et de sa réputation sans aucune procédure contradictoire, ni même notification préalable.
  5. Violation de l'APA : les agences fédérales ne peuvent imposer des sanctions qu'en vertu d'une délégation légale explicite du Congrès, ce qui n'existe pas ici.

La plainte cite notamment le cas Perkins Coie v. DOJ (2025), où un tribunal avait déjà invalidé un executive order de Trump contre un cabinet d'avocats pour les mêmes raisons de représailles anticonstitutionnelles.

Une solidarité inattendue - et un signal fort

Ce qui rend ce dossier encore plus significatif : plus de 30 ingénieurs et chercheurs d'OpenAI et Google ont signé un amicus brief soutenant la position d'Anthropic. Une démarche rare dans un secteur marqué par une concurrence féroce. Leur argument : si le gouvernement peut blacklister un laboratoire américain pour ses positions sur la sécurité, c'est toute l'industrie IA qui devient otage de l'arbitraire politique - au profit, in fine, de la Chine.

Pourquoi c'est un moment charnière

Cette affaire dépasse largement le cas d'Anthropic. Elle pose une question fondamentale : un gouvernement peut-il contraindre une entreprise privée à lever ses propres garde-fous sur une technologie potentiellement dangereuse, sous peine de représailles économiques ?

Quelle que soit l'issue judiciaire, le précédent est posé. Tous les grands laboratoires d'IA - Mistral, DeepMind, Meta, OpenAI - observent. Car si Anthropic perd, la logique du "you're either with us or against us" s'impose à tout l'écosystème. Et si Anthropic gagne, cela établit que les entreprises technologiques ont le droit constitutionnel de fixer des limites à leurs propres outils - même face aux plus hautes autorités de l'État.


Sources : plainte déposée le 9 mars 2026 (Case 3:26-cv-01996-RFL), Northern District of California.

Le brief tech qui compte
Chaque matin à 7h, les 5 signaux tech B2B à ne pas manquer.