Anthropic vs Pentagone : Quand l'Éthique de la "Safe AI" Rencontre la Realpolitik Militaire

Dans les couloirs feutrés du Pentagone, une convocation récente a transformé une tension larvée en confrontation ouverte. Pete Hegseth, Secrétaire à la Défense sous l'administration Trump, a personnellement sommé Dario Amodei, PDG d'Anthropic, de revoir ses "lignes rouges" éthiques sur l'usage militaire de Claude. L'ultimatum est clair : assouplissez les restrictions sur les applications classifiées ou affrontez une désignation comme risque pour la chaîne d'approvisionnement – un stigmate administratif qui équivaut à un exil des marchés fédéraux. Au même moment, Anthropic finance discrètement un Super PAC pour inonder les midterms d'un blitz publicitaire pro-régulation IA. Cette double stratégie – bras de fer avec l'exécutif et lobbying offensif au Congrès – place la "safe AI company" dans une position intenable : principes ou survie économique ?
L'Ultimatum du Pentagone : Sécurité Nationale vs Idéalisme
Le conflit n'est pas nouveau. Depuis 2025, Anthropic entretient un contrat de 200 millions de dollars avec le Département de la Défense, limité à des usages "non sensibles" comme l'analyse logistique ou la planification. Mais l'usage de Claude lors du raid vénézuélien du 3 janvier – qui a permis la capture du président Maduro grâce à une optimisation en temps réel des trajectoires de drones – a franchi une ligne invisible. Les termes d'Anthropic interdisent explicitement les armes autonomes sans supervision humaine et la surveillance de masse des citoyens américains.
Le Pentagone y voit une entrave :
Sean Parnell (Pentagone) : « Notre nation requiert partenaires aidant warfighters gagner n'importe quel combat. Ultimement, sécurité troops et Américains prime » .
Pete Hegseth, figure loyale de Trump connue pour son intransigeance, n'hésite pas à jouer la carte patriotique. La menace de "supply chain risk" est un marteau-pilon : une fois étiquetée ainsi, Anthropic serait virtuellement bannie des chaînes d'approvisionnement des géants de la défense comme Lockheed Martin ou Raytheon.
Remplacer Claude ? Un "undertaking majeur", admettent des sources internes, avec un coût de migration estimé à plus de 100 millions de dollars. Pourtant, le message est limpide : l'éthique ne peut primer sur la supériorité technologique américaine.
Le Double Jeu d'Anthropic : Lobbying et Super PAC
Face à cette pression, Anthropic riposte par un coup de maître politique. Via le Super PAC Public First Action, l'entreprise finance une campagne publicitaire massive lancée lundi, ciblant les midterms. Les spots appellent à une régulation stricte de l'IA – un paradoxe apparent pour un lab qui refuse déjà les usages militaires "dangereux". Cette offensive n'est pas anodine : elle vise à rallier les démocrates et modérés républicains à une loi encadrant l'IA, créant un bouclier réglementaire contre les pressions exécutives comme celle du Pentagone. En soutenant une régulation pro-safety, Anthropic transforme sa posture éthique en arme électorale, tout en se positionnant comme leader moral du secteur.
Ce n'est pas la première fois qu'Anthropic joue sur deux tableaux. Depuis sa création en 2021 par d'anciens cadres d'OpenAI (dont Dario Amodei et Daniela Amodei), la société s'est forgée une image de "safe AI" avec son "Constitutional AI" – un framework alignant les modèles sur des principes humains fondamentaux. Contrats avec Amazon et Google (valorisation 60 milliards) ont financé Colossus, son supercalculateur. Mais le DoD représente 10-20% de revenus potentiels. Refuser ? Perte massive. Céder ? Trahison mission.
Le Contexte : Raid Maduro et la Ligne Rouge Franchie
L'étincelle : le raid vénézuélien. Claude, déployé pour optimiser les trajectoires en temps réel et analyser les flux de communication ennemis, a été utilisé en mode "classifié" – violant les termes initiaux. Ce succès opérationnel a révélé le potentiel : Claude excelle en analyse temps réel, surpassant même GPT-4o sur des tâches multilingues et contextualisées. Le Pentagone veut plus : surveillance prédictive, optimisation drones létaux, cybersécurité offensive. Anthropic hésite :
"Notre mission est l'AGI au bénéfice de l'humanité", martèle Amodei depuis 2024.
Mais en pleine course à l'armement IA (xAI, Palantir), refuser équivaut à céder du terrain à la Chine.
Analyse : L'Éthique comme Luxe Américain ?
Cette affaire est un cas d'école. Anthropic incarne le dilemme des labs safety-focused : principes vs realpolitik. D'un côté, l'éthique paie – partenariats enterprise stables, ARR estimé à 10 milliards. De l'autre, le DoD offre scale et validation nationale. La désignation "supply chain risk" serait dévastatrice : exclusion non seulement des contrats directs, mais des écosystèmes entiers. Remplacer Claude par Grok (xAI de Musk, pro-Trump) ou Palantir AGI semble inévitable si escalade.
Le Super PAC est un pari audacieux. En misant sur les midterms, Anthropic parie sur une régulation congressionnelle protégeant les labs éthiques contre les pressions exécutives. Mais risque backlash : "anti-patriotique" en pleine ère Trump 2.0.
Axios : « Hegseth : Play ball ou bannis. Remplacer Anthropic = undertaking majeur pour DoD » .
Amodei, ingénieur pragmatique, choisira-t-il l'idéalisme ou la survie ?
Perspectives : Un Modèle pour l'Industrie IA ?
Cette confrontation dépasse Anthropic. Elle teste les limites de la "safe AI" dans un monde où l'IA est arme stratégique. Si Anthropic cède, adieu crédibilité éthique – OpenAI jubile. Si elle résiste, DoD pivote xAI, accélérant militarisation IA. L'Europe observe : AI Act impose déjà "haut risque" militaire. Le Super PAC pourrait inverser la tendance, imposant régulation freinant course armes autonomes.
Anthropic n'est pas qu'une victime ; c'est un pionnier piégé par ses propres principes. L'ultimatum Hegseth pose la question : l'éthique IA survit-elle à la realpolitik ? La réponse définira l'avenir des labs safety – et peut-être de l'humanité face à l'AGI.