Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Un juge a-t-il bloqué l’étiquette de la chaîne d’approvisionnement anthropique du Pentagone ?
Un juge fédéral a temporairement suspendu un différend très médiatisé sur la chaîne d’approvisionnement impliquant Anthropic, mettant en évidence des tensions croissantes entre le gouvernement américain et de grands fournisseurs d’IA.
Le juge suspend l’effort du Pentagone visant à placer Anthropic sur liste noire
Jeudi, un juge fédéral de Californie a bloqué temporairement le Pentagone d’étiqueter Anthropic comme un risque pour la chaîne d’approvisionnement et d’ordonner aux agences fédérales de cesser d’utiliser ses systèmes d’IA. Cette décision est la dernière rebondissement d’une querelle qui dure depuis un mois, et l’affaire reste sans solution, le gouvernement disposant désormais de sept jours pour faire appel.
En outre, Anthropic engage une deuxième action en justice contestant la même désignation sur une base juridique différente, qui n’a pas encore été tranchée. Jusqu’à la conclusion de ces procédures, l’entreprise reste de fait persona non grata dans une grande partie du gouvernement fédéral, malgré l’intervention du juge.
Un litige contractuel dégénère en guerre culturelle de l’IA
Les enjeux dans cette affaire étaient clairs dès le début : jusqu’où le gouvernement peut-il aller en punissant une entreprise qui refuse de « jouer le jeu » sur des questions de politique sensibles. Cela dit, Anthropic a attiré une coalition inhabituelle et très large de partisans de haut niveau, y compris d’anciens auteurs de la politique d’IA du président Donald Trump, qui prennent rarement parti pour des plateformes de la Silicon Valley.
Cependant, l’avis long de 43 pages du juge Rita Lin suggère que le problème de fond est essentiellement un différend contractuel qui n’avait pas besoin d’exploser en guerre culturelle plus large. Le juge a estimé que le gouvernement avait contourné des procédures établies pour traiter ce type de différends, puis avait enflammé la situation avec des publications sur les réseaux sociaux qui contredisaient ensuite les positions prises devant le tribunal.
Le Pentagone, en pratique, a signalé qu’il souhaitait une confrontation politique superposée à la guerre réelle en Iran, laquelle a commencé quelques heures après la mise en ligne de certains des messages clés. Cet entrelacement des agendas juridiques, politiques et militaires a pesé lourdement dans l’appréciation par le tribunal du dossier.
L’utilisation de Claude au Pentagone et la montée des tensions
D’après les pièces déposées au tribunal, le gouvernement a utilisé Claude d’Anthropic tout au long de 2025 sans soulever de plaintes significatives. Durant cette période, l’entreprise a cherché à équilibrer son image de marque en tant que développeur d’IA axé sur la sécurité avec son rôle de contractant de la défense, en suivant ce qu’un dépôt décrit comme une « corde raide en matière de branding ».
Les employés de la défense qui accédaient à Claude via Palantir devaient accepter une politique d’utilisation propre au gouvernement. Dans une déclaration sous serment, le cofondateur d’Anthropic, Jared Kaplan, a déclaré que cette politique « interdisait la surveillance de masse des Américains et la guerre autonome létale », bien qu’il n’ait pas fourni le texte intégral au tribunal. Ce n’est qu’au moment où le Pentagone a cherché à contracter directement avec Anthropic que de sérieuses divergences ont émergé.
Publier d’abord, justifier ensuite : les menaces publiques de Trump et Hegseth
Ce qui a le plus irrité le juge, c’est qu’une fois le différend devenu public, les actions du gouvernement ressemblaient davantage à une punition qu’à une simple décision de rompre les liens. En outre, un schéma constant s’est dessiné : tweet d’abord, avocat ensuite.
Le 27 février, le président Trump a publié sur Truth Social en parlant de « Leftwing nutjobs » chez Anthropic et en ordonnant à chaque agence fédérale de cesser d’utiliser son IA. Peu après, le secrétaire à la Défense Pete Hegseth a repris cette position, disant qu’il ordonnerait au Pentagone de qualifier l’entreprise de risque pour la chaîne d’approvisionnement.
Formaliser la désignation d’une entreprise comme telle exige que le secrétaire à la Défense suive une séquence définie d’étapes prévues par la loi. Toutefois, le juge Lin a estimé que Hegseth n’avait pas achevé ces étapes. Des lettres à des comités du Congrès, par exemple, affirmaient que des mesures moins radicales avaient été évaluées et jugées impossibles, mais elles n’apportaient aucun détail factuel pour étayer cette affirmation.
Le gouvernement a aussi fait valoir que l’étiquette de risque pour la chaîne d’approvisionnement était nécessaire parce qu’Anthropic pourrait déployer un « kill switch » pour désactiver ses systèmes. Pourtant, lors des interrogatoires, ses avocats ont admis qu’il n’y avait aucune preuve d’une telle capacité, selon l’avis. Cette contradiction a encore affaibli le dossier du Pentagone.
Autorité juridique contre message politique
Dans une publication sur les réseaux sociaux, Hegseth a affirmé que « Aucun entrepreneur, fournisseur ou partenaire qui fait des affaires avec l’armée des États-Unis ne peut mener une quelconque activité commerciale avec Anthropic ». Les propres avocats du gouvernement ont ensuite concédé mardi que le secrétaire n’a en réalité pas le pouvoir de prononcer une interdiction aussi globale.
Le juge et les avocats du ministère de la Justice ont convenu que l’interdiction totale de Hegseth n’avait « absolument aucun effet juridique ». Cependant, le ton agressif de ces publications a conduit le juge Lin à conclure qu’Anthropic disposait d’une plainte crédible au titre du Premier amendement. Le tribunal a estimé que des responsables avaient en pratique cherché à punir publiquement l’entreprise pour son « idéologie » et sa « rhétorique », ainsi que pour ce qu’ils appellent son « arrogance » en refusant de faire des compromis.
Qualifier Anthropic de risque pour la chaîne d’approvisionnement reviendrait, selon le juge, à la désigner comme un « saboteur » du gouvernement américain. Elle a jugé les éléments insuffisants pour étayer une telle accusation et a, en conséquence, rendu un ordre jeudi dernier suspendant la désignation, empêchant le Pentagone de l’appliquer et interdisant au gouvernement de mettre en œuvre les promesses globales faites par Hegseth et Trump.
Une décision « dévastatrice » et un second procès à Washington
Dean Ball, qui a contribué à élaborer la politique d’IA dans l’administration Trump mais a déposé un mémoire en soutien à Anthropic, a décrit la décision comme « une décision dévastatrice pour le gouvernement ». Il a déclaré que le tribunal a jugé qu’Anthropic avait de fortes chances de l’emporter sur presque toutes ses thèses selon lesquelles les actions du gouvernement étaient illégales et inconstitutionnelles.
On s’attend largement à ce que l’administration fasse appel de la décision californienne. Dans le même temps, Anthropic fait avancer une affaire distincte à Washington, DC, qui formule des allégations similaires mais cite une autre partie de la loi régissant les risques pour la chaîne d’approvisionnement. Ensemble, ces affaires pourraient définir jusqu’où les responsables fédéraux peuvent aller pour se venger de fournisseurs d’IA dont ils n’apprécient pas les points de vue.
Schéma de rhétorique publique et justification juridique a posteriori
Les documents du tribunal décrivent un schéma cohérent dans lequel les déclarations publiques de responsables de haut niveau et du président ne correspondaient pas à ce que la loi exige dans un différend contractuel. De plus, des avocats du gouvernement ont dû à plusieurs reprises construire des justifications juridiques après coup pour des attaques sur les réseaux sociaux contre l’entreprise.
Les dirigeants du Pentagone et de la Maison-Blanche savaient que poursuivre l’option la plus extrême déclencherait inévitablement un contentieux. Le 27 février, Anthropic a publiquement promis de contester toute étiquette de risque pour la chaîne d’approvisionnement, quelques jours avant que le gouvernement ne dépose formellement la désignation le 3 mars. Ce calendrier montre qu’alors même que la guerre en Iran éclatait, la direction choisissait d’aller de l’avant.
Au cours des cinq premiers jours du conflit, les responsables supervisaient à la fois des frappes militaires et rassemblaient des preuves pour présenter Anthropic comme un saboteur. Toutefois, le juge a noté que le Pentagone aurait pu simplement mettre fin à ses activités avec l’entreprise via des étapes d’approvisionnement bien moins spectaculaires et beaucoup plus conventionnelles.
Conséquences pour Anthropic et pour l’industrie plus large de l’IA
Même si Anthropic finit par gagner les deux affaires, la décision montre clairement que Washington dispose encore de moyens informels pour mettre l’entreprise à l’écart de futurs travaux gouvernementaux. Les entrepreneurs de défense qui dépendent du Pentagone pour leurs revenus n’ont désormais que peu d’incitation à s’associer à Anthropic, même si l’entreprise n’est jamais officiellement inscrite comme risque pour la chaîne d’approvisionnement.
« Je pense qu’il est prudent de dire qu’il existe des mécanismes que le gouvernement peut utiliser pour exercer un certain degré de pression sans enfreindre la loi », a déclaré Charlie Bullock, chercheur principal à l’Institut du droit et de l’IA. Cela dit, il a souligné que tout dépend fortement du niveau d’engagement de l’administration à punir Anthropic dans le cadre de ce différend.
À partir des éléments disponibles jusqu’à présent, l’administration consacre du temps et de l’attention de tout premier plan à gagner ce qui revient à une guerre culturelle autour de l’IA. Dans le même temps, Claude semble suffisamment central pour les opérations du Pentagone que le président Trump lui-même a déclaré que le ministère de la Défense avait besoin de six mois pour le mettre progressivement hors service. Cette contradiction affaiblit le récit selon lequel la désignation de risque pour la chaîne d’approvisionnement d’Anthropic relevait uniquement de la sécurité.
Limites du levier gouvernemental sur les fournisseurs d’IA
L’affaire met aussi en lumière les efforts de la Maison-Blanche visant à exiger une loyauté politique et un alignement idéologique de la part des principales entreprises d’IA. Cependant, le conflit avec Anthropic révèle les limites de ce levier, du moins lorsque des menaces publiques se heurtent aux règles d’approvisionnement prévues par la loi et aux protections constitutionnelles.
De plus, le différend envoie un signal clair aux autres fournisseurs d’IA qui construisent des outils pour des agences de sécurité nationale. Une rhétorique publique agressive pourrait ne pas survivre à l’examen judiciaire si elle n’est pas étayée par des preuves et un processus formel. Les tribunaux semblent prêts à surveiller cette ligne de plus près à mesure que l’IA devient essentielle aux opérations de défense américaines.
Pour l’instant, Anthropic reste dans une position précaire : renforcée juridiquement par une décision initiale solide, mais vulnérable commercialement à un blacklisting silencieux dans l’ensemble de l’écosystème de la défense. L’issue de ses affaires parallèles façonnera non seulement son avenir, mais aussi les contours du pouvoir gouvernemental à l’ère de l’IA.
Si vous disposez d’informations sur l’utilisation de l’IA par l’armée, vous pouvez les partager en toute sécurité via Signal (username jamesodonnell.22).