Anthropic et la pression sur l’usage militaire de l’IA

Image d'illustration. AnthropicAnthropic / PR-ADN
Le différend contractuel révèle les difficultés d’équilibrer innovation technologique et enjeux géopolitiques pour les entreprises d’IA.
Tl;dr
- La collaboration entre Anthropic et le Département de la Défense américain est en crise après l’échec de négociations sur l’usage des modèles d’IA, notamment pour éviter une application à la surveillance de masse ou aux armes autonomes.
- Le refus d’Anthropic d’accepter certaines clauses a mené à la menace de le désigner comme « supply chain risk », ce qui a favorisé l’entrée de OpenAI dans un accord avec le Pentagone sur des bases jugées plus conformes par Washington.
- Les tensions s’intensifient, avec des critiques publiques entre dirigeants et une confrontation sur le rôle éthique et stratégique des IA militaires, tout en relançant le débat sur l’usage de ces technologies dans des contextes sensibles.
Un partenariat fragilisé entre Anthropic et le Pentagone
La collaboration entre Anthropic et le Département de la Défense américain traverse actuellement une zone de turbulences. Alors qu’un contrat initial de 200 millions de dollars avait été signé en 2025, les discussions récentes ont buté sur un point sensible : la possible utilisation des modèles d’intelligence artificielle d’Anthropic à des fins de surveillance de masse. Un sujet qui cristallise les tensions autour du secteur.
Négociations tendues sur la surveillance de masse
Les négociations menées entre Dario Amodei, PDG d’Anthropic, et Emil Michael, sous-secrétaire à la Recherche et à l’Ingénierie du ministère, ont rapidement achoppé sur la formulation contractuelle. La société d’IA exigeait des garanties fermes pour éviter que ses technologies ne soient détournées vers l’« analysis of bulk acquired data ». Malgré une ouverture du département sur plusieurs points, l’administration a demandé la suppression d’une phrase jugée essentielle par Dario Amodei. Ce dernier, dans une note interne consultée par le Financial Times, décrit cette ligne comme « la seule protégeant réellement contre ce scénario redouté ».
Face au refus d’Anthropic, le Pentagone a durci le ton : menace d’annulation du contrat existant, et surtout, inscription potentielle de la société comme « supply chain risk », une désignation habituellement réservée aux groupes chinois. Selon un mémo interne, cette pression aurait été suivie par une décision présidentielle ordonnant aux agences fédérales de cesser d’utiliser les solutions d’Anthropic, avec toutefois une phase transitoire permettant, ironie du sort, l’usage ponctuel des outils IA lors d’opérations militaires, dont une attaque aérienne contre l’Iran.
L’influence du contexte politique et la concurrence avec OpenAI
Cette situation délicate n’est pas sans faire réagir les concurrents. Peu après que les difficultés d’Anthropic sont devenues publiques, OpenAI, dirigée par Sam Altman, a officialisé un accord avec le même ministère. Sur X, Sam Altman affirme avoir plaidé contre la classification « supply chain risk » pour son rival ; il précise cependant n’avoir qu’une connaissance partielle du dossier. Interrogé en interne sur l’emploi militaire de ses IA, mentionnant notamment l’Iran ou le Venezuela, Sam Altman concède : « Vous ne pouvez pas peser sur ces décisions opérationnelles ».
Parallèlement, la rivalité s’accentue aussi sur le terrain grand public : le chatbot Claude développé par Anthropic a récemment détrôné ChatGPT en tête des applications gratuites sur Apple, profitant d’un regain médiatique lié à ces tensions contractuelles.
Tensions internes et accusations publiques
Dans ce climat tendu, Dario Amodei va jusqu’à qualifier certaines prises de position d’OpenAI de « mensonges purs et simples ». Il suggère également que son absence de louanges publiques envers l’exécutif américain pourrait expliquer une partie des difficultés actuelles avec Washington.
Ce bras de fer illustre combien les relations entre géants technologiques, institutions gouvernementales et enjeux éthiques autour de l’intelligence artificielle sont aujourd’hui plus imbriqués, et plus explosifs, que jamais.