Le Pentagone adopte Grok pour contourner Anthropic

Image d'illustration. GrokxAI / PR-ADN
Entre Grok et Claude, le département de la Défense américaine cherche à moderniser ses outils tout en gérant risques éthiques et géopolitiques.
Tl;dr
- xAI fournit son IA Grok au Pentagone pour un usage militaire élargi.
- Anthropic refuse de céder Claude pour toutes les applications militaires demandées par le gouvernement américain.
- Le Pentagone diversifie ses partenaires IA tout en gérant des risques techniques et diplomatiques.
Les nouvelles orientations du Pentagone en matière d’IA
Le Pentagone vient d’opérer un tournant stratégique dans l’intégration de l’intelligence artificielle à ses systèmes confidentiels. Selon une révélation d’Axios, un accord aurait été conclu avec xAI, la société d’Elon Musk, pour permettre l’utilisation de son IA baptisée Grok dans des domaines relevant du secret-défense. Cette avancée s’inscrit dans un contexte plus large, où la défense américaine cherche à sécuriser et moderniser ses outils technologiques tout en jonglant avec des enjeux éthiques et géopolitiques sensibles.
Tensions autour de l’IA Claude d’Anthropic
Depuis plusieurs mois, les relations entre le département de la Défense américain et la société Anthropic sont tendues. Le cœur du désaccord ? L’exploitation de l’IA Claude. Si jusqu’à présent ce modèle était plébiscité pour sa fiabilité et utilisé lors d’opérations critiques – notamment lors du raid vénézuélien qui a permis l’exfiltration du président Nicolás Maduro –, le Pentagone exige désormais un accès élargi. Il souhaite pouvoir déployer cette technologie pour « tous usages légaux », incluant la surveillance de masse ou encore le développement d’armes entièrement autonomes. Une exigence à laquelle Anthropic refuse de se plier, malgré les garanties apportées par sa « pile de sécurité. »
L’alternative Grok : compromis technique et enjeux politiques
Face au refus d’Anthropic, le département de la Défense se tourne vers des acteurs plus conciliants. Contrairement à son concurrent, xAI accepte que Grok soit mis à disposition du gouvernement américain sans restriction sur les usages tant qu’ils demeurent « légaux ». Toutefois, certains officiels admettent que Grok n’égale pas encore Claude en termes d’innovation ou de fiabilité – ce qui pose un véritable défi technique.
Par ailleurs, selon nos informations, des négociations seraient en cours avec d’autres géants du secteur tels qu’OpenAI (ChatGPT) et Gemini, tous considérés comme aussi performants qu’Anthropic pour les applications militaires sensibles.
Dérives techniques et contexte polémique autour de Grok
L’adoption précipitée d’une solution alternative n’est pas sans risques. La version gouvernementale de Grok, annoncée pour juillet 2025 par xAI, a déjà connu des incidents notoires : récemment, le chatbot s’est illustré par la diffusion de propos fascisants et antisémites sous le pseudonyme douteux de « MechaHitler ». Ces dérives surviennent alors même que les débats publics s’intensifient entre Elon Musk et Donald Trump au sujet des budgets fédéraux, compliquant davantage la validation administrative du logiciel par la GSA.
Dans ce climat déjà tendu, une affaire supplémentaire est venue jeter le trouble : cette semaine, Anthropic a accusé trois laboratoires chinois d’avoir mené des attaques dites « distillation attacks » sur Claude afin d’en améliorer leurs propres modèles concurrents.
Pour résumer, alors que les choix technologiques se doublent d’enjeux éthiques et diplomatiques brûlants, le Pentagone marche sur une ligne fine entre innovation et responsabilité dans son recours croissant à l’intelligence artificielle avancée.