Anthropic tient tête au Pentagone pour Claude

Image d'illustration. AnthropicAnthropic / PR-ADN
Malgré les pressions exercées par Pete Hegseth, Anthropic maintient sa position et choisit de ne pas se plier aux exigences du Pentagone, marquant ainsi sa volonté d’indépendance face aux menaces venues du département américain de la Défense.
Tl;dr
- Anthropic refuse de lever les garde-fous éthiques de Claude, malgré les exigences du Pentagone pour des usages controversés.
- Le Département de la Défense a posé un ultimatum, menaçant de rompre un contrat de 200 millions de dollars et d’inscrire l’entreprise sur une liste noire.
- Ce conflit soulève des questions cruciales sur les limites éthiques et le contrôle des technologies d’IA dans le domaine militaire.
Ligne rouge éthique entre Anthropic et le Pentagone
Dans un contexte où la pression autour de l’intelligence artificielle ne cesse de croître, le bras de fer engagé entre Anthropic et le Pentagone suscite un intérêt particulier. Ce différend, devenu public ces derniers jours, oppose la volonté affichée par la start-up américaine de maintenir certains garde-fous éthiques, à l’insistance du Département de la Défense pour accéder à toutes les fonctionnalités du modèle Claude, y compris dans des domaines controversés comme la surveillance massive ou les armes autonomes.
Un ultimatum inédit sur fond de sécurité nationale
D’après des informations relayées par Axios, Pete Hegseth, secrétaire à la Défense, aurait donné jusqu’à vendredi soir à Anthropic pour se plier à ses exigences. L’entreprise risquait, en cas de refus, non seulement l’annulation d’un contrat estimé à près de 200 millions de dollars, mais aussi une inscription sur la liste noire des « supply chain risks » – une qualification habituellement réservée à des acteurs étrangers jugés hostiles, jamais encore appliquée à une société américaine.
Une telle décision n’est pas sans conséquences : jusqu’à présent, le modèle Claude est seul autorisé à traiter les missions militaires américaines les plus sensibles – du renseignement au développement d’armements en passant par les opérations sur le terrain. Il aurait même été utilisé lors d’une opération visant à exfiltrer le président vénézuélien Nicolás Maduro, selon plusieurs sources proches du dossier.
L’éthique contre la raison d’État ?
Pour comprendre la crispation, il faut remonter aux demandes initiales du DoD : celui-ci exige que Claude soit utilisable pour « toutes fins légales », y compris celles qui soulèvent d’importants débats éthiques. Sur ce point, la réponse du PDG Dario Amodei, publiée dans un billet récent, ne laisse pas place au doute : « Nous ne pouvons pas, en conscience, accepter que nos garde-fous soient levés pour ces usages-là. »
Face à cette position inflexible, le sous-secrétaire américain à la Défense, Emil Michael, n’a pas tardé à contre-attaquer publiquement sur X, accusant Amodei de vouloir « contrôler personnellement l’armée américaine au risque de mettre en danger la nation. »
L’avenir incertain d’Anthropic avec l’armée américaine
Dès lors, plusieurs options sont désormais envisagées par le Pentagone pour remplacer Claude. Parmi elles figurent :
- Grok, développé par xAI, une autre start-up émergente.
- Gemini, propriété de Google, ainsi que ChatGPT d’OpenAI.
Mais il est loin d’être simple pour l’armée américaine de couper court à sa dépendance vis-à-vis d’Anthropic. Au-delà des enjeux contractuels immédiats, c’est toute la question du contrôle et des limites imposées aux technologies d’IA dans le domaine militaire qui se retrouve aujourd’hui sous les projecteurs. Reste désormais à savoir si le Pentagone ira jusqu’au bout de ses menaces — ce qui pourrait porter un coup sévère à l’image et aux ambitions d’Anthropic.