Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • Marvel
  • Google Maps
  • Bridgerton
  • Horreur
  • Masters of the Universe

Anthropic tient tête au Pentagone pour Claude

Tech > IA > Anthropic
Par Jordan Servan,  publié le 28 février 2026 à 12h00.
Tech
Anthropic

Image d'illustration. AnthropicAnthropic / PR-ADN

Malgré les pressions exercées par Pete Hegseth, Anthropic maintient sa position et choisit de ne pas se plier aux exigences du Pentagone, marquant ainsi sa volonté d’indépendance face aux menaces venues du département américain de la Défense.

Tl;dr

  • Anthropic refuse de lever les garde-fous éthiques de Claude, malgré les exigences du Pentagone pour des usages controversés.
  • Le Département de la Défense a posé un ultimatum, menaçant de rompre un contrat de 200 millions de dollars et d’inscrire l’entreprise sur une liste noire.
  • Ce conflit soulève des questions cruciales sur les limites éthiques et le contrôle des technologies d’IA dans le domaine militaire.

Ligne rouge éthique entre Anthropic et le Pentagone

Dans un contexte où la pression autour de l’intelligence artificielle ne cesse de croître, le bras de fer engagé entre Anthropic et le Pentagone suscite un intérêt particulier. Ce différend, devenu public ces derniers jours, oppose la volonté affichée par la start-up américaine de maintenir certains garde-fous éthiques, à l’insistance du Département de la Défense pour accéder à toutes les fonctionnalités du modèle Claude, y compris dans des domaines controversés comme la surveillance massive ou les armes autonomes.

Un ultimatum inédit sur fond de sécurité nationale

D’après des informations relayées par Axios, Pete Hegseth, secrétaire à la Défense, aurait donné jusqu’à vendredi soir à Anthropic pour se plier à ses exigences. L’entreprise risquait, en cas de refus, non seulement l’annulation d’un contrat estimé à près de 200 millions de dollars, mais aussi une inscription sur la liste noire des « supply chain risks » – une qualification habituellement réservée à des acteurs étrangers jugés hostiles, jamais encore appliquée à une société américaine.

Une telle décision n’est pas sans conséquences : jusqu’à présent, le modèle Claude est seul autorisé à traiter les missions militaires américaines les plus sensibles – du renseignement au développement d’armements en passant par les opérations sur le terrain. Il aurait même été utilisé lors d’une opération visant à exfiltrer le président vénézuélien Nicolás Maduro, selon plusieurs sources proches du dossier.

L’éthique contre la raison d’État ?

Pour comprendre la crispation, il faut remonter aux demandes initiales du DoD : celui-ci exige que Claude soit utilisable pour « toutes fins légales », y compris celles qui soulèvent d’importants débats éthiques. Sur ce point, la réponse du PDG Dario Amodei, publiée dans un billet récent, ne laisse pas place au doute : « Nous ne pouvons pas, en conscience, accepter que nos garde-fous soient levés pour ces usages-là. »

Face à cette position inflexible, le sous-secrétaire américain à la Défense, Emil Michael, n’a pas tardé à contre-attaquer publiquement sur X, accusant Amodei de vouloir « contrôler personnellement l’armée américaine au risque de mettre en danger la nation. »

L’avenir incertain d’Anthropic avec l’armée américaine

Dès lors, plusieurs options sont désormais envisagées par le Pentagone pour remplacer Claude. Parmi elles figurent :

  • Grok, développé par xAI, une autre start-up émergente.
  • Gemini, propriété de Google, ainsi que ChatGPT d’OpenAI.

Mais il est loin d’être simple pour l’armée américaine de couper court à sa dépendance vis-à-vis d’Anthropic. Au-delà des enjeux contractuels immédiats, c’est toute la question du contrôle et des limites imposées aux technologies d’IA dans le domaine militaire qui se retrouve aujourd’hui sous les projecteurs. Reste désormais à savoir si le Pentagone ira jusqu’au bout de ses menaces — ce qui pourrait porter un coup sévère à l’image et aux ambitions d’Anthropic.

Le Récap
  • Tl;dr
  • Ligne rouge éthique entre Anthropic et le Pentagone
  • Un ultimatum inédit sur fond de sécurité nationale
  • L’éthique contre la raison d’État ?
  • L’avenir incertain d’Anthropic avec l’armée américaine
En savoir plus
  • Cette société de robotique IA fondée par Alphabet intègre officiellement Google
  • Google dévoile l’arrivée de nouvelles fonctionnalités d’IA Android sur les Galaxy S26 et Pixel 10
  • Un pirate exploite le chatbot Claude d’Anthropic pour cibler plusieurs agences gouvernementales mexicaines
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2026 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -