OpenAI s’allie au Département de la Défense américain pour intégrer ses modèles d’intelligence artificielle

Image d'illustration. OpenAIADN
OpenAI vient de conclure un accord avec le département américain de la Défense pour mettre à disposition ses modèles d’intelligence artificielle. Cette collaboration marque une nouvelle étape dans l’intégration des technologies d’OpenAI au service des activités militaires américaines.
Tl;dr
- Accord signé entre OpenAI et le Département de la Défense.
- Principes de sécurité : surveillance de masse interdite, usage humain encadré.
- Tensions persistantes avec Anthropic, opposée aux exigences gouvernementales.
Nouvelles alliances dans l’IA américaine
Difficile d’ignorer l’accélération récente des partenariats entre la tech et la sphère étatique. Alors que les débats s’intensifient autour de la responsabilité éthique dans l’usage de l’intelligence artificielle, un nouvel accord vient d’être conclu entre OpenAI et le Département de la Défense. L’annonce, relayée par Sam Altman sur le réseau X, met en avant deux principes : interdiction de la surveillance massive sur le territoire national et maintien d’une supervision humaine pour toute utilisation de la force – y compris via des systèmes d’armes autonomes.
Tensions et lignes rouges dans l’industrie
Ce rapprochement stratégique intervient alors que la pression s’accentue sur les acteurs du secteur. À peine ce contrat signé, on apprenait que le président Donald Trump avait ordonné à toutes les agences gouvernementales américaines de cesser d’utiliser les services d’Anthropic, notamment son IA Claude. Une décision qui fait suite à des menaces répétées du secrétaire à la Défense, Pete Hegseth, lequel a évoqué une possible désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement » si celle-ci persistait à refuser de lever ses propres garde-fous interdisant la surveillance massive et les armes totalement autonomes.
Lignes de fracture éthiques chez les acteurs majeurs
Quelques heures avant l’annonce du partenariat avec OpenAI, Anthropic, déjà engagée depuis début 2024 auprès des institutions américaines, réaffirmait fermement sa position. Dans une déclaration officielle, ses dirigeants affirmaient : « Aucune intimidation ni sanction du Département of War ne nous fera changer de cap concernant la surveillance domestique massive ou les armes totalement autonomes », tout en promettant de contester toute tentative de qualification comme « risque supply chain » devant la justice.
Sauvegardes techniques et perspectives cloud
De son côté, Sam Altman insiste : OpenAI va concevoir des dispositifs techniques stricts pour garantir que ses modèles respectent bien ces règles. Un groupe d’ingénieurs collaborera directement avec le Département afin d’assurer leur conformité. Un point à noter toutefois : pour le moment, OpenAI n’est pas encore hébergé sur l’infrastructure cloud principale utilisée par le gouvernement – celle d’Amazon Web Services (AWS). Mais cela pourrait évoluer rapidement puisque la société vient tout juste d’annoncer un partenariat avec Amazon, permettant prochainement à ses modèles de tourner sur AWS à destination des clients professionnels.
Cette séquence illustre parfaitement comment chaque acteur tente aujourd’hui, sous forte contrainte politique et économique, de tracer sa propre ligne rouge autour des enjeux éthiques centraux liés au développement accéléré de l’IA sécurisée.