OpenAI limite son IA pour respecter l’éthique et la loi

Image d'illustration. OpenAIOpenAI / PR-ADN
Sam Altman exclut tout usage de ChatGPT par la NSA ou pour des programmes militaires sensibles sans modifications contractuelles.
Tl;dr
- OpenAI modifie son partenariat avec le Pentagone pour interdire toute utilisation de son IA à des fins de surveillance de masse aux États-Unis.
- La pression du gouvernement sur Anthropic pour lever les restrictions a échoué, entraînant l’interdiction d’usage fédéral de ses services et une classification de « risque pour la chaîne d’approvisionnement ».
- L’annonce précipitée du partenariat et la rivalité avec Anthropic ont bouleversé le marché, propulsant l’application Claude en tête de l’App Store tandis que les désinstallations de ChatGPT ont fortement augmenté.
Une clarification majeure autour d’OpenAI et du Pentagone
Récemment, le partenariat entre OpenAI et le Département de la Défense américain a suscité un vif débat. Face à la polémique naissante, Sam Altman, PDG d’OpenAI, a pris la parole pour rassurer : l’accord conclu va être modifié afin d’exclure explicitement tout usage de son système d’intelligence artificielle pour la surveillance de masse des citoyens américains. Dans une note interne diffusée sur X, il a souligné que cette mesure s’inscrirait « conformément aux lois en vigueur, y compris le Quatrième Amendement et le FISA Act de 1978. »
Pressions gouvernementales et rivalités technologiques
La publication de ce mémo intervient dans un contexte tendu : le Pentagone, par la voix du secrétaire Pete Hegseth, aurait multiplié les pressions sur Anthropic. L’objectif ? Lever les garde-fous techniques pour permettre à leur IA, Claude, une utilisation sans restriction, y compris pour la surveillance ou le développement d’armes autonomes. Or, selon un communiqué ferme d’Anthropic, l’entreprise refuse toute concession : « Aucune intimidation ne modifiera notre position sur la surveillance domestique ou les armes entièrement autonomes. »
En conséquence, après ce refus, l’administration Trump a ordonné aux agences fédérales de cesser toute utilisation des services d’Anthropic, désignant même l’entreprise comme un potentiel « risque pour la chaîne d’approvisionnement », une classification habituellement réservée à certains groupes chinois.
Doutes internes et stratégie précipitée chez OpenAI
L’empressement avec lequel le partenariat entre OpenAI et le Département de la Défense a été rendu public n’a pas échappé à son dirigeant. Dans sa note interne, Sam Altman admet avoir voulu « désarmer la situation et éviter pire », regrettant toutefois une communication trop hâtive sur un dossier aussi délicat.
De plus, il précise que les services d’OpenAI ne pourront pas être utilisés par les agences de renseignement, comme la NSA, sans modification contractuelle préalable. S’il devait recevoir un ordre qu’il jugerait inconstitutionnel, il affirme préférer « aller en prison plutôt que d’obéir. »
Bouleversements au sommet des applications IA
Enfin, conséquence inattendue mais révélatrice des tensions actuelles : après l’annonce du partenariat avec le Pentagone, l’application Claude d’Anthropic, désormais dotée d’un outil facilitant l’importation de mémoire depuis des concurrents, s’est hissée en tête du classement App Store. Résultat : une envolée spectaculaire des installations – pendant que les désinstallations de ChatGPT bondissaient de 295% selon Sensor Tower.
Ainsi, entre pression politique et rivalité féroce dans l’innovation numérique américaine, l’éthique reste au cœur du débat autour de l’usage militaire des intelligences artificielles.