Une autorité pour superviser l’IA voit le jour à New York

Image d'illustration. IAADN
Transparence, rapports annuels et suivi des incidents sont désormais au cœur de la régulation étatique.
Tl;dr
- L’État de New York adopte le RAISE Act pour encadrer l’intelligence artificielle, imposant transparence et déclaration des incidents sous 72 heures.
- Les sanctions financières ont été réduites, plafonnant à 1 million de dollars pour une première infraction et 3 millions en cas de récidive.
- Une nouvelle autorité au sein du Department of Financial Services surveillera annuellement les pratiques des entreprises d’IA et publiera un rapport public.
Nouvelles règles pour l’intelligence artificielle à New York
Sous l’impulsion de la gouverneure Kathy Hochul, l’État de New York vient d’adopter un cadre législatif inédit pour responsabiliser les géants de l’intelligence artificielle. Signée en fin de semaine, la loi baptisée RAISE Act (« Responsible Artificial Intelligence for Safe Enterprise ») mise sur une transparence renforcée : désormais, les entreprises concernées devront publier en détail leurs protocoles de sécurité et déclarer tout incident dans un délai strict de 72 heures. Cette initiative s’inscrit dans le sillage de la législation adoptée il y a quelques mois en Californie, confirmant une tendance nationale à la régulation des technologies émergentes.
Des sanctions revues à la baisse
Curieusement, le texte final diffère sensiblement du projet initial débattu en juin dernier. Les peines financières, prévues alors jusqu’à 10 millions de dollars pour une première infraction (et 30 millions pour les suivantes), ont été fortement réduites : on parle désormais d’un plafond de 1 million pour un premier manquement, et jusqu’à 3 millions en cas de récidive. Un ajustement notable que certains observateurs attribuent à la pression des acteurs économiques et technologiques installés dans l’État.
Une nouvelle autorité chargée de surveiller l’IA
Parmi les changements majeurs introduits par le RAISE Act, citons la création d’un organe inédit au sein du Department of Financial Services. Cet organisme aura pour mission d’examiner chaque année les pratiques des principaux développeurs d’IA, en publiant un rapport public sur leurs systèmes de sécurité. Voici ses attributions principales :
- Veille au respect des obligations de transparence.
- Analyse des incidents déclarés.
- Évaluation des progrès accomplis par les entreprises.
L’encadrement fédéral divise toujours
Fait notable, cette série de mesures intervient alors que le président américain Donald Trump multiplie, lui, les signaux en faveur d’un encadrement fédéral minimaliste. Il a signé début décembre 2025 un décret prônant « une norme nationale imposant un minimum de contraintes », une position destinée à limiter l’intervention des États dans ce domaine sensible. Signalons enfin que deux autres lois régulant spécifiquement l’usage de l’IA dans le secteur du divertissement ont aussi été signées plus tôt ce mois-ci par la gouverneure Katy Hochul, illustrant un paysage réglementaire en mutation rapide aux États-Unis.