OpenAI renforce sa sécurité au Canada

Image d'illustration. OpenAIOpenAI / PR-ADN
Après une tragédie dans un lycée, la société promet d’alerter les autorités et de mieux encadrer les utilisateurs à risque.
Tl;dr
- OpenAI adapte ses pratiques de sécurité au Canada après une fusillade impliquant un utilisateur de ChatGPT.
- La société s’engage à alerter les forces de l’ordre et intégrer des experts locaux pour gérer les cas à risque élevé.
- Ces mesures représentent un tournant dans le contrôle des IA génératives, avec une pression croissante des autorités et du public.
Un virage sécuritaire pour OpenAI après un drame au Canada
Il aura fallu une tragédie pour que OpenAI, sous la direction de son PDG Sam Altman, accepte d’adapter ses pratiques en matière de sécurité au Canada. C’est ce que révèle le Wall Street Journal, qui rapporte que l’entreprise a réagi à une fusillade survenue dans un lycée canadien. Fait troublant : bien que le suspect ait été signalé et son compte suspendu par OpenAI, aucune alerte n’a été adressée aux autorités.
Des échanges décisifs entre OpenAI et Ottawa
Dans la foulée, le ministre canadien de l’Intelligence artificielle, Evan Solomon, s’est entretenu virtuellement avec Sam Altman. Au cœur de leurs discussions : la nécessité d’intégrer des spécialistes nationaux – experts en vie privée, santé mentale et forces de l’ordre – dans l’examen des cas à risque élevés impliquant des utilisateurs canadiens. Selon Evan Solomon, la société s’est engagée à produire prochainement un rapport détaillant ces nouveaux protocoles, mais aussi à prévenir désormais les services de police en cas d’usage suspect du chatbot ChatGPT. Il précise avoir demandé à ce que ces mesures soient appliquées rétroactivement, c’est-à-dire à ce qu’OpenAI repasse en revue les incidents passés et partage les données nécessaires avec les enquêteurs. Sur ce point cependant, l’accord de la société reste flou.
Lutte contre la récidive et dialogue continu
Plus tôt déjà, Ann O’Leary, vice-présidente politique mondiale chez OpenAI, avait évoqué des ajustements du système de détection afin d’empêcher les utilisateurs bannis, comme le présumé auteur de la fusillade, de revenir sur la plateforme sous une autre identité. Malgré ces interdictions motivées par des signaux de « potentielles velléités de violence réelle », force est de constater qu’un contournement avait été possible.
Pour plus de clarté, voici ce qui devrait changer selon le gouvernement canadien :
- Alerte systématique aux forces de l’ordre en cas d’usage douteux.
- Mise en place d’une cellule mêlant experts locaux et équipes d’OpenAI.
- Bilan public attendu sur l’efficacité des nouveaux dispositifs.
Un tournant dans le contrôle des IA génératives
Si la portée exacte, exclusivement canadienne ou étendue à d’autres pays, reste pour l’instant inconnue (les sollicitations auprès d’OpenAI demeurent sans réponse), cette inflexion marque un tournant dans le rapport entre grandes plateformes technologiques et exigences nationales en matière de sécurité. À suivre, donc, alors que la pression publique ne cesse d’augmenter autour du contrôle des IA génératives.