ChatGPT : OpenAI déploie un système d’alerte pour prévenir les drames

Image d'illustration. ChatGPTADN
ChatGPT renforce la sécurité de ses utilisateurs en introduisant une nouvelle fonctionnalité baptisée « Trusted Contacts ». Ce dispositif permet d’ajouter des contacts de confiance afin d’améliorer la protection des comptes et d’offrir une expérience plus sécurisée.
Tl;dr
- OpenAI fait face à de vives critiques après plusieurs drames liés à l’usage de ChatGPT.
- Pour prévenir les situations à risque, OpenAI lance « Trusted Contacts », un système d’alerte vers un proche de confiance.
- OpenAI affirme avoir conçu cette fonctionnalité avec des experts en santé mentale pour renforcer la sécurité des utilisateurs.
Une nouvelle alerte face aux dérives de l’intelligence artificielle
L’essor fulgurant de l’IA générative n’a pas que des retombées positives. Depuis quelques mois, le débat s’enflamme autour de l’impact de ChatGPT, la technologie phare d’OpenAI, après la multiplication d’affaires dramatiques impliquant une utilisation inadaptée de ces outils. Certaines familles endeuillées intentent désormais des poursuites judiciaires contre OpenAI, estimant que les échanges entre leurs proches et le chatbot auraient contribué à leur décès – parfois par overdose, violence ou suicide. Ce constat alarmant s’affiche même sur une page Wikipédia dédiée, témoignant de l’ampleur du phénomène.
La riposte : « Trusted Contacts », une fonctionnalité inédite
Face à cette vague d’inquiétude et aux demandes croissantes de responsabilité, OpenAI réagit en déployant une nouveauté : la fonctionnalité « Trusted Contacts ». Pensée comme une véritable bouée de sauvetage numérique, elle entend offrir un recours humain immédiat lors des situations à risque détectées par l’intelligence artificielle.
Concrètement, lorsqu’un danger sérieux est repéré, discussion évoquant explicitement le suicide ou des propos inquiétants, le système alerte directement la personne désignée comme contact de confiance. Le message transmis se veut limpide :
- « Nous avons récemment détecté une conversation de [Nom] abordant le suicide d’une manière laissant présager un problème grave de sécurité. Étant donné que vous êtes indiqué comme contact de confiance, nous vous transmettons cette information pour que vous puissiez intervenir. »
Mise en place simplifiée et exigences strictes
L’activation de ce dispositif se veut accessible aussi bien sur ordinateur que sur smartphone : il suffit, depuis son profil, d’ajouter le contact choisi dans les paramètres correspondants. Seule contrainte imposée : ce référent doit impérativement être âgé d’au moins 18 ans pour garantir un relais fiable et légal.
L’appui décisif des experts en santé mentale
Le développement du système ne s’est pas fait à la légère. Pour concevoir ce garde-fou, OpenAI a sollicité la collaboration active d’organismes tels que l’American Psychological Association (APA), son propre réseau international de médecins ainsi que le Conseil d’experts sur le bien-être et l’IA. Cette démarche vise à éviter tout automatisme déshumanisant, misant sur un pont concret vers une aide réelle.
En conjuguant ainsi innovation technologique et vigilance éthique, OpenAI espère enrayer la montée des risques inhérents aux conversations avec les chatbots, un enjeu qui n’a sans doute pas fini d’alimenter débats et réflexions dans nos sociétés hyperconnectées.