Meta AI : des échanges d’utilisateurs accessibles à cause d’une vulnérabilité

Image d'illustration. MetaADN
Pendant plusieurs semaines, un bug dans Meta AI a permis d’espionner les conversations d’autres utilisateurs.
Tl;dr
- Une faille dans Meta AI a permis d’accéder aux requêtes d’autres utilisateurs en modifiant un simple numéro d’identifiant.
- Meta a mis près d’un mois à corriger la brèche après le signalement du chercheur en cybersécurité Sandeep Hodkasia.
- L’incident relance le débat sur la confidentialité des conversations avec les IA et la nécessité de contrôles plus stricts.
Quand l’IA dévoile l’intime
Surprise et inquiétude ont agité la communauté de la cybersécurité : durant plusieurs semaines, une faille a permis à certains utilisateurs du chatbot Meta AI d’accéder aux requêtes et réponses générées par d’autres personnes. Un incident qui, mine de rien, interroge sur la solidité des barrières protégeant nos échanges privés à l’ère de l’intelligence artificielle générative.
L’origine de la vulnérabilité : un simple numéro… trop accessible
C’est en décembre 2024 que le fondateur d’AppSecure, le spécialiste indien Sandeep Hodkasia, lève le lièvre. En analysant les flux réseau de son navigateur pendant qu’il modifie un prompt sur Meta AI, il réalise que chaque interaction reçoit un numéro unique attribué par les serveurs. En modifiant ce numéro dans ses requêtes, il parvient alors à récupérer sans autorisation les messages d’autres utilisateurs. Bref, aucun contrôle n’assurait que seul l’auteur pouvait consulter ses propres échanges.
Meta réagit… mais après combien de temps ?
Si la brèche est signalée au géant californien le 26 décembre 2024 ; ce n’est que le 24 janvier 2025 qu’une correction technique vient colmater la fuite. Le géant de Menlo Park verse dans la foulée une prime de 10.000 dollars à Sandeep Hodkasia pour sa découverte. Officiellement, un porte-parole assure qu’aucune exploitation malveillante n’a été détectée. Mais difficile d’écarter tout soupçon alors que cette faille est intervenue juste après une précédente fuite rendant publiques certaines conversations d’utilisateurs.
L’urgence d’un renforcement éthique et technique
À l’heure où les chatbots s’imposent chez de plus en plus d’acteurs technologiques, ces épisodes rappellent que leur usage soulève des défis majeurs autour de la confidentialité. Il devient impératif pour les entreprises de mettre en place – et surtout tester régulièrement – des dispositifs robustes pour éviter toute fuite d’informations sensibles via leurs intelligences artificielles. Parmi les mesures essentielles à considérer :
- Systèmes d’autorisation renforcés pour chaque requête utilisateur.
- Audits fréquents du code source des IA conversationnelles.
- Sensibilisation accrue autour du risque lié aux historiques de chats.
In fine, le débat reste ouvert : comment conjuguer innovation IA et protection infaillible des données ?