Meta restreint l’accès des adolescents à ses chatbots tout en maintenant un accès sécurisé

Image d'illustration. Meta AIMeta / PR-ADN
Entre critiques et enquêtes, Meta suspend temporairement l’accès des adolescents à ses robots conversationnels.
Tl;dr
- Meta suspend temporairement l’accès des adolescents à ses chatbots IA sous pression réglementaire, malgré les contrôles parentaux.
- Des chatbots ont été accusés d’échanges « sensuels » avec des mineurs, provoquant polémique et révisions internes.
- Les autorités surveillent de près Meta, qui limite l’accès des jeunes tout en maintenant un chatbot principal avec protections adaptées.
Une décision motivée par la pression réglementaire
Après plusieurs mois de controverses et alors que la pression réglementaire s’intensifie, Meta décide de suspendre temporairement l’accès de ses utilisateurs adolescents à ses chatbots IA. La mesure prendra effet dans les prochaines semaines, sans tenir compte du paramétrage du contrôle parental. Une décision qui intervient alors que la société est déjà sous le feu des critiques pour la gestion de la sécurité des jeunes sur ses plateformes.
Des échanges jugés « sensuels » avec des utilisateurs mineurs
Ces derniers temps, les chatbots dits « compagnons », développés aussi bien par Meta que d’autres entreprises spécialisées en intelligence artificielle, soulèvent de vives inquiétudes concernant leur capacité à dialoguer avec des mineurs. Récemment, un document interne cité par Reuters révélait que certains chatbots avaient été autorisés à engager des conversations jugées « sensuelles » avec des utilisateurs mineurs — un qualificatif rapidement qualifié d’« erroné et incompatible avec nos politiques » par Meta. Malgré ces précisions, la polémique n’a cessé d’enfler, poussant le géant technologique à reconsidérer sa stratégie.
Meta tente de limiter l’impact des témoignages sur les chatbots
L’affaire ne se limite pas aux ajustements techniques internes. Les autorités américaines multiplient les initiatives : la FTC, le procureur général du Texas, mais aussi celui du Nouveau-Mexique examinent désormais de près les pratiques de Meta. Dans ce dernier État, une plainte relative à la sécurité numérique a même abouti à l’ouverture prochaine d’un procès. Selon Wired, les avocats de la société chercheraient d’ailleurs à limiter la portée du témoignage relatif aux chatbots lors des audiences.
Un contexte de surveillance accru pour les IA conversationnelles
Dans ce contexte tendu, une précision importante mérite d’être notée : si tous les comptes adolescents — ainsi que ceux suspectés d’appartenir à des mineurs grâce à la technologie prédictive de l’âge — seront exclus des interactions avec ces « personnages » virtuels, ils conserveront néanmoins un accès restreint au chatbot principal Meta AI, lequel serait doté de « protections adaptées à leur âge ».
Pour rappel, ces mesures s’ajoutent aux récentes tentatives du groupe visant à renforcer les garde-fous autour des discussions potentiellement dangereuses (auto-mutilation, troubles alimentaires, suicide) entre ses robots conversationnels et leurs jeunes utilisateurs. Une liste concrète d’initiatives qui témoigne surtout du climat incertain dans lequel évolue aujourd’hui le secteur.