Meta modernise la modération : IA, LLM et chatbots

Image d'illustration. MetaMeta / PR-ADN
Les nouveaux outils automatisés prennent en charge signalements, réinitialisations et appels utilisateurs, avec des humains réservés aux décisions critiques et sensibles.
Tl;dr
- Meta réduit le nombre de modérateurs humains au profit de systèmes d’IA pour superviser le contenu sur ses plateformes.
- Les nouveaux modèles LLM couvrent désormais 98 % des langues et un assistant automatisé aide les utilisateurs sur Facebook et Instagram pour signalements et problèmes de compte.
- L’humain reste impliqué pour les cas sensibles, mais des inquiétudes persistent quant à l’éloignement du dialogue direct avec les utilisateurs.
L’IA au cœur de la nouvelle politique de contenu
Meta s’apprête à franchir un nouveau palier dans sa politique de modération de contenus. Après avoir déjà amorcé un retrait progressif de la vérification par des tiers et d’autres mesures proactives il y a plus d’un an, le géant californien confirme aujourd’hui une transformation majeure : la réduction drastique du nombre de modérateurs humains au profit de systèmes basés sur l’intelligence artificielle. Ce changement stratégique devrait s’étendre sur les prochaines années.
Une couverture linguistique élargie à 98 % des langues
Dans cette optique, Meta déploie désormais des modèles de type LLM pour analyser et contrôler les contenus diffusés sur ses plateformes. Selon la société, les premiers résultats sont jugés « prometteurs », notamment grâce à une capacité impressionnante à gérer près de « 98 % des langues utilisées par les internautes dans le monde ». Jusqu’à présent, les outils de modération automatiques ne couvraient qu’environ 80 langues différentes.
À court terme, un nouvel assistant automatisé fait son apparition dans les applications Facebook et Instagram. Ce chatbot IA vise à accompagner les utilisateurs confrontés à certains problèmes de compte : signalement de contenus litigieux, gestion des appels ou encore réinitialisation du mot de passe. Dans certains cas précis aux États-Unis et au Canada, il peut même intervenir lorsqu’un utilisateur se retrouve verrouillé hors de son compte.
L’humain, toujours présent pour les décisions critiques
Bien que cette transition vers une supervision algorithmique soit amorcée, la direction assure que l’intervention humaine restera indispensable pour trancher sur les cas sensibles ou à fort impact. Comme le précise l’entreprise dans une mise à jour officielle, « des experts continueront à concevoir, entraîner et superviser nos systèmes d’IA, évaluer leur performance et prendre les décisions les plus complexes ou risquées, comme pour l’examen d’appels concernant la désactivation d’un compte ou dans le cadre d’enquêtes impliquant la justice. »
Nouveaux équilibres et inquiétudes persistantes chez les usagers
Toutefois, derrière ces annonces technologiques se profilent des interrogations légitimes. L’automatisation accrue risque-t-elle d’éloigner davantage l’utilisateur du dialogue humain lors d’une contestation ? Beaucoup regrettent déjà que certaines erreurs passées échappent à tout regard humain. De son côté, Meta, qui pourrait économiser considérablement en réduisant ses effectifs sous-traités, sans préciser le volume exact concerné, affirme que ses nouveaux outils font « moins d’erreurs graves tout en détectant mieux les infractions majeures. »
Reste à savoir si ce pari technologique saura répondre aux attentes croissantes en matière de transparence et d’équité pour les milliards d’utilisateurs concernés.