Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • Cinéma
  • IA
  • ChatGPT
  • Projet Dernière Chance
  • Qualcomm

Une modératrice de chez Facebook confie son enfer au quotidien

Pop Culture > Facebook
Par Emmanuel Ghesquier,  publié le 11 juillet 2018 à 10h30, modifié le 11 juillet 2018 à 11h24.

Une employée d'un sous-traitant de Facebook a passé 8 mois comme modératrice du réseau social. Cette dernière parle de son enfer à visionner du contenu choquant et notamment de la pédopornographie quotidiennement.

Pour réduire la diffusion de contenus choquants, violents, discriminatoires, sexistes, pornographiques, racistes, etc. Facebook doit faire des efforts colossaux au niveau de la modération, afin de faire disparaître les contenus incriminés avant qu’ils ne deviennent viraux. Pour ce faire, le réseau social dispose de puissants algorithmes, mais les robots ont leurs propres limites et des équipes humaines sont également nécessaires pour compléter le travail.

8 000 contenus à analyser chaque jour par salarié

Un travail que certains trouveraient idéal, affirmant qu’il est génial d’effacer des photos et des vidéos toutes la journée, sauf qu’en réalité il s’agit d’un vrai calvaire psychologique. En 2016, Facebook disposait d’une équipe de modération de 4500 personnes (internes et sous-traitants), mais devant la recrudescence des vidéos racistes, des meurtres en direct, des décapitations, de la propagande islamiste ou encore de la pédopornographie, Facebook a pratiquement dû doubler cette équipe en mai 2017, avec 3000 employés supplémentaires.

Sarah Katz en faisait partie et cette ancienne modératrice (travaillant pour le sous-traitant Vertisystem) a évoqué son enfer au sein de la modération chez Facebook. Elle explique : « C’est un job monotone après un certain temps. Et vous finissez par être désensibilisé à ce type d’images parce que vous en voyez trop ». Elle fait notamment allusion aux images pédopornographiques qu’elle devait régulièrement regarder, soulignant : « L’image pouvait être supprimée puis revenir sur un compte différent. Un jour venant du Pakistan, un autre jour venant des États-Unis. »

En moyenne, Sarah Katz devait traiter quelques 8.000 posts chaque jour, avec presque un message toutes les dix secondes, allant d’une fusillade, à la zoophilie, en passant par une décapitation, un suicide ou encore des actes sexuels sur des mineurs. Le pire de l’humanité se trouve également sur Facebook, et ce n’est que grâce à toutes ces petites mains appliquant une censure stricte contre les contenus choquants ou violents, que nous sommes relativement épargnés quotidiennement.

Le recrutement des 3000 nouveaux modérateurs semble déjà porter ses fruits, puisque dans un rapport publié au mois de mai, Facebook confie avoir traité en 3 mois, plus de 3,4 millions de posts, soit 1,2 million de plus que le trimestre précédent en 2017.

 

Le Récap
  • 8 000 contenus à analyser chaque jour par salarié
En savoir plus
  • 149 millions de mots de passe Gmail, Facebook et autres dévoilés en ligne — conseils pour protéger vos comptes
  • Facebook expérimente la monétisation du partage de liens externes pour les créateurs
  • Après 16 ans d’attente, la suite très attendue de ce film culte se dévoile avec un casting surprenant
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2026 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -