Menu
Begeek.fr
Obtenir l’application
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
  • Pop Culture
    • Netflix
  • Jeux Vidéo
    • PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Les meilleures cartes bancaire Bitcoin
    • Les meilleurs wallet crypto
    • Créer son RIG de minage
    • Cloud mining et stacking
En ce moment : 
  • Crypto : guide du débutant
  • Sorare : le guide
  • Meilleures exchanges Crypto

Une modératrice de chez Facebook confie son enfer au quotidien

Pop Culture > Facebook
Par Emmanuel Ghesquier,  publié le 11 juillet 2018 à 10h30, modifié le 11 juillet 2018 à 11h24.

Une employée d'un sous-traitant de Facebook a passé 8 mois comme modératrice du réseau social. Cette dernière parle de son enfer à visionner du contenu choquant et notamment de la pédopornographie quotidiennement.

Pour réduire la diffusion de contenus choquants, violents, discriminatoires, sexistes, pornographiques, racistes, etc. Facebook doit faire des efforts colossaux au niveau de la modération, afin de faire disparaître les contenus incriminés avant qu’ils ne deviennent viraux. Pour ce faire, le réseau social dispose de puissants algorithmes, mais les robots ont leurs propres limites et des équipes humaines sont également nécessaires pour compléter le travail.

8 000 contenus à analyser chaque jour par salarié

Un travail que certains trouveraient idéal, affirmant qu’il est génial d’effacer des photos et des vidéos toutes la journée, sauf qu’en réalité il s’agit d’un vrai calvaire psychologique. En 2016, Facebook disposait d’une équipe de modération de 4500 personnes (internes et sous-traitants), mais devant la recrudescence des vidéos racistes, des meurtres en direct, des décapitations, de la propagande islamiste ou encore de la pédopornographie, Facebook a pratiquement dû doubler cette équipe en mai 2017, avec 3000 employés supplémentaires.

Sarah Katz en faisait partie et cette ancienne modératrice (travaillant pour le sous-traitant Vertisystem) a évoqué son enfer au sein de la modération chez Facebook. Elle explique : « C’est un job monotone après un certain temps. Et vous finissez par être désensibilisé à ce type d’images parce que vous en voyez trop ». Elle fait notamment allusion aux images pédopornographiques qu’elle devait régulièrement regarder, soulignant : « L’image pouvait être supprimée puis revenir sur un compte différent. Un jour venant du Pakistan, un autre jour venant des États-Unis. »

En moyenne, Sarah Katz devait traiter quelques 8.000 posts chaque jour, avec presque un message toutes les dix secondes, allant d’une fusillade, à la zoophilie, en passant par une décapitation, un suicide ou encore des actes sexuels sur des mineurs. Le pire de l’humanité se trouve également sur Facebook, et ce n’est que grâce à toutes ces petites mains appliquant une censure stricte contre les contenus choquants ou violents, que nous sommes relativement épargnés quotidiennement.

Le recrutement des 3000 nouveaux modérateurs semble déjà porter ses fruits, puisque dans un rapport publié au mois de mai, Facebook confie avoir traité en 3 mois, plus de 3,4 millions de posts, soit 1,2 million de plus que le trimestre précédent en 2017.

 

Le Récap
  • 8 000 contenus à analyser chaque jour par salarié
En savoir plus
  • Le programme de certification payant de Meta est déployé aux États-Unis
  • Meta met fin au support des NFT dans Facebook et Instagram
  • Nouvelle vague de licenciements chez Meta
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Données personnelles
  • Archives
  • Musique en ligne
© 2023 - Tous droits réservés sur les contenus du site Begeek.fr  - ADN Contents -