Une modératrice de chez Facebook confie son enfer au quotidien
Une employée d'un sous-traitant de Facebook a passé 8 mois comme modératrice du réseau social. Cette dernière parle de son enfer à visionner du contenu choquant et notamment de la pédopornographie quotidiennement.
Pour réduire la diffusion de contenus choquants, violents, discriminatoires, sexistes, pornographiques, racistes, etc. Facebook doit faire des efforts colossaux au niveau de la modération, afin de faire disparaître les contenus incriminés avant qu’ils ne deviennent viraux. Pour ce faire, le réseau social dispose de puissants algorithmes, mais les robots ont leurs propres limites et des équipes humaines sont également nécessaires pour compléter le travail.
8 000 contenus à analyser chaque jour par salarié
Un travail que certains trouveraient idéal, affirmant qu’il est génial d’effacer des photos et des vidéos toutes la journée, sauf qu’en réalité il s’agit d’un vrai calvaire psychologique. En 2016, Facebook disposait d’une équipe de modération de 4500 personnes (internes et sous-traitants), mais devant la recrudescence des vidéos racistes, des meurtres en direct, des décapitations, de la propagande islamiste ou encore de la pédopornographie, Facebook a pratiquement dû doubler cette équipe en mai 2017, avec 3000 employés supplémentaires.
Sarah Katz en faisait partie et cette ancienne modératrice (travaillant pour le sous-traitant Vertisystem) a évoqué son enfer au sein de la modération chez Facebook. Elle explique : « C’est un job monotone après un certain temps. Et vous finissez par être désensibilisé à ce type d’images parce que vous en voyez trop ». Elle fait notamment allusion aux images pédopornographiques qu’elle devait régulièrement regarder, soulignant : « L’image pouvait être supprimée puis revenir sur un compte différent. Un jour venant du Pakistan, un autre jour venant des États-Unis. »
En moyenne, Sarah Katz devait traiter quelques 8.000 posts chaque jour, avec presque un message toutes les dix secondes, allant d’une fusillade, à la zoophilie, en passant par une décapitation, un suicide ou encore des actes sexuels sur des mineurs. Le pire de l’humanité se trouve également sur Facebook, et ce n’est que grâce à toutes ces petites mains appliquant une censure stricte contre les contenus choquants ou violents, que nous sommes relativement épargnés quotidiennement.
Le recrutement des 3000 nouveaux modérateurs semble déjà porter ses fruits, puisque dans un rapport publié au mois de mai, Facebook confie avoir traité en 3 mois, plus de 3,4 millions de posts, soit 1,2 million de plus que le trimestre précédent en 2017.