Facebook oblige ses modérateurs à consigner chaque seconde de leur journée, jusqu’aux toilettes
Une enquête de Vice révèle les humiliations subies par les employés des sous-traitants du réseau social, qui doivent expliquer en détail leur journée de travail, y compris les pauses déjeuner et celles relevant de l'hygiène corporelle.
Facebook externalise la majorité de sa modération à plus de 15 000 entrepreneurs qui travaillent pour des sous-traitants. Ceux-ci sont nécessaires aujourd’hui plus que jamais, le réseau social continuant de croître, mais faisant face à toujours plus de surveillance de la part de ses critiques. Les modérateurs sont chargés de veiller aux publications relevant de la violence, de la pornographie, pédophilie et zoophilie, bien plus courant qu’on pourrait le croire. Valera Zaicev, qui a commencé comme modératrice à Dublin, était entourée de 120 personnes en 2016. Elle partage désormais les bureaux avec plus de 800 employés. Facebook a dépensé plus de 500 millions de dollars pour engager des modérateurs à travers des sous-traitants et leur nombre s’est accru de dizaines de milliers en 2018. Au même moment, Facebook a commencé à tester un système de gestion du temps conçu pour surveiller chaque minute de leur journée.
Une nouvelle politique de gestion du temps
Cette surveillance de chaque instant comprend les pauses déjeuner, la formation, les “pauses bien-être” pour l’aide psychologique ou le yoga — mais aussi le temps passé aux toilettes, selon Zaicev et un employé anonyme. Vice rapporte que certains modérateurs souffrent de trouble de stress post-traumatique et ont besoin d’accompagnement psychologique. En plus d’être exposés à des contenus choquants, les salariés le son à très haut volume, ayant généralement moins d’une minute pour décider si un contenu doit être autorisé, envoyé à un cadre, ou supprimé.
Le réseau social poursuivi
Chris Gray, ancien modérateur pour l’entreprise, explique le stress ressenti quotidiennement : “On vous permet quatre ou cinq erreurs par mois… un taux d’échec de 2%“. Dans certains cas, il est nécessaire de consulter la politique de contenus de Facebook, ce que certains modérateurs appellent “La Bible”, un document qui répartit en 24 catégories et trois groupes (comportements préjudiciables, contenus sensibles et violations de la loi) les contenus rencontrés. Pour éviter de nouvelles erreurs, plutôt que de prendre des pauses, les employés consultent ce document avec leurs collègues. La nouvelle politique de gestion du temps et les exigences constantes de satisfaction ont érodé le temps que les employés peuvent utiliser pour récupérer après avoir interagi avec un contenu traumatisant. En conséquence, Facebook fait face à des recours collectifs en Irlande et aux États-Unis pour l’incapacité à fournir un environnement de travail sain et sécuritaire.