YouTube : aux États-Unis, les annonceurs se retirent face à une vague de commentaires pédophiles
Nestlé, Disney et Epic Games ont décidés de retirer leurs annonces de la plateforme américaine.
Si en 2017 YouTube a du faire face à une vague de commentaires racistes et antisémites, conduisant Walmart, PepsiCo et Dish Network à retirer leurs annonces publicitaires, c’est au tour d’un scandale de réseau de pédophilie de voir le jour sur la plateforme.
Un algorithme de recommandation de contenu à revoir
Dans une vidéo publiée sur YouTube, Matt Watson, un utilisateur de la plateforme, démontre le manque de modération des commentaires sous certaines vidéos présentant des enfants dans des positions suggestives. En seulement quelques clics, et grâce à la puissance de l’algorithme du site qui en recommande des similaires, le YouTubeur se retrouve plongé dans des fils de commentaires où des pédophiles publient des emojis sexuellement suggestifs et s’échangent des informations.
Le contenu n’est pas pédopornographique, représentant simplement des enfants faire de la gymnastique ou de la danse, parfois mises en ligne par eux-même — c’est l’utilisation qu’en font les prédateurs sexuels qui pose problème. Comme sur de nombreuses vidéos, des contenus publicitaires s’affichent à intervalles réguliers, les auteurs de la vidéo ayant choisis de les monétiser. En conséquence, Nestlé, Dr. August Oetker KG, Epic Games et Disney ont annoncé avoir retiré des fonds alloués à la publicité sur celles-ci.
Avec 400 heures de vidéo téléversées sur la plateforme chaque minute, YouTube confie le plus gros du travail de contrôle à un algorithme, mais celui-ci manque de finesse dans la compréhension du contexte des vidéos notamment. La plateforme a réitéré employé 10 000 personnes chargées de déterminer et de supprimer les contenus sensibles. Le géant s’est par ailleurs engagé à rembourser les sommes investies dans les campagnes publicitaires.