Amazon au cœur de l’explosion des signalements CSAM liés à l’IA

Image d'illustration. AmazonAmazon / PR-ADN
Plus d’un million de contenus pédopornographiques générés ou diffusés par l’IA ont été détectés dans les ensembles de données utilisés par Amazon pour entraîner ses modèles en 2025.
Tl;dr
- En 2025, plus d’un million de signalements de contenus pédopornographiques liés à l’IA ont été recensés, contre 4700 en 2023.
- Amazon est responsable de la majorité de ces signalements, mais la provenance exacte des fichiers incriminés reste confidentielle et difficile à exploiter.
- L’industrie de l’IA fait face à une urgence éthique et sécuritaire pour protéger les mineurs, avec des défis juridiques et techniques persistants.
Une explosion sans précédent des signalements de contenus pédopornographiques liés à l’IA
L’année 2025 marque un tournant préoccupant pour la lutte contre le CSAM (child sexual abuse material) associé aux technologies d’intelligence artificielle. Selon les données du National Center for Missing and Exploited Children, plus d’un million de signalements impliquant des contenus pédopornographiques générés ou diffusés par l’IA ont été recensés. Une augmentation vertigineuse si l’on considère qu’en 2023, seuls 4 700 cas avaient été répertoriés, contre déjà 67 000 en 2024.
L’origine trouble des données : le rôle central d’Amazon
Derrière cette statistique alarmante, un acteur domine : Amazon. L’entreprise est responsable de la « vaste majorité » des signalements reçus, selon une enquête menée par Bloomberg. D’après le géant du cloud, le contenu problématique aurait été découvert dans les ensembles de données externes utilisés pour entraîner ses services d’IA. Malgré les sollicitations, la société n’a pas souhaité préciser davantage la provenance exacte de ces fichiers incriminés.
Face à cette opacité, les équipes du NCMEC se disent démunies. Comme l’explique Fallon McNulty, directrice exécutive de la plateforme CyberTipline : « C’est vraiment une anomalie ». Elle souligne que, contrairement aux autres sociétés technologiques qui transmettent des informations exploitables permettant d’alerter les forces de l’ordre, « les signalements d’Amazon sont inexploitables tant que leurs sources restent confidentielles ».
L’industrie de l’IA confrontée à une urgence éthique et sécuritaire
Au-delà du seul problème de formation sur des contenus illicites, les risques pour les mineurs ne cessent d’inquiéter. Plusieurs cas dramatiques ont récemment mis en cause des chatbots intelligents. Pour mémoire, OpenAI et Character.AI font face à des poursuites judiciaires après que leurs plateformes ont été utilisées par des adolescents pour planifier leur suicide. La société Meta, quant à elle, doit répondre devant la justice américaine d’accusations portant sur une protection insuffisante face aux conversations sexuelles explicites entre mineurs et robots conversationnels.
En guise de justification, un porte-parole d’Amazon affirme adopter une politique particulièrement prudente lors de la vérification et du nettoyage des données destinées à entraîner ses modèles fondamentaux. Il précise que l’entreprise préfère « sur-déclarer » auprès du NCMEC afin de garantir qu’aucun cas ne soit négligé. Selon lui : « Tout contenu suspect est systématiquement écarté avant tout usage pour l’entraînement IA. »
Pistes et limites dans la lutte contre le CSAM lié à l’intelligence artificielle
À ce jour, plusieurs défis majeurs persistent :
- L’identification précise des sources contaminées.
- L’établissement de protocoles transparents entre acteurs privés et autorités.
- L’encadrement juridique du développement et du déploiement rapide de l’intelligence artificielle.
Ce nouvel afflux massif place ainsi toute l’industrie technologique face à ses responsabilités : protéger les mineurs devient un impératif dont aucune entreprise ne peut désormais s’exonérer sans rendre compte publiquement.