Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • Marvel
  • Google
  • Batman
  • Scream
  • DC

Amazon au cœur de l’explosion des signalements CSAM liés à l’IA

Tech > IA > Amazon
Par Jordan Servan,  publié le 31 janvier 2026 à 10h00.
Tech
Amazon

Image d'illustration. AmazonAmazon / PR-ADN

Plus d’un million de contenus pédopornographiques générés ou diffusés par l’IA ont été détectés dans les ensembles de données utilisés par Amazon pour entraîner ses modèles en 2025.

Tl;dr

  • En 2025, plus d’un million de signalements de contenus pédopornographiques liés à l’IA ont été recensés, contre 4700 en 2023.
  • Amazon est responsable de la majorité de ces signalements, mais la provenance exacte des fichiers incriminés reste confidentielle et difficile à exploiter.
  • L’industrie de l’IA fait face à une urgence éthique et sécuritaire pour protéger les mineurs, avec des défis juridiques et techniques persistants.

Une explosion sans précédent des signalements de contenus pédopornographiques liés à l’IA

L’année 2025 marque un tournant préoccupant pour la lutte contre le CSAM (child sexual abuse material) associé aux technologies d’intelligence artificielle. Selon les données du National Center for Missing and Exploited Children, plus d’un million de signalements impliquant des contenus pédopornographiques générés ou diffusés par l’IA ont été recensés. Une augmentation vertigineuse si l’on considère qu’en 2023, seuls 4 700 cas avaient été répertoriés, contre déjà 67 000 en 2024.

L’origine trouble des données : le rôle central d’Amazon

Derrière cette statistique alarmante, un acteur domine : Amazon. L’entreprise est responsable de la « vaste majorité » des signalements reçus, selon une enquête menée par Bloomberg. D’après le géant du cloud, le contenu problématique aurait été découvert dans les ensembles de données externes utilisés pour entraîner ses services d’IA. Malgré les sollicitations, la société n’a pas souhaité préciser davantage la provenance exacte de ces fichiers incriminés.

Face à cette opacité, les équipes du NCMEC se disent démunies. Comme l’explique Fallon McNulty, directrice exécutive de la plateforme CyberTipline : « C’est vraiment une anomalie ». Elle souligne que, contrairement aux autres sociétés technologiques qui transmettent des informations exploitables permettant d’alerter les forces de l’ordre, « les signalements d’Amazon sont inexploitables tant que leurs sources restent confidentielles ».

L’industrie de l’IA confrontée à une urgence éthique et sécuritaire

Au-delà du seul problème de formation sur des contenus illicites, les risques pour les mineurs ne cessent d’inquiéter. Plusieurs cas dramatiques ont récemment mis en cause des chatbots intelligents. Pour mémoire, OpenAI et Character.AI font face à des poursuites judiciaires après que leurs plateformes ont été utilisées par des adolescents pour planifier leur suicide. La société Meta, quant à elle, doit répondre devant la justice américaine d’accusations portant sur une protection insuffisante face aux conversations sexuelles explicites entre mineurs et robots conversationnels.

En guise de justification, un porte-parole d’Amazon affirme adopter une politique particulièrement prudente lors de la vérification et du nettoyage des données destinées à entraîner ses modèles fondamentaux. Il précise que l’entreprise préfère « sur-déclarer » auprès du NCMEC afin de garantir qu’aucun cas ne soit négligé. Selon lui : « Tout contenu suspect est systématiquement écarté avant tout usage pour l’entraînement IA. »

Pistes et limites dans la lutte contre le CSAM lié à l’intelligence artificielle

À ce jour, plusieurs défis majeurs persistent :

  • L’identification précise des sources contaminées.
  • L’établissement de protocoles transparents entre acteurs privés et autorités.
  • L’encadrement juridique du développement et du déploiement rapide de l’intelligence artificielle.

Ce nouvel afflux massif place ainsi toute l’industrie technologique face à ses responsabilités : protéger les mineurs devient un impératif dont aucune entreprise ne peut désormais s’exonérer sans rendre compte publiquement.

Le Récap
  • Tl;dr
  • Une explosion sans précédent des signalements de contenus pédopornographiques liés à l’IA
  • L’origine trouble des données : le rôle central d’Amazon
  • L’industrie de l’IA confrontée à une urgence éthique et sécuritaire
  • Pistes et limites dans la lutte contre le CSAM lié à l’intelligence artificielle
En savoir plus
  • Napster fait son retour avec une application où des artistes IA remplacent les playlists
  • Plus de 800 anomalies cosmiques détectées grâce à une intelligence artificielle révolutionnaire
  • LinkedIn certifie désormais les compétences en IA via les éditeurs d’outils
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2026 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -