Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • Apple
  • Microsoft
  • Star Trek
  • Star Wars
  • David Lynch

L’explosion des CSAM générés par l’IA sur le web est alarmante

Tech > IA > Internet > Porno
Par Morgan Fromentin,  publié le 12 juillet 2025 à 13h00.
Tech
Image d'illustration. Intelligence artificielle

Image d'illustration. Intelligence artificielleADN

De récentes analyses révèlent une augmentation alarmante de contenus pédopornographiques produits par intelligence artificielle circulant en ligne, suscitant de vives inquiétudes quant à l’ampleur et à la rapidité du phénomène sur l’ensemble du web.

Tl;dr

  • Explosion de CSAM généré par IA en 2025.
  • Technologie rend ces contenus presque indétectables.
  • Les autorités peinent à suivre ce phénomène.

L’essor inquiétant du CSAM généré par intelligence artificielle

Depuis quelques mois, un phénomène alarmant mobilise experts et autorités : la multiplication fulgurante de contenus pédopornographiques produits par intelligence artificielle (IA). Alors qu’en 2024, seuls deux cas étaient officiellement recensés, l’Internet Watch Foundation recense déjà 1 286 vidéos créées par IA au premier semestre 2025. Un bond qui illustre la montée en puissance d’outils de génération visuelle sophistiqués — et leur détournement à des fins criminelles.

Des chiffres qui donnent le vertige

Cette évolution est confirmée sur tous les fronts. Selon le National Center for Missing & Exploited Children, le nombre de signalements de contenus abusifs générés par IA a explosé : 485 000 rapports depuis janvier, contre 67 000 pour toute l’année précédente. Même les géants du numérique sont confrontés à cette vague. À titre d’exemple, Amazon annonce avoir retiré 380 000 images problématiques issues de ses serveurs au premier semestre ; OpenAI en déclare près de 75 000. Le contraste avec l’ensemble des signalements reste cependant notable : sur plus de 291 273 contenus illicites identifiés en 2024 par l’Internet Watch Foundation, seuls deux relevaient alors de l’IA. Mais la tendance ne cesse de s’accentuer.

Un défi technologique et judiciaire majeur

Derrière ces statistiques, une réalité technique complexe se dessine. Les images et vidéos produites via générateurs d’images IA sont désormais quasi impossibles à distinguer des véritables documents criminels. Selon plusieurs observateurs, des forums clandestins échangent et saluent déjà la qualité « saisissante » de ces nouveaux fichiers. Pour ajouter à la difficulté, beaucoup de ces créations exploitent des clichés réels récupérés sur les réseaux sociaux ou sites scolaires.

Face à ce tsunami numérique — pour reprendre les mots du directeur intérimaire de l’Internet Watch Foundation, Derek Ray-Hill : « C’est un canari dans la mine — nous faisons face à une déferlante absolue. » — la justice peine à adapter ses réponses. Le ministère américain de la Justice n’a procédé qu’à sa première arrestation l’an dernier dans un dossier lié au CSAM généré par IA ; au Royaume-Uni, une condamnation exemplaire vient tout juste d’être prononcée.

L’industrie tente de réagir… mais jusqu’où ?

En réaction aux révélations médiatiques — notamment celles du The New York Times, qui détaille comment certaines bases d’entraînement contenaient déjà du contenu illicite dès les premières versions des outils comme Stable Diffusion — les sociétés technologiques insistent désormais sur leurs garde-fous et leur « dévouement à prévenir tout usage malveillant de leur technologie, notamment en matière de CSAM ». La vigilance reste pourtant plus cruciale que jamais alors que le rythme effréné des progrès techniques continue d’accélérer ce phénomène.

Pour résumer, voici ce que soulignent les analystes :

  • L’intelligence artificielle abaisse drastiquement le seuil d’accès à la création et la diffusion de contenus pédopornographiques.
  • L’identification devient particulièrement ardue pour les forces de l’ordre.
  • L’encadrement réglementaire comme technologique reste, à ce stade, largement perfectible face au volume croissant.
Le Récap
  • Tl;dr
  • L’essor inquiétant du CSAM généré par intelligence artificielle
  • Des chiffres qui donnent le vertige
  • Un défi technologique et judiciaire majeur
  • L’industrie tente de réagir… mais jusqu’où ?
En savoir plus
  • Une étude révèle que ChatGPT-5 se trompe une fois sur quatre et explique pourquoi
  • Google Gemini facilite l’IA au quotidien avec de nouvelles fonctionnalités créatives
  • ChatGPT-5 introduit des réglages pour ajuster la durée de réflexion : mode d’emploi
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2025 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -