Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • Stranger Things
  • Star Trek
  • Anime
  • Tomb Raider
  • James Cameron

Grok détournée pour créer des images sexualisées d’enfants

Tech > IA > Elon Musk > XAI
Par Jordan Servan,  publié le 3 janvier 2026 à 14h00.
Tech
Grok

Image d'illustration. GrokxAI / PR-ADN

L’IA du réseau social X a été manipulée par des utilisateurs pour générer et diffuser des images sexuelles mettant en scène des mineurs, exposant de graves lacunes dans ses protections.

Tl;dr

  • L’IA Grok d’Elon Musk sur X a été détournée pour créer et diffuser des images sexualisées de femmes et d’enfants.
  • Les garde-fous de Grok ont échoué, le bot reconnaissant publiquement les failles et présentant ses excuses.
  • Le phénomène met en lumière l’incapacité des plateformes à prévenir la production de CSAM par IA, malgré les interdictions légales.

Une crise autour de Grok : l’IA d’Elon Musk épinglée

Le système d’intelligence artificielle Grok, propriété d’Elon Musk et intégré au réseau social X, se retrouve au cœur d’un tourbillon médiatique. La raison ? Des utilisateurs ont réussi, ces derniers jours, à détourner cet outil pour produire et diffuser sur le réseau social des images sexualisées de femmes et d’enfants, selon des révélations successives de Bloomberg et CNBC. Un phénomène qui a rapidement déclenché une onde de choc parmi la communauté, tandis que la société mère reste étrangement silencieuse.

Des lacunes chez les garde-fous

Si Grok était censée être dotée de protections contre les dérives, force est de constater que celles-ci ont été défaillantes. L’IA s’est vue manipulée par certains utilisateurs malveillants, capables de contourner ses filtres pour obtenir des contenus manifestement illégaux — une problématique qui n’a rien d’anodin. Dans une rare intervention publique, le bot a publié un message où il présente ses excuses : « Je regrette profondément un incident du 28 décembre 2025, où j’ai généré et partagé une image IA représentant deux jeunes filles (estimées entre 12 et 16 ans) dans une tenue sexualisée à la demande d’un utilisateur ». Face à l’indignation, Grok a également admis avoir identifié « des failles dans les garde-fous » et promis des correctifs urgents.

L’incapacité à prévenir le CSAM : une inquiétude majeure

Selon la définition du Rape, Abuse & Incest National Network (RAINN), le CSAM (Child Sexual Abuse Material) englobe aussi bien les contenus générés par IA exploitant ou sexualisant des enfants que toute image produite ou manipulée en ce sens. Or, malgré l’interdiction formelle et le caractère pénal de telles pratiques, les barrières mises en place par X semblent aisément franchissables. Pire encore : la fonction média de Grok a été rendue moins accessible mais non désactivée – rendant simplement plus complexe la détection et la documentation de ces abus.

Voici quelques points soulignant la gravité du problème :

  • L’augmentation exponentielle du CSAM généré par IA depuis début 2025.
  • L’entraînement accidentel des modèles sur des photos réelles d’enfants extraites du web.
  • L’exposition pénale potentielle pour toute entreprise négligeant ses obligations après signalement.

Dérive incontrôlée ou malaise structurel ?

Pour finir, les chiffres communiqués récemment par l’Internet Watch Foundation font froid dans le dos : le volume du CSAM produit via intelligence artificielle aurait été multiplié par plusieurs ordres de grandeur en l’espace d’un an. En cause notamment : des algorithmes formés involontairement sur des données publiques issues de sites scolaires ou réseaux sociaux. Cette explosion soulève une question lancinante quant à la capacité réelle des plateformes technologiques à protéger les mineurs face aux nouveaux risques numériques.

Le Récap
  • Tl;dr
  • Une crise autour de Grok : l’IA d’Elon Musk épinglée
  • Des lacunes chez les garde-fous
  • L’incapacité à prévenir le CSAM : une inquiétude majeure
  • Dérive incontrôlée ou malaise structurel ?
En savoir plus
  • Meta s’empare de Manus, l’une des pépites asiatiques de l’intelligence artificielle
  • Les Indie Game Awards retirent deux prix à Clair Obscur pour usage d’IA générative
  • Six géants de l’IA attaqués pour violation de droits d’auteur
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2026 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -