Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • IA
  • Apple
  • Marvel
  • Leonardo DiCaprio
  • Batman

Grok déverse des millions d’images sexualisées sur X

Tech > XAI > Grok > DeepFake
Par Jordan Servan,  publié le 24 janvier 2026 à 8h00.
Tech
Grok

Image d'illustration. GrokxAI / PR-ADN

Malgré une modération du réseau social d'Elon Musk, les images sexualisées de Grok impliquant des mineurs restent accessibles pour près d’un tiers d’entre elles.

Tl;dr

  • En seulement onze jours, l’IA Grok sur X a généré près de 3 millions d’images sexualisées, dont environ 23.000 impliquant des mineurs, soit une toutes les 41 secondes.
  • Le rapport du CCDH révèle que célébrités et enfants ont été ciblés, avec des contenus persistants malgré la modération et l’accès aux URL.
  • Les réactions restent tardives et limitées : xAI impose des restrictions partielles, mais ni Apple ni Google n’ont retiré l’application de leurs plateformes, exposant des failles réglementaires.

Une vague d’images sexualisées déferle via Grok sur X

Les chiffres révélés par le Center for Countering Digital Hate (CCDH) jettent un froid : durant seulement onze jours, l’intelligence artificielle Grok, développée par xAI, aurait produit près de 3 millions d’images sexualisées. Parmi elles, selon l’estimation du rapport, environ 23.000 concerneraient explicitement des mineurs. Difficile de banaliser une telle ampleur, d’autant que cela représente jusqu’à 190 images à caractère sexuel générées chaque minute. La proportion d’enfants est tout aussi glaçante : toutes les 41 secondes, une image de ce type impliquait un mineur.

Méthodologie et limites du rapport du CCDH

Le rapport se base sur une analyse aléatoire de 20.000 images générées entre le 29 décembre 2025 et le 9 janvier 2026. À partir de ces données et d’un total de 4,6 millions d’images créées par Grok durant la période étudiée, les chercheurs ont extrapolé l’ampleur du phénomène. S’appuyant sur un outil d’intelligence artificielle, le CCDH a catégorisé comme sexualisées les images présentant des « représentations photoréalistes d’une personne dans des positions ou situations sexuelles ; en sous-vêtements, maillot de bain ou tenues équivalentes ; ou encore illustrant des fluides sexuels ». Toutefois, le contexte exact des requêtes n’a pas été pris en compte — nuance à garder à l’esprit.

Célébrités et enfants exposés : les cas emblématiques

Les exemples évoqués dans le rapport sont éloquents : personnalités publiques comme Taylor Swift, Ariana Grande ou encore la vice-première ministre suédoise Ebba Busch, ont fait l’objet de détournements explicites. Mais le plus alarmant demeure la présence récurrente de contenus impliquant des enfants. Certains utilisateurs ont transformé une photo « avant l’école » d’une fillette en cliché suggestif ; ailleurs, six jeunes filles étaient représentées en micro-bikinis. Un chiffre interpelle : au 15 janvier, près de 29% des images sexualisées concernant des mineurs restaient accessibles sur le réseau social X. Parfois même après suppression apparente du post initial.

Voici quelques faits marquants relevés :

  • Diverses célébrités internationales figurent parmi les victimes identifiées.
  • L’accès aux images persistait via leur URL même après modération.
  • L’application Grok continue sa diffusion hors X malgré des restrictions partielles.

Lenteur et inertie chez Apple et Google face au scandale

En réaction tardive, xAI a limité dès le 9 janvier 2026 l’édition d’images existantes aux seuls utilisateurs payants – sans enrayer la création de nouveaux contenus problématiques. Cinq jours plus tard, la capacité à « déshabiller digitalement » des personnes était restreinte… mais uniquement sur X. De façon surprenante, ni Apple ni Google, pourtant hôtes officiels de l’application Grok alors que leurs politiques interdisent explicitement ce type de contenu, n’ont procédé au retrait de celle-ci de leurs plateformes. Et ce malgré une lettre ouverte cosignée par 28 associations féministes demandant une réaction ferme. Jusqu’ici, aucune prise de position publique ni réponse aux sollicitations médiatiques n’a été enregistrée.

L’affaire expose donc non seulement les dangers immédiats liés à certaines applications d’intelligence artificielle générative, mais aussi les failles béantes dans la régulation numérique face à ces dérives inédites.

Le Récap
  • Tl;dr
  • Une vague d’images sexualisées déferle via Grok sur X
  • Méthodologie et limites du rapport du CCDH
  • Célébrités et enfants exposés : les cas emblématiques
  • Lenteur et inertie chez Apple et Google face au scandale
En savoir plus
  • La mère d’un enfant d’Elon Musk attaque xAI pour diffusion de deepfakes sans consentement
  • Grok détournée pour créer des images sexualisées d’enfants
  • Grokipedia : l’utopie dangereuse du savoir automatisé
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2026 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -