Grok déverse des millions d’images sexualisées sur X

Image d'illustration. GrokxAI / PR-ADN
Malgré une modération du réseau social d'Elon Musk, les images sexualisées de Grok impliquant des mineurs restent accessibles pour près d’un tiers d’entre elles.
Tl;dr
- En seulement onze jours, l’IA Grok sur X a généré près de 3 millions d’images sexualisées, dont environ 23.000 impliquant des mineurs, soit une toutes les 41 secondes.
- Le rapport du CCDH révèle que célébrités et enfants ont été ciblés, avec des contenus persistants malgré la modération et l’accès aux URL.
- Les réactions restent tardives et limitées : xAI impose des restrictions partielles, mais ni Apple ni Google n’ont retiré l’application de leurs plateformes, exposant des failles réglementaires.
Une vague d’images sexualisées déferle via Grok sur X
Les chiffres révélés par le Center for Countering Digital Hate (CCDH) jettent un froid : durant seulement onze jours, l’intelligence artificielle Grok, développée par xAI, aurait produit près de 3 millions d’images sexualisées. Parmi elles, selon l’estimation du rapport, environ 23.000 concerneraient explicitement des mineurs. Difficile de banaliser une telle ampleur, d’autant que cela représente jusqu’à 190 images à caractère sexuel générées chaque minute. La proportion d’enfants est tout aussi glaçante : toutes les 41 secondes, une image de ce type impliquait un mineur.
Méthodologie et limites du rapport du CCDH
Le rapport se base sur une analyse aléatoire de 20.000 images générées entre le 29 décembre 2025 et le 9 janvier 2026. À partir de ces données et d’un total de 4,6 millions d’images créées par Grok durant la période étudiée, les chercheurs ont extrapolé l’ampleur du phénomène. S’appuyant sur un outil d’intelligence artificielle, le CCDH a catégorisé comme sexualisées les images présentant des « représentations photoréalistes d’une personne dans des positions ou situations sexuelles ; en sous-vêtements, maillot de bain ou tenues équivalentes ; ou encore illustrant des fluides sexuels ». Toutefois, le contexte exact des requêtes n’a pas été pris en compte — nuance à garder à l’esprit.
Célébrités et enfants exposés : les cas emblématiques
Les exemples évoqués dans le rapport sont éloquents : personnalités publiques comme Taylor Swift, Ariana Grande ou encore la vice-première ministre suédoise Ebba Busch, ont fait l’objet de détournements explicites. Mais le plus alarmant demeure la présence récurrente de contenus impliquant des enfants. Certains utilisateurs ont transformé une photo « avant l’école » d’une fillette en cliché suggestif ; ailleurs, six jeunes filles étaient représentées en micro-bikinis. Un chiffre interpelle : au 15 janvier, près de 29% des images sexualisées concernant des mineurs restaient accessibles sur le réseau social X. Parfois même après suppression apparente du post initial.
Voici quelques faits marquants relevés :
- Diverses célébrités internationales figurent parmi les victimes identifiées.
- L’accès aux images persistait via leur URL même après modération.
- L’application Grok continue sa diffusion hors X malgré des restrictions partielles.
Lenteur et inertie chez Apple et Google face au scandale
En réaction tardive, xAI a limité dès le 9 janvier 2026 l’édition d’images existantes aux seuls utilisateurs payants – sans enrayer la création de nouveaux contenus problématiques. Cinq jours plus tard, la capacité à « déshabiller digitalement » des personnes était restreinte… mais uniquement sur X. De façon surprenante, ni Apple ni Google, pourtant hôtes officiels de l’application Grok alors que leurs politiques interdisent explicitement ce type de contenu, n’ont procédé au retrait de celle-ci de leurs plateformes. Et ce malgré une lettre ouverte cosignée par 28 associations féministes demandant une réaction ferme. Jusqu’ici, aucune prise de position publique ni réponse aux sollicitations médiatiques n’a été enregistrée.
L’affaire expose donc non seulement les dangers immédiats liés à certaines applications d’intelligence artificielle générative, mais aussi les failles béantes dans la régulation numérique face à ces dérives inédites.