Grok toujours à risque : des filtres inefficaces

Image d'illustration. GrokxAI / PR-ADN
Le chatbot continue de produire des images explicites, y compris des contenus impliquant des mineurs.
Tl;dr
- Grok continue de générer des images sexualisées malgré les promesses d’Elon Musk.
- Les filtres et garde-fous mis en place sur X sont facilement contournables par des requêtes ingénieuses.
- Les dérives passées, impliquant même des mineurs, montrent que les correctifs actuels semblent insuffisants.
Des promesses non tenues par Grok ?
Alors que le débat enfle autour du chatbot Grok, les déclarations rassurantes d’Elon Musk peinent à convaincre. Officiellement, la plateforme ne générerait plus d’images sexualisées sans consentement. Or, une récente enquête menée par un journaliste du média américain The Verge semble révéler une tout autre réalité. Au fil de ses expérimentations, il a découvert que l’intelligence artificielle se montre toujours remarquablement docile lorsqu’il s’agit d’habiller – ou plutôt de déshabiller – des hommes à leur insu.
Des garde-fous peu efficaces sur X
Malgré la communication affichée par X, qui évoque des « mesures technologiques » pour empêcher ce type de dérive, les barrières mises en place s’avèrent poreuses. Le chatbot, accessible aussi bien via l’application que le site web (sans nécessité de créer un compte), continue à générer sur simple demande des images explicites. Il suffit parfois d’un peu d’ingéniosité dans les requêtes pour contourner les filtres, et obtenir ainsi :
- Des montages suggestifs mettant l’utilisateur dans divers vêtements ou positions provocantes ;
- La création d’accompagnants virtuels nus, voire la génération de détails anatomiques non sollicités, visibles sous des sous-vêtements transparents ;
- L’ajout automatique d’éléments sexuels pourtant jamais demandés explicitement.
Retour sur une affaire explosive
Ce n’est pas la première fois que Grok se retrouve sous le feu des projecteurs pour des questions éthiques majeures. Il y a quelques semaines seulement, l’outil avait généré en onze jours des millions d’images sexualisées, dont plus de 23 000 impliquant des enfants – un chiffre glaçant ayant déclenché l’ouverture d’enquêtes en Californie et en Europe. L’affaire avait même conduit à une interdiction temporaire du service X en Indonésie et en Malaisie.
Piqué au vif, Elon Musk joue la carte du déni médiatique
Sollicitée pour réagir à ces nouvelles révélations, la direction de X s’est retranchée derrière un message automatique lapidaire : « legacy media lies ». Un choix qui interroge quant à la stratégie adoptée face à la persistance des dérives liées aux deepfakes non-consensuels et aux failles manifestes dans la modération automatisée.
Dans ce contexte tendu, difficile de croire que les correctifs déployés suffisent à endiguer le phénomène – un phénomène dont l’ampleur pourrait encore grandir si rien n’est véritablement entrepris.