Discord renforce la sécurité des mineurs

Image d'illustration. DiscordDiscord / PR-ADN
Les contenus adultes et serveurs sensibles seront désormais accessibles uniquement après authentification.
Tl;dr
- À partir de mars 2026, Discord limitera automatiquement l’accès aux contenus adultes pour les mineurs et exigera une vérification d’âge pour lever ces restrictions.
- Les utilisateurs pourront s’authentifier via vidéo selfie ou pièce d’identité, avec des garanties pour la confidentialité et la suppression rapide des données.
- Ces mesures font suite à des incidents passés et seront accompagnées d’un « Teen Council » visant à impliquer les adolescents dans l’amélioration de la sécurité.
Discord durcit ses mesures de protection des mineurs
Depuis quelques années, la plateforme américaine de VoIP et de messagerie instantanée Discord cherche à muscler sa politique de sécurité des mineurs. Dès mars 2026, une série de nouvelles règles entrera en vigueur sur la plateforme, modifiant radicalement l’expérience utilisateur par défaut : tous les membres bénéficieront désormais d’une expérience qualifiée d’« appropriée pour les adolescents », à moins de prouver leur majorité. Pour franchir ce verrou et accéder aux espaces et contenus réservés aux adultes, il faudra désormais passer par une procédure de vérification d’âge.
Nouvelles barrières à l’accès des contenus sensibles
Concrètement, l’accès aux chaînes ou serveurs à accès restreint, ainsi qu’aux commandes spécifiques de l’application, sera bloqué tant que l’utilisateur n’aura pas été authentifié comme adulte. Les contenus considérés comme sensibles seront floutés automatiquement, tandis que les demandes d’amis ou messages privés provenant d’inconnus aboutiront dans une boîte séparée. Pour beaucoup, il s’agira d’une démarche unique mais certains devront présenter plusieurs justificatifs.
Deux méthodes principales sont prévues dès le lancement : une estimation par vidéo selfie ou l’envoi d’une pièce d’identité officielle via des prestataires agréés par Discord. L’entreprise précise que les vidéos ne quittent pas l’appareil de l’utilisateur et affirme que les documents transmis sont supprimés rapidement — « dans la plupart des cas, immédiatement après confirmation de l’âge ». À terme, un modèle d’inférence d’âge fonctionnant en arrière-plan devrait enrichir le dispositif.
L’impulsion donnée par des précédents inquiétants
Il faut dire que ce renforcement ne sort pas de nulle part. Après avoir banni en 2023 les « teen dating channels » et le partage de contenus pédopornographiques générés par IA, puis introduit des filtres automatiques et alertes dans la foulée, Discord réagit aussi à plusieurs affaires médiatisées. Notamment après qu’un reportage de NBC News ait révélé la poursuite judiciaire de 35 adultes impliqués dans des faits graves — enlèvements, manipulations ou agressions sexuelles — via la plateforme.
La parole aux premiers concernés : les adolescents eux-mêmes
Dans cette logique préventive et participative, un nouveau conseil consultatif va voir le jour : le « Teen Council ». Composé de 10 à 12 membres âgés de 13 à 17 ans, il aura vocation à guider la stratégie sécurité du réseau social. Selon Discord, cette initiative doit permettre « d’écouter réellement les besoins des jeunes utilisateurs et comprendre comment ils tissent des liens tout en se sentant protégés en ligne ». Une démarche qui rappelle un vieux principe éducatif : écouter avant tout ceux que l’on souhaite protéger.
Pour finir, rappelons que ces changements concerneront tous les comptes — nouveaux comme anciens — lors du déploiement mondial prévu début mars.