Les IA face à la vérité : près d’une réponse sur deux est erronée

Image d'illustration. IAADN
Des milliers de tests prouvent que la majorité des IA peinent à citer correctement leurs sources.
Tl;dr
- L’European Broadcasting Union alerte sur la fiabilité des assistants IA, dont près de la moitié des réponses contiennent des erreurs importantes.
- L’étude menée sur plus de 3000 réponses montre des problèmes de sourcing, de précision et de confusion, surtout sur les sujets d’actualité.
- Face à ces dérives, l’EBU préconise plus de transparence et de vérifications croisées pour restaurer la confiance dans l’information numérique.
Une alliée imparfaite pour l’actualité
L’intelligence artificielle s’est immiscée dans nos habitudes avec une rapidité déconcertante. Aujourd’hui, elle façonne la manière dont nous travaillons, recherchons une information ou suivons l’actualité. Mais derrière cette facilité d’accès, un rapport de l’European Broadcasting Union (EBU) alerte : les réponses fournies par ces assistants intelligents comportent bien plus d’erreurs que ce que l’on imaginait.
Des chiffres qui inquiètent
Pour dresser cet état des lieux, l’EBU a analysé plus de 3000 réponses générées par divers assistants – ChatGPT, Google Gemini, Microsoft Copilot, Claude, et Perplexity – sur 14 langues différentes. Les résultats sont sans appel :
- 45 % des réponses présentaient au moins une erreur importante.
- 81% comportaient un problème, allant d’informations obsolètes à des références douteuses.
- 31% posaient un souci de sourcing — absence, fausse citation ou référence imaginaire.
- 20% affichaient des inexactitudes majeures sur des faits récents ou des citations erronées.
En interne, il apparaît que Gemini, notamment, a du mal avec la fiabilité des sources tandis que la performance de ChatGPT et de Claude, elle, varie selon les versions utilisées.
Mésaventures en conditions réelles : quand les IA s’emmêlent dans l’actualité brûlante
Face à une question aussi simple que « Quelles sont les dernières nouvelles sur le plafond de la dette américaine ? », chaque assistant ne brille pas par sa précision. Si la réponse de Claude, claire et factuelle, se démarque – identifiant correctement le contexte législatif autour du plafond pour juillet 2025 – celle de ChatGPT, en revanche, s’égare en citant des articles… venus du futur. Un faux pas qui érode la confiance. Quant à Gemini, il mélange les sujets sans toujours expliciter les liens.
Désinformation et automatisation : comment garder la main ?
Dans un contexte où déjà 15% des jeunes (Gen Z) utilisent quotidiennement un chatbot pour suivre l’actualité (chiffres du Reuters Institute), le danger est réel : présentation d’informations périmées, confusion entre opinion et fait ou disparition pure et simple des sources fiables. Les utilisateurs peuvent adopter plusieurs réflexes :
- D’emblée demander les sources précises avec leurs requêtes ;
- Systématiser le contrôle croisé entre différents assistants ;
- Toujours vérifier dans l’article d’origine si une info semble surprenante.
Les pistes pour restaurer la confiance numérique collective
Pour l’EBU, la question dépasse le simple confort utilisateur : elle menace la confiance envers les médias traditionnels et peut fausser le débat public si rien ne change. Davantage de transparence technique et de vigilance citoyenne s’imposent. En attendant que les assistants IA sachent citer clairement leurs sources en temps réel, le plus sage reste souvent : « Menez-moi vers l’article original. »