Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • Marvel
  • Guillermo Del Toro
  • Matrix
  • Star Trek
  • Streaming

Les IA face à la vérité : près d’une réponse sur deux est erronée

Tech > IA > Désinformation
Par Jordan Servan,  publié le 27 octobre 2025 à 14h00.
Tech
IA

Image d'illustration. IAADN

Des milliers de tests prouvent que la majorité des IA peinent à citer correctement leurs sources.

Tl;dr

  • L’European Broadcasting Union alerte sur la fiabilité des assistants IA, dont près de la moitié des réponses contiennent des erreurs importantes.
  • L’étude menée sur plus de 3000 réponses montre des problèmes de sourcing, de précision et de confusion, surtout sur les sujets d’actualité.
  • Face à ces dérives, l’EBU préconise plus de transparence et de vérifications croisées pour restaurer la confiance dans l’information numérique.

Une alliée imparfaite pour l’actualité

L’intelligence artificielle s’est immiscée dans nos habitudes avec une rapidité déconcertante. Aujourd’hui, elle façonne la manière dont nous travaillons, recherchons une information ou suivons l’actualité. Mais derrière cette facilité d’accès, un rapport de l’European Broadcasting Union (EBU) alerte : les réponses fournies par ces assistants intelligents comportent bien plus d’erreurs que ce que l’on imaginait.

Des chiffres qui inquiètent

Pour dresser cet état des lieux, l’EBU a analysé plus de 3000 réponses générées par divers assistants – ChatGPT, Google Gemini, Microsoft Copilot, Claude, et Perplexity – sur 14 langues différentes. Les résultats sont sans appel :

  • 45 % des réponses présentaient au moins une erreur importante.
  • 81% comportaient un problème, allant d’informations obsolètes à des références douteuses.
  • 31% posaient un souci de sourcing — absence, fausse citation ou référence imaginaire.
  • 20% affichaient des inexactitudes majeures sur des faits récents ou des citations erronées.

En interne, il apparaît que Gemini, notamment, a du mal avec la fiabilité des sources tandis que la performance de ChatGPT et de Claude, elle, varie selon les versions utilisées.

Mésaventures en conditions réelles : quand les IA s’emmêlent dans l’actualité brûlante

Face à une question aussi simple que « Quelles sont les dernières nouvelles sur le plafond de la dette américaine ? », chaque assistant ne brille pas par sa précision. Si la réponse de Claude, claire et factuelle, se démarque – identifiant correctement le contexte législatif autour du plafond pour juillet 2025 – celle de ChatGPT, en revanche, s’égare en citant des articles… venus du futur. Un faux pas qui érode la confiance. Quant à Gemini, il mélange les sujets sans toujours expliciter les liens.

Désinformation et automatisation : comment garder la main ?

Dans un contexte où déjà 15% des jeunes (Gen Z) utilisent quotidiennement un chatbot pour suivre l’actualité (chiffres du Reuters Institute), le danger est réel : présentation d’informations périmées, confusion entre opinion et fait ou disparition pure et simple des sources fiables. Les utilisateurs peuvent adopter plusieurs réflexes :

  • D’emblée demander les sources précises avec leurs requêtes ;
  • Systématiser le contrôle croisé entre différents assistants ;
  • Toujours vérifier dans l’article d’origine si une info semble surprenante.

Les pistes pour restaurer la confiance numérique collective

Pour l’EBU, la question dépasse le simple confort utilisateur : elle menace la confiance envers les médias traditionnels et peut fausser le débat public si rien ne change. Davantage de transparence technique et de vigilance citoyenne s’imposent. En attendant que les assistants IA sachent citer clairement leurs sources en temps réel, le plus sage reste souvent : « Menez-moi vers l’article original. »

Le Récap
  • Tl;dr
  • Une alliée imparfaite pour l’actualité
  • Des chiffres qui inquiètent
  • Mésaventures en conditions réelles : quand les IA s’emmêlent dans l’actualité brûlante
  • Désinformation et automatisation : comment garder la main ?
  • Les pistes pour restaurer la confiance numérique collective
En savoir plus
  • ChatGPT Atlas : un navigateur IA prometteur… mais risqué
  • Dès décembre, Microsoft Teams signalera à votre employeur vos absences du bureau
  • Claude : l’IA qui n’oublie plus rien… sauf si vous le décidez
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2025 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -