Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • Star Trek
  • VPN
  • Yellowstone
  • Doctor Who
  • Cinéma

ChatGPT labellisera les images créées par DALL-E 3 pour lutter contre la désinformation

Tech > IA
Par Morgan Fromentin,  publié le 8 février 2024 à 17h00.

OpenAI reconnait cependant que ce n'est pas une solution miracle.

Tl;dr

  • Les fraudeurs utilisent l’IA générative pour escroquer de l’argent.
  • OpenAI inclut désormais des métadonnées de provenance dans les images générées.
  • La vérification fonctionne uniquement lorsque les métadonnées sont intactes.
  • Google DeepMind a SynthID pour marquer des images et des audios générés par l’IA.

Les fraudeurs utilisent l’IA générative

À l’ère où les fraudeurs font appel à l’IA générative pour escroquer de l’argent ou ternir la réputation de quelqu’un, les entreprises technologiques élaborent des méthodes pour aider les utilisateurs à vérifier le contenu – commençant par les images fixes.

Les métadonnées de provenance sur OpenAI

Comme l’a laissé prévoir sa stratégie de désinformation de 2024, OpenAI intègre désormais des métadonnées de provenance dans les images générées avec ChatGPT sur le web et DALL-E 3 API. Leurs homologues mobiles recevront la même mise à jour d’ici au 12 février.

Le protocole C2PA en pratique

Le protocole adopté est la norme ouverte C2PA (Coalition for Content Provenance and Authenticity) et lorsque une telle image est chargée dans l’outil Content Credentials Verify, vous pourrez en retracer la lignée de provenance.

Toutefois, malgré la technologie cryptographique sophistiquée derrière la norme C2PA, cette méthode de vérification ne fonctionne que lorsque les métadonnées sont intactes. Par exemple, l’outil est inutile si vous téléchargez une image générée par l’IA sans ses métadonnées, comme c’est le cas avec toute capture d’écran ou image téléchargée sur les réseaux sociaux.

Les autres initiatives pour déjouer le faux contenu

Alors que l’effort récent d’OpenAI pour déjouer le faux contenu est actuellement limité aux images fixes, Google DeepMind dispose déjà de SynthID pour marquer numériquement à la fois les images et le son généré par l’IA. Pendant ce temps, Meta teste le tatouage invisible via son générateur d’images IA, qui est peut-être moins susceptible à la manipulation.

Le Récap
  • Tl;dr
  • Les fraudeurs utilisent l’IA générative
  • Les métadonnées de provenance sur OpenAI
  • Le protocole C2PA en pratique
  • Les autres initiatives pour déjouer le faux contenu
En savoir plus
  • Tesla relance Dojo3 pour booster ses IA
  • LEGO innove dans l’éducation avec l’IA et le codage pour enfants
  • ChatGPT se souvient de tout : votre historique enfin exploitable
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2026 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -