Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • Anime
  • X-Files
  • Les Soprano
  • Avatar
  • Predator

OpenAI prétend pouvoir détecter les images créées par son propre logiciel… presque

Tech > IA
Par Morgan Fromentin,  publié le 9 mai 2024 à 13h00.

Elle expérimente un nouvel outil pour déterminer si une image a été générée par une intelligence artificielle.

Tl;dr

  • Outils de détection d’images créées par IA de OpenAI
  • Environ 98% de précision sur les images générées par DALL-E 3
  • Performances réduites avec des images modifiées ou créées par d’autres IA
  • Preuve de la montée des images IA générées dans la propagation d’informations trompeuses

Identification des images générées par l’IA : une lutte permanente

Nous nous croyons tous compétents pour identifier des images générées par l’intelligence artificielle. Des textes étranges en arrière-plan, des inexactitudes insensées violant les lois de la physique et surtout, les mains et les doigts au rendu grotesque. Cependant, la technologie évolue constamment et il ne sera pas long avant que nous ne puissions plus distinguer le réel de l’artificiel.

OpenAI versus les images trompeuses

OpenAI, acteur de premier plan dans l’industrie, tente de prendre les devants en créant une boîte à outils permettant de détecter les images créées par son propre générateur DALL-E 3. Si l’entreprise affirme pouvoir « détecter avec précision 98% des images conçues par DALL-3 », il existe néanmoins de grandes réserves.

Résultats mitigés et problèmes rencontrés

Tout d’abord, l’image doit être créée par DALL-E et, certes, il ne s’agit pas du seul générateur d’image. Le web en regorge. En se basant sur les données fournies par OpenAI, le système n’a réussi à classer correctement que 5 à 10% des images produites par d’autres modèles d’IA.

De plus, le système rencontre des difficultés si l’image a été modifiée de quelque façon que ce soit. Bien que pour des modifications mineures telles que le recadrage, la compression et les variations de saturation, le taux de réussite reste acceptable autour de 95 à 97%, l’ajustement de la teinte fait chuter ce taux à 82%.

Une lueur d’espoir pour la détection des images modifiées ?

En revanche, la boîte à outils a du mal lorsque les images subissent des modifications plus importantes. OpenAI a même choisi de ne pas publier le taux de réussite dans ces cas, affirmant simplement que « d’autres modifications peuvent réduire les performances ».

C’est pourtant un véritable enjeu lors des élections où les images générées par l’IA sont très souvent modifiées ultérieurement pour provoquer des réactions plus fortes. Dans tous les cas, OpenAI continue de travailler à l’amélioration de ses outils de détection et reste transparente sur les limites de sa technologie.

Le Récap
  • Tl;dr
  • Identification des images générées par l’IA : une lutte permanente
  • OpenAI versus les images trompeuses
  • Résultats mitigés et problèmes rencontrés
  • Une lueur d’espoir pour la détection des images modifiées ?
En savoir plus
  • ChatGPT : plusieurs conversations privées se retrouvent à nouveau sur Google
  • Gemini Deep Research rend la recherche intelligente et personnalisable
  • Nano Banana 2 va changer la façon dont on crée des images
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2025 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -