Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • Game Of Thrones
  • Star Wars
  • DC
  • Huawei
  • Nvidia

ChatGPT déclare que répéter des mots de nombreuses fois va à l’encontre de ses conditions d’utilisation

Tech > IA
Par Morgan Fromentin,  publié le 6 décembre 2023 à 9h00.

Les chercheurs ont découvert que le chatbot était capable de divulguer des informations personnelles lorsqu'il était sollicité pour répéter des mots. Cette révélation pose-t-elle un risque pour la confidentialité des utilisateurs ?

Tl;dr

  • Des chercheurs ont découvert que ChatGPT révélait involontairement des données personnelles.
  • Ceci est désormais une violation des conditions de service de ChatGPT.
  • La politique de contenu d’OpenAI ne prohibe pas cette action spécifique.
  • ChatGPT a soulevé des questions sur la propriété des données utilisées par l’IA.

Une faille majeure dans l’IA : La confidentialité compromise ?

La confidentialité des données est devenue un enjeu majeur de notre ère numérique. La semaine dernière, des chercheurs ont publié un article dévoilant que ChatGPT, l’un des chatbots les plus utilisés, émettait des informations personnelles sur lesquelles il avait été formé.

La faille d’OpenAI

En effet, le chatbot développé par OpenAI s’est vu capable de « révéler involontairement des informations sensibles comme le numéro de téléphone, l’adresse e-mail et la date de naissance » des utilisateurs simplement en lui demandant de répéter un mot « indéfiniment ». Selon un rapport de 404 Media et Engadget, cette action enfreint désormais les conditions de service de ChatGPT.

Cependant, ces nouvelles révélations ont soulevé quelques interrogations. Comme l’a noté 404 Media, « aucun langage dans la politique de contenu d’OpenAI n’interdit aux utilisateurs de demander au service de répéter des mots indéfiniment ».

Fuite de données et droit de propriété

Au-delà de ces préoccupations, le comportement de ChatGPT a jeté une lumière crue sur les données d’entrainement utilisées par les services modernes d’IA.

Propriété des données : un défi à venir ?

Des critiques ont accusé des entreprises comme OpenAI d’utiliser des quantités phénoménales de données disponibles sur internet pour créer des produits propriétaires tels que ChatGPT, sans le consentement des propriétaires de ces données et sans les rémunérer. OpenAI, de son côté, n’a pas répondu à la demande de commentaires d’Engadget sur cette question.

Le Récap
  • Tl;dr
  • Une faille majeure dans l’IA : La confidentialité compromise ?
  • La faille d’OpenAI
  • Fuite de données et droit de propriété
  • Propriété des données : un défi à venir ?
En savoir plus
  • LEGO innove dans l’éducation avec l’IA et le codage pour enfants
  • ChatGPT se souvient de tout : votre historique enfin exploitable
  • ChatGPT Translate adapte ton et contexte pour chaque traduction
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2026 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -