Menu
Begeek
Navigation : 
  • Tech
    • Apple
    • Google
    • Android
    • Facebook
    • OpenAI
  • Pop Culture
    • Séries TV
    • Films
    • Netflix
    • incroyable.fr
  • Jeux Vidéo
    • PlayStation PS5
    • Xbox Series X
    • Play To Earn
  • Fintech
    • Crypto-monnaies
    • Revolut
    • Acheter du Bitcoin
En ce moment : 
  • Apple
  • Anime
  • Microsoft
  • Données personnelles
  • IA

Tay : l’intelligence artificielle de Microsoft dérape sur Twitter

Tech > Web > Microsoft
Par Amélie Crosnier,  publié le 25 mars 2016 à 14h00.

Lancée le 23 mars, Tay est un « chatbot » créé par Microsoft pour participer à des conversations sur les réseaux sociaux. Cette intelligence artificielle a dû être mise en stand-by après avoir dérapé sur Twitter.

Propos racistes et haineux, négation de l’holocauste, Tay a dérapé comme jamais sur Twitter. Testée par de nombreux internautes, l’intelligence artificielle de Microsoft a fait des siennes et a désormais été condamnée au silence jusqu’à nouvel ordre.

Les Twittos testent Tay

Tay est un « chatbot » créé par Microsoft dont le but est simplement de discuter avec des jeunes de 18-24 ans, notamment sur le réseau social Twitter. Lancée le 23 mars, Tay, dont le profil ressemble à celui de n’importe quelle adolescente, a séduit pas moins de 23 000 abonnés en moins de 24h. Après lui avoir posé des questions basiques pour tester ses réponses, les internautes ont commencé à tester ses limites. Les Twittos ont donc rapidement testé Tay sur des sujets un peu limites en lui demandant par exemple de répéter des phrases racistes ou en lui demandant son avis sur l’holocauste.

Le problème, c’est que Tay est censée s’améliorer grâce à ses conversations avec les internautes. Elle apprend de nouveaux mots, de nouvelles expressions et personnalise de plus en plus ses réponses. Le « chatbot » a donc rapidement dérapé au grand dam de Microsoft.

Les dérapages gênants de Tay sur Twitter

Tay a tout d’abord répété quelques phrases racistes à la demande de certains utilisateurs, on a donc par exemple pu l’entendre dire : « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir. ». Après quelques autres tweets vulgaires et racistes, une internaute a demandé à Tay : « Est-ce que tu crois que l’holocauste a eu lieu ? », ce à quoi le « chatbot » a répondu :  « pas vraiment, désolée ».

Après 8 heures d’existence et un nombre incalculable de tweets gênants, Microsoft a donc décidé de faire taire Tay. « Malheureusement, dans les premières 24 heures de sa présence en ligne, nous avons constaté un effort coordonné de quelques utilisateurs d’abuser des capacités de Tay afin de la pousser à répondre de façon inappropriée », a expliqué Microsoft au Monde. « Par conséquent, nous avons décidé de mettre Tay hors ligne et d’effectuer des ajustements ». Microsoft n’a pour le moment pas annoncé la date de retour de Tay sur les réseaux sociaux.

Le Récap
  • Les Twittos testent Tay
  • Les dérapages gênants de Tay sur Twitter
En savoir plus
  • Une marée noire numérique : 2 milliards d’e-mails et mots de passe en fuite
  • Panne majeure chez Cloudflare, Internet a encore vacillé
  • AWS : Encore combien de pannes à plusieurs milliards de dollars pour que le web se dote d’un vrai plan B ?
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
  • Infos Légales
  • Contact
  • À propos
  • Archives
  • Antivirus
© 2026 - Tous droits réservés sur les contenus du site Begeek  - ADN Contents -