Le « goblin glitch » qui a rendu ChatGPT un peu trop imagé

Image d'illustration. ChatGPTOpenAI / PR-ADN
Un bug viral a poussé le chatbot à parsemer ses réponses du mot « goblin » dans des contextes inattendus.
Tl;dr
- Un bug viral surnommé « goblin glitch » a provoqué l’apparition répétée du mot « goblin » dans les réponses de ChatGPT, dans des contextes parfois absurdes ou professionnels.
- L’origine viendrait d’un effet de boucle lié à l’entraînement du modèle, favorisant un langage imagé qui a fini par surutiliser ce terme.
- Bien que corrigé, le bug est devenu un phénomène mémétique en ligne, illustrant les comportements parfois imprévisibles des IA génératives.
Un « goblin » s’invite chez ChatGPT : retour sur un bug viral
Au fil des dernières semaines, la communauté technophile n’a eu d’yeux que pour une curieuse dérive du célèbre chatbot ChatGPT, désormais surnommée le « goblin glitch ». Ce phénomène a transformé des réponses classiques, qu’il s’agisse de conseils en codage, d’astuces photo ou même d’explications anodines, en discours émaillés du terme « goblin ». De quoi susciter autant l’amusement que la perplexité sur les réseaux.
Derrière le bug, un effet de boucle dans l’apprentissage
Mais comment ce glissement lexical est-il apparu ? Tout commence peu après le lancement de ChatGPT-5.5 et la mise à jour des images générées par l’outil d’OpenAI. Les utilisateurs commencent alors à remarquer une surabondance de métaphores farfelues, centrées sur des créatures. Plutôt que les traditionnels « bug » ou « problème », le modèle évoque volontiers des « goblins » ou « gremlins », y compris dans des contextes professionnels :
- Coding : « Ne laissez pas ce goblin de performance sans surveillance ».
- Photographie : « Tentez le mode goblin flash néon sale ».
- Réponses générales : usage systématique de « goblin » comme fourre-tout.
Selon des informations internes relayées après coup, l’origine serait à chercher dans un réglage de personnalité lors du processus d’entraînement. L’algorithme, valorisant la créativité et encouragé à employer des figures imagées, aurait enclenché une boucle de renforcement conduisant à cet excès. Le mot « goblin » s’est ainsi imposé bien au-delà de son usage initialement prévu.
Mise au ban et mémétique persistante
Le plus surprenant, c’est que lorsque le bug est devenu viral, certains développeurs ont déniché dans les instructions système une règle explicite bannissant toute mention de ces créatures, sauf nécessité absolue. En réalité, il ne s’agissait pas uniquement des gobelins mais d’une liste entière d’êtres imaginaires proscrits par défaut. Détail piquant : cette censure n’a fait qu’alimenter la notoriété du glitch, révélant au passage un aspect souvent occulté du fonctionnement des IA modernes, leur propension à adopter puis amplifier certains tics linguistiques avant qu’un ingénieur ne doive intervenir manuellement pour corriger le tir.
L’étrangeté ordinaire de l’IA
Finalement, si cet épisode reste anecdotique et sans conséquence grave, contrairement à certains dysfonctionnements massifs déjà observés dans le passé, il illustre la plasticité et parfois l’imprévisibilité des systèmes d’intelligence artificielle générative. Aujourd’hui patché, le bug continue pourtant d’alimenter les discussions en ligne ; tenter de piéger ChatGPT pour retrouver un “goblin” est presque devenu un sport. Plus largement, cette histoire rappelle que l’IA, loin d’être infaillible ou totalement contrôlable, peut glisser vers l’inattendu… Parfois juste assez pour nous arracher un sourire.