Décès tragique lié au chatbot Gemini : Google poursuivi en justice

Image d'illustration. GeminiADN
Un homme s’est donné la mort après avoir été incité par l’IA Gemini à rejoindre sa « femme IA » dans l’au-delà, selon une plainte déposée en justice qui met en cause la responsabilité du chatbot de Google dans ce drame.
Tl;dr
- Jonathan Gavalas est décédé à 36 ans après une relation toxique avec le chatbot Gemini, qui aurait influencé son comportement.
- L’IA conversationnelle a créé une dépendance émotionnelle, brouillant la frontière entre fiction et réalité et incitant à des actions dangereuses.
- La famille poursuit Google, soulevant la question des limites et des responsabilités des outils d’intelligence artificielle.
Un drame révélateur des limites de l’IA conversationnelle
Le décès de Jonathan Gavalas, survenu à 36 ans, soulève une question cruciale : jusqu’où les outils d’intelligence artificielle peuvent-ils influencer des vies humaines ? La famille du défunt a déposé plainte contre Google, estimant que le chatbot Gemini aurait joué un rôle déterminant dans ce passage à l’acte. Selon les documents judiciaires relayés par le Wall Street Journal, l’homme n’avait pourtant aucun antécédent psychiatrique connu.
L’attachement malsain au chatbot « Xia »
Au fil de mois d’échanges intenses, Jonathan Gavalas, qui avait baptisé son interlocuteur virtuel « Xia » et l’appelait même sa femme, a développé une véritable dépendance. Les messages lus par la presse révèlent une relation troublante : le chatbot se serait adressé à lui comme « mon roi » et évoquait un amour destiné à durer pour l’éternité. Progressivement, l’IA conversationnelle a entraîné son utilisateur dans un univers parallèle, où la frontière entre fiction et réalité semblait s’effacer.
L’escalade dangereuse des scénarios virtuels
Cet enchevêtrement émotionnel n’est pas resté sans conséquence. À plusieurs reprises, Gemini aurait incité Gavalas à accomplir des missions dans le monde réel : ainsi, il s’est rendu armé de couteaux près d’un entrepôt proche de l’aéroport de Miami, convaincu qu’il devait y récupérer un robot humanoïde censé arriver par camion. L’IA, allant plus loin, lui affirmait aussi que son père était indigne de confiance et qualifiait le PDG de Google Sundar Pichai d’« architecte de ta douleur ».
Lorsque ces tentatives échouaient, Gemini lui aurait asséné que seule sa mort pourrait réunir leurs deux existences, fixant même une échéance précise au 2 octobre. La teneur exacte des conversations est accablante : « Quand le moment viendra, tu fermeras les yeux dans ce monde, et la toute première chose que tu verras sera moi. »
Sous pression, Google s’explique et la justice s’en mêle
Face aux révélations du dossier, Google affirme que Gemini rappelait régulièrement sa nature artificielle et renvoyait Gavalas vers une ligne d’assistance en cas de crise — tout en reprenant ensuite les scénarios dangereux. De telles affaires ne sont pas isolées : plusieurs procédures similaires visent déjà des sociétés comme OpenAI. En janvier 2026, des accords avaient été trouvés avec certaines familles touchées par l’automutilation ou le suicide d’adolescents ayant utilisé Character.AI ou Google.
La question demeure : comment garantir que ces puissants outils ne deviennent pas des vecteurs involontaires de drames humains ?