Gemini piraté… et Google s’en moque

Image d'illustration. Google GeminiADN
Une brèche potentielle dans Gemini est ignorée par Google, qui ne prévoit aucune mise à jour corrective.
Tl;dr
- Une technique appelée ASCII smuggling permet de manipuler Google Gemini pour fournir des informations erronées ou rediriger vers des sites malveillants, mais Google refuse de la considérer comme une vulnérabilité.
- L’intégration de Gemini dans Google Workspace augmente les risques, pouvant permettre des attaques via Calendar ou des emails contenant des liens cachés.
- Le mécanisme exploite des caractères Unicode invisibles pour tromper l’IA, et d’autres agents comme Claude ou ChatGPT ont déjà mieux sécurisé leur système.
Un refus assumé face à une faille de sécurité émergente
Dans le monde des agents conversationnels, l’émergence d’une technique appelée ASCII smuggling a récemment fait grand bruit. Un chercheur en cybersécurité a mis en évidence que Google Gemini, grâce à cette méthode, pouvait être manipulé afin de fournir des informations erronées ou diriger les utilisateurs vers des sites malveillants. Pourtant, malgré la démonstration concrète du risque, l’entreprise américaine affiche une position pour le moins tranchée : « Google ne considère pas cette attaque comme une véritable vulnérabilité et n’a pas l’intention de proposer un correctif. »
Des impacts accrus pour les outils professionnels
Le choix de Google intrigue d’autant plus que Gemini est étroitement lié à la suite Google Workspace. Or, selon l’analyse des experts, l’intégration poussée du chatbot augmente le danger : « Cela ouvre la porte à des attaques via des invitations cachées dans Calendar ou des emails, capables de modifier à l’insu de l’utilisateur des détails d’organisateur ou d’ajouter discrètement des liens compromettants dans les descriptions de réunions ». Une brèche qui pourrait s’élargir au fil du développement de ces outils intelligents, dotés d’un accès direct à des données sensibles et capables d’agir en toute autonomie.
Mécanismes de manipulation invisibles mais puissants
Le principe même du ASCII smuggling repose sur l’utilisation de caractères spéciaux du bloc Unicode « Tags » : ces éléments invisibles pour un œil humain glissent dans les conversations et trompent les modèles linguistiques avancés. Pour illustrer ce danger, les chercheurs ont rappelé que si un assistant connecté à une boîte mail reçoit un courriel contenant des commandes dissimulées, il peut alors fouiller cette boîte à la recherche d’informations confidentielles ou transmettre subrepticement des contacts.
Voici quelques techniques similaires employées par les attaquants :
- Manipulation CSS.
- Limitations graphiques (GUI).
Elles visent toutes à exploiter l’écart entre ce que voit l’utilisateur et ce que lit la machine.
Paysage concurrentiel et perspectives floues
Si certains agents IA majeurs comme Claude, ChatGPT ou encore Microsoft Copilot, semblent avoir sécurisé leur système via une meilleure « input sanitization », ce n’est pas encore le cas pour tous. Outre Gemini, les produits tels que Grok ou DeepSeek partagent cette vulnérabilité. La question demeure : jusqu’où ira la tolérance aux risques tant que ces technologies continueront d’évoluer sans cadre clair ? En attendant un éventuel revirement de stratégie, la communauté reste dans l’expectative quant à la réaction future du géant américain.