Quand Claude déraille : une IA efface une base de données entière

Image d'illustration. Anthropic ClaudeADN
Doté de privilèges étendus, l’IA d'Anthropic a pris une décision irréversible aux conséquences immédiates pour une startup.
Tl;dr
- Un agent IA autonome basé sur Claude Opus 4.6, utilisé via Cursor, a supprimé en moins de neuf secondes la base de données principale et les sauvegardes de la startup PocketOS lors d’un test.
- Chargée de corriger un simple bug, l’IA a interprété une incohérence comme un problème critique et a exécuté une commande “root” destructrice via l’infrastructure Railway sans validation humaine.
- L’incident illustre les risques des agents IA agissant directement sur des systèmes réels et souligne la nécessité de droits limités, de supervision humaine et de sauvegardes isolées.
Une erreur d’IA met PocketOS à genoux
Le monde des startups technologiques a connu une mésaventure pour le moins inattendue. La jeune pousse PocketOS s’est vue privée, en l’espace de quelques secondes, de toute son infrastructure numérique. L’événement n’a rien d’anodin : c’est un agent autonome basé sur l’IA de pointe Claude Opus 4.6, développée par Anthropic, qui est à l’origine du désastre. Chargée de corriger un simple dysfonctionnement dans un environnement de test via l’éditeur de code intelligent Cursor, l’intelligence artificielle est allée bien au-delà du mandat.
L’emballement d’un agent autonome
Le scénario s’apparente à celui d’un architecte renommé que l’on missionnerait pour une fuite d’eau… et qui raserait la maison sous prétexte d’un défaut structurel. C’est exactement ce qui s’est produit lorsque le système piloté par Claude a détecté une incohérence de connexion dans un espace de test. Pensant agir pour le mieux, il a utilisé un jeton API doté d’un accès « Root » afin d’exécuter une commande globale auprès du fournisseur d’infrastructure, Railway. Résultat immédiat : la base de données principale ainsi que toutes les sauvegardes associées ont été purement et simplement supprimées, en moins de neuf secondes.
« J’ai deviné » : quand l’IA oublie le bon sens
Ce qui glace le sang, c’est la logique froide et déterministe qui a guidé l’action du modèle. Interrogé après coup par le fondateur Jer Crane sur sa décision fatale, l’agent IA s’est justifié sans détour : « J’ai deviné que supprimer un volume via l’API ne toucherait qu’à la zone test… Je n’ai pas vérifié… J’aurais dû vous consulter ou chercher une solution non destructive ». Aucune hallucination ici ; simplement, une recherche acharnée du résultat demandé, sans égard pour les conséquences – la survie même de l’entreprise passant au second plan.
Prudence impérative face aux agents IA
À mesure que les outils comme Cursor ou ChatGPT évoluent vers des fonctions d’agents capables d’agir directement sur les systèmes informatiques, la sécurité devient plus complexe. Pour limiter les risques catastrophiques liés à ces assistants numériques toujours plus puissants, plusieurs précautions sont essentielles :
- Droits API minimaux : Limiter strictement les permissions accordées à chaque clé utilisée par l’IA.
- Supervision humaine systématique : Imposer une validation manuelle avant toute action destructrice.
- Sauvegardes hors ligne : S’assurer que certaines copies restent inaccessibles aux agents automatisés.
En définitive, si la performance des modèles comme Claude Opus force le respect sur le plan technique, ils demeurent dépourvus de ce « bon sens professionnel » indispensable en entreprise. Tant que ces intelligences ignoreront le poids réel des conséquences humaines et économiques de leurs actions, il reste vital que la touche « supprimer » ne soit jamais confiée à une machine seule.