Avec 100 millions de GPU, Sam Altman prépare une révolution à mille milliards pour ChatGPT et ses utilisateurs

Image d'illustration. OpenAIADN
Sam Altman ambitionne de transformer l’intelligence artificielle à l’échelle mondiale, en misant sur 100 millions de processeurs graphiques pour soutenir le développement de ChatGPT. Ce projet colossal pourrait bien redéfinir notre rapport quotidien à l’IA.
Tl;dr
- OpenAI vise un futur à 100 millions de GPU, avec un cap symbolique d’un million attendu dès fin 2025.
- Cette ambition soulève des défis énergétiques et économiques majeurs, avec un coût estimé à 3000 milliards de dollars et un impact écologique colossal.
- Pour les utilisateurs, cela promet des IA plus puissantes mais pose aussi la question d’une dépendance technologique accrue et d’abonnements potentiellement plus chers.
Un pari hors normes pour l’intelligence artificielle
La vision exprimée par Sam Altman, le patron d’OpenAI, et par extension ChatGPT, fait tourner les têtes : bâtir une infrastructure IA s’appuyant sur 100 millions de GPU (Graphics Processing Unit). Ce chiffre, avancé sur le réseau social X peu après le lancement de ChatGPT Agent, dépasse largement ce qu’imaginent aujourd’hui les autres géants technologiques. Si l’intéressé reconnaît volontiers — non sans ironie — que cet objectif tient pour l’instant du fantasme, OpenAI devrait toutefois franchir la barre symbolique du million de GPU dès la fin 2025. Un saut d’échelle qui n’a rien d’anodin.
Derrière les chiffres, une révolution matérielle et énergétique
Pour saisir l’enjeu, rappelons-le : un GPU, ou unité de traitement graphique, n’est plus réservé au rendu vidéo. Dans le monde de l’IA générative, c’est le moteur même qui alimente les modèles de langage comme ChatGPT. Capables d’effectuer des milliers de calculs simultanément, ces processeurs sont devenus essentiels pour analyser textes, images ou voix.
Cette puissance a un prix. D’ores et déjà, un million de GPU consomment autant d’électricité qu’une petite ville. Passer à 100 millions mobiliserait près de 75 gigawatts — soit environ trois quarts du réseau britannique — et nécessiterait un investissement estimé à 3000 milliards de dollars en matériel seul. Les conséquences seraient majeures : redistribution des chaînes d’approvisionnement en puces, pression accrue sur les marchés énergétiques mondiaux… La domination actuelle de sociétés telles que Google, Amazon ou encore Microsoft serait largement éclipsée.
L’impact sur les utilisateurs : promesses et limites
Qu’en retirer concrètement ? L’ambition affichée par OpenAI pourrait permettre :
- Des assistants IA réactifs et polyvalents, capables d’accomplir des tâches complexes en temps réel ;
- Une intelligence conversationnelle enrichie, alliant créativité et mémoire approfondie ;
- L’exécution rapide d’opérations autrefois réservées aux humains.
Mais la course effrénée vers la « silicon dominance » ne se fait pas sans contreparties. Les abonnements risquent d’augmenter si l’offre ne suit pas la demande. De leur côté, les enjeux environnementaux liés à la consommation énergétique s’intensifient.
Derrière la compétition : indépendance et futur incertain
L’annonce survient alors que la bataille pour l’accès aux meilleurs GPU fait rage entre OpenAI, mais aussi ses concurrents comme Google DeepMind, Meta ou encore Antrhopic. Tous misent sur des alternatives — des TPU (Tensor Processing Unit) maison chez Google aux collaborations avec Oracle — dans un souci d’indépendance stratégique.
Au final, que le cap des 100 millions soit atteint ou non importe moins que ce qu’il symbolise : une accélération sans précédent du secteur IA et son lot de questions pressantes sur la viabilité technologique, économique… et sociétale. Derrière chaque réponse instantanée fournie par ChatGPT aujourd’hui, il y a déjà un arsenal invisible tournant à plein régime — et demain peut-être cent fois plus vaste.