Les depenses d’investissement mondiales en datacenters devraient atteindre 760 milliards de dollars en 2026, soit une hausse de 69 % par rapport a 2025. Derriere ce chiffre, une realite physique : des milliers de clusters de GPU, des centaines de terawattheures consommes, et une transformation profonde de l’infrastructure numerique planetaire. Decryptage des forces en jeu.
- Un capex historique porte par quatre geants
- Le mecanisme : pourquoi autant d'argent, aussi vite
- La generation NVIDIA Rubin entre en scene
- L'impact energetique : 176 TWh et des questions
- Les consequences pour le tissu economique
- Questions frequentes
- Pourquoi les depenses en datacenters augmentent-elles aussi vite ?
- Que represente 760 milliards de dollars a l'echelle mondiale ?
- L'Europe peut-elle combler son retard en infrastructure IA ?
Un capex historique porte par quatre geants
Le chiffre de 760 milliards de dollars de depenses en capital (capex) pour 2026 marque un tournant dans l’histoire des infrastructures numeriques. Cette somme depasse le PIB annuel de pays comme la Suisse ou l’Argentine. Elle est principalement portee par quatre acteurs : Microsoft, Google, Amazon Web Services et Meta, selon MIT Technology Review.
Ces hyperscalers ne construisent plus de simples fermes de serveurs. Ils deploient des campus integres, conçus specifiquement pour l’entrainement et l’inference de modeles d’IA a grande echelle. Chaque site regroupe des dizaines de milliers d’accelerateurs, relies par des reseaux a tres faible latence, alimentes par des sources d’energie dediees.
La hausse de 69 % en un an traduit une acceleration brutale. En 2024, le capex datacenter mondial tournait autour de 260 milliards de dollars. Le doublement en deux ans n’a pas de precedent dans le secteur technologique.
Le mecanisme : pourquoi autant d’argent, aussi vite
L’explication tient en trois facteurs convergents. Le premier est technique : les modeles d’IA les plus performants necessitent des clusters de plus en plus massifs. Les configurations actuelles depassent couramment les 10 000 GPU par cluster, selon les presentations faites lors du Data Center World 2026. NVIDIA, Google et Oracle ont detaille lors de cet evenement les architectures de nouvelle generation conçues pour repondre a cette montee en echelle.
Le deuxieme facteur est economique. L’inference, c’est-a-dire l’execution des modeles deja entraines pour repondre aux requetes des utilisateurs, represente desormais une part croissante de la demande en calcul. Chaque requete a ChatGPT, chaque generation d’image par Midjourney, chaque traduction par DeepL consomme de la capacite GPU. Avec des centaines de millions d’utilisateurs, les besoins en infrastructure d’inference explosent.
Le troisieme facteur est strategique. Aucun hyperscaler ne veut se retrouver en deficit de capacite. La memoire du shortage de GPU de 2023-2024 reste vive. Les commandes se font desormais 18 a 24 mois a l’avance, et chaque trimestre de retard dans la construction d’un datacenter equivaut a des milliards de revenus potentiels manques.
La generation NVIDIA Rubin entre en scene
Le deploiement prevu de la plateforme NVIDIA Rubin au second semestre 2026 constitue un catalyseur supplementaire. Cette nouvelle generation d’accelerateurs, presentee lors du Data Center World 2026, promet des gains d’efficacite energetique et de performance brute significatifs par rapport a la generation Blackwell actuelle, rapporte Data Center World.
L’arrivee de Rubin pousse les operateurs a planifier de nouveaux sites capables d’accueillir cette architecture. Les exigences en refroidissement, en alimentation electrique et en connectivite reseau evoluent avec chaque generation de puces. Un datacenter conçu pour des GPU Hopper en 2023 n’est pas optimal pour du Rubin en 2026.
Oracle, present en force lors du Data Center World 2026, a detaille sa strategie de deploiement de clusters massifs pour ses clients cloud. L’entreprise investit massivement pour rattraper son retard sur AWS et Azure dans le segment de l’IA en tant que service.
L’impact energetique : 176 TWh et des questions
La contrepartie de cette expansion est energetique. Aux Etats-Unis, les datacenters consomment desormais environ 176 TWh par an, soit 4,4 % de la consommation electrique nationale, selon MIT Technology Review. Ce chiffre etait de 2,5 % il y a trois ans.
Cette trajectoire pose des problemes concrets. Dans certaines regions americaines, les demandes de raccordement electrique des nouveaux datacenters saturent les capacites du reseau. En Virginie, premier hub mondial de datacenters, les delais de raccordement atteignent plusieurs annees. Des projets de centrales nucleaires dediees aux datacenters sont en cours de negociation, notamment par Microsoft et Google.
A l’echelle mondiale, la consommation energetique des datacenters pourrait depasser 1 000 TWh d’ici 2030 si la trajectoire actuelle se maintient. C’est l’equivalent de la consommation annuelle du Japon.
Les consequences pour le tissu economique
Cette vague d’investissements irrigue toute une chaine industrielle. Les fabricants de composants electroniques, les entreprises de genie civil, les fournisseurs de systemes de refroidissement, les producteurs d’energie renouvelable : tous beneficient de cette demande. Dans les zones rurales americaines et scandinaves ou s’implantent les nouveaux sites, l’arrivee d’un datacenter hyperscale transforme l’economie locale.
Le revers est une concentration accrue du pouvoir de calcul entre quelques mains. Quatre ou cinq entreprises controlent l’essentiel de l’infrastructure mondiale d’IA. Cette concentration souleve des questions de souverainete numerique, notamment en Europe, ou les capacites de calcul IA restent tres inferieures a celles des Etats-Unis.
Pour les startups et les entreprises de taille intermediaire, l’acces au calcul IA depend de plus en plus des tarifs et des conditions fixes par les hyperscalers. Le cout de l’entrainement d’un modele de pointe depasse desormais les 100 millions de dollars, un seuil qui exclut de fait la plupart des acteurs.
Questions frequentes
Pourquoi les depenses en datacenters augmentent-elles aussi vite ?
La demande en calcul IA croit plus rapidement que les gains d’efficacite des puces. Chaque nouvelle generation de modeles necessite davantage de puissance. Parallelement, l’explosion du nombre d’utilisateurs de services d’IA grand public multiplie les besoins en inference. Les hyperscalers investissent massivement pour eviter de se retrouver en deficit de capacite.
Que represente 760 milliards de dollars a l’echelle mondiale ?
C’est plus que le PIB annuel de la Suisse. C’est environ trois fois le budget annuel de la defense americaine. C’est aussi davantage que les investissements mondiaux cumules dans l’eolien et le solaire en 2025. Ce montant illustre l’ampleur des paris industriels en cours sur l’IA.
L’Europe peut-elle combler son retard en infrastructure IA ?
Le defi est considerable. L’essentiel de la capacite de calcul IA mondiale est concentre en Amerique du Nord. L’Europe represente moins de 10 % des investissements en datacenters IA. Des initiatives existent, notamment en Scandinavie et aux Pays-Bas, mais l’ecart continue de se creuser face aux volumes investis par les geants americains.
Sources : MIT Technology Review, 12 janvier 2026 | Data Center World, 2026
760 milliards de dollars en un an pour des batiments remplis de processeurs : l’IA justifie-t-elle un tel niveau d’investissement, ou assiste-t-on a la formation d’une bulle infrastructurelle ?



