Les datacenters IA consomment tellement d’électricité que l’infrastructure électrique elle-même doit être repensée. Le passage de 400 à 800 volts en courant continu est en train de devenir la norme pour les installations de nouvelle génération. Un changement technique qui pourrait résoudre l’un des plus grands goulets d’étranglement de l’IA.
- Le problème énergétique des datacenters IA
- Pourquoi 800 volts ?
- Qui fait le saut
- Les défis techniques
- L'énergie nucléaire entre dans le jeu
- Le paradoxe de l'efficacité
- Questions fréquentes
- Le passage au 800 volts concerne-t-il uniquement les datacenters IA ?
- Les mini-centrales nucléaires dédiées aux datacenters sont-elles réalistes ?
- Le paradoxe de Jevons signifie-t-il que l'efficacité énergétique est inutile ?
- Sources
Le problème énergétique des datacenters IA
Un rack de serveurs IA moderne équipé de GPU NVIDIA B200 consomme entre 70 et 120 kW — contre 7 à 15 kW pour un rack de serveurs classiques. Un datacenter IA de grande taille peut consommer autant d’électricité qu’une ville de 100 000 habitants.
L’Agence internationale de l’énergie estime que les datacenters représentaient 1,5 % de la consommation électrique mondiale en 2023 et pourraient atteindre 4 à 5 % d’ici 2028, essentiellement à cause de l’IA.
Pourquoi 800 volts ?
La physique est simple : pour une même puissance, doubler la tension divise par deux le courant. Moins de courant signifie :
- Moins de pertes thermiques : les câbles chauffent moins, ce qui réduit les pertes d’énergie (jusqu’à 3 % d’économie d’électricité).
- Des câbles plus fins : moins de cuivre nécessaire, moins de poids, moins d’espace.
- Plus de densité : on peut empiler plus de serveurs dans le même espace.
- Meilleure efficacité : le PUE (Power Usage Effectiveness) des datacenters 800V atteint 1,1 contre 1,3-1,5 pour les installations traditionnelles.
Qui fait le saut
Les hyperscalers mènent la transition :
| Entreprise | Statut 800V | Détails |
|---|---|---|
| Déployé | Datacenters de nouvelle génération en 48V DC interne | |
| Microsoft | En déploiement | Infrastructure Azure pour les clusters IA |
| Meta | En déploiement | Nouveaux datacenters IA dédiés |
| Amazon | Planifié | Prochaine génération AWS |
Les défis techniques
- Sécurité : le 800V DC est potentiellement dangereux pour les techniciens. Des protocoles de sécurité renforcés et des systèmes de protection arc-flash sont nécessaires.
- Équipements : les alimentations, les bus bars et les connecteurs doivent être repensés pour le 800V. Toute la chaîne d’alimentation est impactée.
- Normalisation : les standards industriels (Open Compute Project, OCP) travaillent sur les spécifications 800V, mais la normalisation prend du temps.
L’énergie nucléaire entre dans le jeu
Face à l’appétit énergétique insatiable de l’IA, des solutions radicales émergent. Microsoft a signé un accord avec Constellation Energy pour réactiver la centrale nucléaire de Three Mile Island. Amazon et Google investissent dans les SMR (Small Modular Reactors). L’idée : des mini-centrales nucléaires dédiées aux datacenters IA.
Le paradoxe de l’efficacité
Même si les puces deviennent plus efficaces (cf. NVIDIA Rubin) et les datacenters plus optimisés, la demande en calcul IA croit encore plus vite. C’est le paradoxe de Jevons appliqué à l’IA : l’amélioration de l’efficacité énergétique pourrait paradoxalement augmenter la consommation totale en rendant l’IA plus accessible et donc plus utilisée.
La consommation énergétique de l’IA est-elle un problème soluble, ou un frein structurel à son développement ?
Questions fréquentes
Le passage au 800 volts concerne-t-il uniquement les datacenters IA ?
Non, mais ce sont les datacenters IA qui rendent cette transition urgente. Les racks de GPU consomment dix fois plus qu’un serveur classique, ce qui pousse les limites de l’infrastructure électrique existante. Les datacenters traditionnels pourraient néanmoins en bénéficier à terme pour améliorer leur efficacité.
Les mini-centrales nucléaires dédiées aux datacenters sont-elles réalistes ?
Plusieurs projets concrets sont en cours. Microsoft a signé un accord pour réactiver Three Mile Island, et Amazon comme Google investissent dans les SMR (Small Modular Reactors). Les premiers déploiements opérationnels sont attendus entre 2028 et 2030.
Le paradoxe de Jevons signifie-t-il que l’efficacité énergétique est inutile ?
Pas exactement. L’efficacité reste indispensable pour limiter la consommation unitaire, mais elle ne suffit pas si la demande globale explose simultanément. C’est un argument en faveur de politiques de régulation de la consommation énergétique de l’IA, en complément des gains techniques.
Sources
À lire aussi



