Vous l'avez probablement entendue une centaine de fois :
“Alors, combien de GPU pouvons-nous mettre dans un rack ?”
Si vous commencez par le “nombre de GPU”, vous finirez par vous disputer avec la physique. Le rack se moque de votre enthousiasme pour l'IA. Il se soucie de deux limites ennuyeuses :
- Enveloppe de puissance (kW par rack)
- Élimination de la chaleur (kW de chaleur que l'on peut réellement évacuer)
Mon point de vue est simple : la densité des racks est d'abord un problème d'installation et ensuite un problème de châssis. Mais le châssis reste important, car c'est lui qui détermine si votre flux d'air se comporte bien... ou s'il se transforme en chaos.
Voyons cela comme le ferait une équipe d'exploitation : disjoncteur → PDU → tirage du serveur → chaleur → flux d'air/liquide → stabilité.

Densité moyenne des baies inférieure à 8 kW
Voici la partie la plus gênante : de nombreuses salles de serveurs fonctionnent encore avec une “densité héritée”. Les enquêtes menées par l'industrie montrent que la densité moyenne des baies reste inférieure à 8 kWet >Les baies de plus de 30 kW ne sont pas courantes dans la plupart des sites.
C'est pour cette raison que les déploiements de l'IA se font dans le désordre. Vous introduisez des nœuds de GPU modernes et, soudain, votre salle doit rattraper son retard :
- distribution électrique sous-dimensionnée
- des voies d'écoulement d'air faibles
- pas de confinement
- des points chauds qui ne posaient pas de problème auparavant
Alors oui, vous peut acheter des GPU. La vraie question est la suivante : Peut-on les alimenter et les refroidir sans les étrangler ?
Budget d'alimentation des racks (kW par rack)
L'apport de watts équivaut à l'évacuation de la chaleur
En régime permanent, le rack est en fait un chauffage d'appoint avec des ventilateurs. Si votre armoire tire 40 kW, vous devez supprimer grossièrement 40 kW de chaleur. Pas “en quelque sorte”. C'est aussi direct que ça.
C'est pourquoi la planification de l'alimentation et du refroidissement doit être liée à la hanche :
- Commencez par le support Budget d'électricité pour les technologies de l'information (ce que vous pouvez livrer en toute sécurité)
- Confirmer capacité de refroidissement à cet endroit
- Ce n'est qu'ensuite que l'on passe au nombre de GPU
Déclassement, marge de manœuvre et redondance (N+1, 2N)
Si vous dimensionnez jusqu'à la limite, vous le regretterez. Les déploiements réels concernent :
- le déclassement du disjoncteur
- les pics de consommation (les tempêtes de bottes sont réelles)
- rampes de ventilateurs sous contrainte thermique
- conception de la redondance (alimentation N+1 ou 2N)
En d'autres termes : ne planifiez pas comme une feuille de calcul. Planifiez comme une rotation d'astreinte.
TDP du GPU jusqu'à 700 W et puissance de l'ensemble du serveur
De nombreuses cartes accélératrices modernes affichent jusqu'à ~700W TDP selon le modèle et la configuration. C'est génial. Mais voici le piège :
Watts GPU ≠ watts serveur.
Votre plateforme comprend également :
- CPU(s)
- mémoire
- NICs (200/400/800G)
- retimers / interrupteurs
- stockage
- ventilateurs et blocs d'alimentation
Ainsi, si quelqu'un dit “nous ferons 8 GPU, soit 8 × 700W”, il ne tient pas compte du reste de la boîte. C'est là que les projets dérapent.
Puissance d'un serveur 8-GPU d'environ 10 kW
Une bonne vérification de la réalité : les systèmes 8-GPU courants sur le terrain peuvent afficher environ ~10 kW max au niveau du serveur. C'est pourquoi de nombreuses équipes utilisent un multiplicateur de planification approximatif :
Puissance de l'ensemble du serveur ≈ 1,6-2,0× (TDP total du GPU)
Est-il parfait ? Non. Est-il utile pour les premières étapes de la conception ? Oui.
Budget de puissance du rack par rapport au nombre de GPU (tableau de planification)
Voici ce que cela donne en pratique. La colonne de gauche correspond aux calculs optimistes pour le GPU uniquement. La colonne de droite applique un facteur plus réaliste pour l'ensemble du serveur (en utilisant 1.8× comme guide de planification).
| Budget d'alimentation informatique du rack (kW) | Estimation pour le GPU seul (700W par GPU) | Estimation pour l'ensemble du serveur (≈1,8× GPU seul) |
|---|---|---|
| 10 | 14 | 7 |
| 15 | 21 | 11 |
| 20 | 28 | 15 |
| 30 | 42 | 23 |
| 40 | 57 | 31 |
| 50 | 71 | 39 |
| 60 | 85 | 47 |
| 80 | 114 | 62 |
Ce tableau n'essaie pas d'assouplir les mathématiques. Il tente de vous épargner un mode d'échec courant :
- vous commandez “capacité GPU”
- puis vous découvrez que vous avez en fait commandé “chaleur et ampères”

Limites de refroidissement de l'air proches de 20-30 kW par baie
Le refroidissement de l'air peut aller plus loin qu'on ne le pense, mais il devient vite fragile.
De nombreux opérateurs ont toujours traité les 20-30 kW par rack comme le point où le refroidissement par air cesse d'être “facile”. Vous pouvez aller plus loin grâce à une meilleure ingénierie des flux d'air, mais vous êtes maintenant dans un monde où les petites erreurs font mal.
Confinement des allées chaudes et contrôle de la recirculation
Une fois que vous avez atteint la densité, votre plus grand ennemi devient recirculation.
Les gaz d'échappement chauds se faufilent dans les entrées du GPU, et soudain votre “GPU 700W” se comporte comme un grille-pain qui ne peut pas respirer. Vous verrez :
- Chute de l'horloge du GPU (throttle city)
- vitesses de ventilateur hurlantes
- points chauds à l'intérieur du châssis
- températures inégales entre les serveurs d'une même armoire
Le confinement est utile. Il en va de même pour la propreté du câblage. Il en va de même pour le fait de ne pas bloquer l'avant du châssis avec des éléments “temporaires” qui deviennent permanents.
Quand utiliser le refroidissement liquide (RDHx, CDU, direct-to-chip) ?
À un certain moment, l'air devient un combat coûteux. C'est à ce moment-là que vous entendrez les responsables des installations utiliser des termes tels que :
- RDHx (échangeur de chaleur de la porte arrière)
- CDU (unité de distribution du liquide de refroidissement)
- directement sur la puce
- refroidissement hybride
Il n'est pas nécessaire de passer au tout liquide dès le premier jour. Mais vous devez planifier le chemin à suivre. Une mise à niveau ultérieure est toujours plus douloureuse qu'on ne le pense, et elle ne se produit jamais au cours d'un week-end calme.
Scénarios pratiques de densité de rack (15 kW, 30 kW, 40 kW, 80 kW)
Baies de 15 kW : modernisation des entreprises et charges de travail mixtes
Il s'agit de la situation “nous avons déjà une salle de serveurs”.
Ce qui fonctionne habituellement :
- répartir les GPU sur un plus grand nombre d'armoires
- choisir un châssis avec un flux d'air stable, et non une densité maximale à tout prix
- privilégier la facilité d'entretien, car vous toucherez souvent au matériel
C'est là que le choix d'un châssis solide est important. Si vous vous approvisionnez à grande échelle, un châssis de rack cohérent est essentiel. Cas du serveur La famille rend vos constructions reproductibles, et la reproductibilité est ce qui permet aux opérations de rester saines.
Baies de 30 à 40 kW : nouveaux pods d'IA et centres d'algorithmes
Maintenant, vous êtes dans la “densité réelle”.”
Votre liste de contrôle doit comprendre les éléments suivants
- le confinement dès le premier jour
- PDU dimensionnées avec marge de manœuvre et redondance
- routage des câbles qui ne bloque pas le flux d'air
- châssis conçu pour les GPU thermiques (paroi du ventilateur + baffles)
Si votre équipe utilise des expressions telles que boîtier pc pour rack de serveur ou boîtier d'ordinateur serveur, En fait, ce dont vous avez besoin, c'est d'un châssis de GPU spécialement conçu, et non pas d'une boîte de bricolage dans un costume de rack.
Un service dédié Boîtier de serveur GPU peut vous offrir la pression du flux d'air, l'espacement et l'accès aux services qu'exigent les accélérateurs denses.
Baies de 80 kW : clusters prêts à recevoir des liquides et à haute densité
C'est ici que l'on cesse de “déployer des serveurs” et que l'on commence à “gérer l'infrastructure”.”
Vous vous intéresserez à :
- MTTR rapide (importance des minutes)
- nettoyage entretien dégagement
- des systèmes ferroviaires fiables
- disposition prévisible des tubes/câbles
Les Rails semblent ennuyeux, mais ils affectent le temps de fonctionnement. Un bon Rail de guidage du châssis permet d'éviter les installations bâclées et rend les échanges plus sûrs (et plus rapides).

Circulation d'air dans le châssis du serveur GPU : paroi du ventilateur, déflecteurs et facilité d'entretien
Voici la partie que les acheteurs omettent et pour laquelle les opérateurs les détestent :
le châssis est une machine à flux d'air.
Pour les nœuds GPU denses, recherchez :
- options de parois de ventilateurs robustes (pression statique élevée)
- des déflecteurs/conduits qui forcent l'air à traverser les zones chaudes
- des agencements qui isolent la chaleur du PSU de l'admission du GPU
- accès facile par le haut pour des échanges rapides
Si vous construisez autour d'éléments de type station de travail, vous verrez des recherches telles que boîtier de pc serveur et boîtier du serveur atx. C'est généralement un signal : “Je veux de la flexibilité, mais je ne peux pas accepter des thermiques de qualité station de travail”. C'est tout à fait normal. Assurez-vous simplement que le châssis a été conçu pour des flux d'air de type serveur, et pas seulement pour des trous de vis ATX.
Les formats compacts sont également souhaitables pour les salles de réunion ou les laboratoires : Boîtier ITX et Boîtier mural peut s'avérer pratique lorsque vous ne disposez pas d'une conception de flux d'air sur toute la rangée, ou lorsque vous utilisez des “pods” plus petits à proximité des charges de travail.
Boîtier de serveur GPU OEM/ODM pour un déploiement en masse
Si vous déployez des dizaines (ou des centaines) de nœuds, votre problème n'est pas “un seul serveur”. C'est la répétabilité :
- des températures stables d'un lot à l'autre
- une disponibilité constante des pièces
- une spécification de châssis qui ne dérive pas en cours de projet
- personnalisation pour votre GPU, votre NIC et votre configuration de stockage exacts
C'est là qu'IStoneCase trouve naturellement sa place. L'entreprise se concentre sur les boîtiers pour GPU/serveurs et les châssis de stockage avec un support OEM/ODM, conçus pour les commandes en gros et les séries personnalisées. Si votre projet implique une mise à l'échelle, il vaut la peine de s'adresser à un fournisseur qui fait cela tous les jours et ne se contente pas de revendre des boîtiers au hasard.
Quelques pages IStoneCase que vous pouvez utiliser comme références internes dans votre contenu :



