17.04.2023 Views

CONNECTIONS_64-f

Magazine spécialisé R&M CONNECTIONS no. 64

Magazine spécialisé R&M CONNECTIONS no. 64

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

commandés par capteur afin d’optimiser les<br />

flux d’air froid et chaud.<br />

Certains data centers hyperscale renoncent<br />

d’ores et déjà aux planchers techniques. Les<br />

baies étant installées à même le sol, l’espace<br />

est exploité au maximum. L’air froid est<br />

généré par des refroidisseurs sur les côtés<br />

et dans les allées. Il est important d’assurer<br />

une pression et une circulation constantes<br />

de l’air. Le flux d’air dans l’ensemble du couloir<br />

doit être suffisant pour empêcher toute<br />

030.7939<br />

surchauffe à l’extrémité d’une rangée. Bien<br />

géré, le confinement des allées froides réduit<br />

la facture d’énergie d’environ 10 %, aux dires<br />

de fournisseurs multicloud.<br />

sinants. L’opérateur suisse Green Datacenter<br />

AG fait œuvre de pionnier : l’air chaud provenant<br />

de ses installations est injecté dans un<br />

téléréseau de chauffage urbain desservant<br />

des milliers de foyers.<br />

030.8060<br />

L’indicateur PUE<br />

Le PUE (Power Usage Effectiveness)<br />

est le principal indicateur de l’efficience<br />

énergétique d’un data center. Cette<br />

valeur correspond au rapport entre<br />

l’énergie totale fournie et l’énergie<br />

consommée par les équipements<br />

informatiques du centre de données.<br />

Plus le PUE est bas, plus l’installation<br />

est efficiente et respectueuse du<br />

climat. Un PUE de 1 signifie que la<br />

totalité de la puissance est utilisée par<br />

les ordinateurs. Un data center avec un<br />

PUE de 1,2 ou 1,3 est réputé « vert ».<br />

Dans ce cas, 20 ou 30 % de l’électricité<br />

sont consacrés non pas à la capacité de<br />

calcul, mais à d’autres processus tels<br />

que le refroidissement ou la climatisation.<br />

Un data center traditionnel<br />

affiche un PUE de 1,9, autrement dit,<br />

près de la moitié de l’énergie fournie<br />

est consommée par des processus<br />

autres que la puissance de calcul.<br />

Les confinements de construction modulaire,<br />

tels que BladeShelter de R&M Tecnosteel,<br />

s’intègrent aussi dans des infrastructures<br />

déjà en place. Il peut donc s’avérer payant<br />

d’exploiter le potentiel d’optimisation de<br />

locaux informatiques existants.<br />

Modules de refroidissement économes<br />

L’utilisation de refroidisseurs compacts<br />

novateurs est une mesure efficace. Installés<br />

aux extrémités des rangées de baies, dans les<br />

allées ou à l’arrière des armoires, à proximité<br />

des sources de chaleur, ces modules sont peu<br />

encombrants et peu gourmands en énergie.<br />

Graphical Research* estime que les modules<br />

refroidisseurs pour baies et rangées autorisent<br />

des économies jusqu’à 30 %. Le gain<br />

de temps lié à leur déploiement atteint jusqu’à<br />

60 % par rapport aux solutions à circulation<br />

d’air. Outre l’eau, l’ammoniac, le propane et le<br />

dioxyde de carbone peuvent servir de fluide<br />

frigorigène. La gamme BladeCooling de R&M<br />

Tecnosteel comprend des modules refroidis<br />

à l’eau ou au gaz avec des circuits ouverts<br />

et fermés.<br />

Moins froid<br />

Dans quelle mesure faut-il climatiser un data<br />

center ? Cette question est controversée.<br />

En règle générale, la température d’un local<br />

serveurs se situe entre 22 et 25° C. Toutefois,<br />

dans certains data centers, la température<br />

d’exploitation est supérieure à 25° C, sans<br />

que cela provoque une surchauffe ou l’arrêt<br />

des systèmes informatiques.<br />

Les solutions de refroidissement à liquide<br />

fonctionnent avec de l’eau entre 50 et 70<br />

degrés. Dans certains cas, la chaleur peut être<br />

récupérée pour chauffer des bâtiments avoi-<br />

Alors qu’actuellement la climatisation représente<br />

entre 35 et 50 % du budget électricité,<br />

Gartner estime que cette part pourrait être<br />

réduite à 15 %, grâce à un gain constant en<br />

efficience et à d’autres mesures sur les plans<br />

thermique, fluidique et de la construction.<br />

Toutes les mesures ménageant le climat<br />

ne conviennent pas à toutes les situations.<br />

Chaque data center devra identifier celles<br />

qui répondent le mieux à ses besoins. La<br />

circulation, la température, la pression et<br />

le taux d’humidité de l’air dans les salles<br />

blanches devraient toujours être surveillés,<br />

tout comme le régime et l’usure des ventilateurs.<br />

Ces données, traitées par un système<br />

DCIM global tel que R&M inteliPhy net, sont<br />

indispensables pour évaluer et améliorer<br />

l’efficience.<br />

*Sources : Graphical Research, Gartner<br />

www.rdm.com/fr/<br />

bladeshelter/<br />

Robert Merki | CTO<br />

robert.merki@rdm.com<br />

www.rdm.com/fr/<br />

inteliphy-net/<br />

050.7148<br />

04|2023–<strong>64</strong> <strong>CONNECTIONS</strong> | 11

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!