22.01.2015 Views

Efficacité énergétique des technologies et ... - PrimeEnergyIT

Efficacité énergétique des technologies et ... - PrimeEnergyIT

Efficacité énergétique des technologies et ... - PrimeEnergyIT

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Efficacité énergétique<br />

<strong>des</strong> <strong>technologies</strong> <strong>et</strong><br />

infrastructures dans<br />

les datacentres <strong>et</strong><br />

salles serveurs


Mentions légales<br />

Direction éditoriale : consortium proj<strong>et</strong> <strong>PrimeEnergyIT</strong>, juill<strong>et</strong> 2011<br />

Coordination proj<strong>et</strong> : Dr. Bernd Schäppi, Agence autrichienne de l’Énergie (Vienne)<br />

Version française du document : BIO Intelligence Service (Traducteur - François-Xavier Durandy)<br />

Reproduction partielle autorisée, sous réserve de mention exhaustive de la source.<br />

Document imprimé sur papier blanchi sans chlore.<br />

Le contenu de c<strong>et</strong>te publication relève de la seule responsabilité de ses auteurs <strong>et</strong> ne prétend pas<br />

refléter la position de l’Union européenne.<br />

L’AECI <strong>et</strong> la Commission européenne ne sauraient être tenues pour responsables de l’utilisation<br />

pouvant être faite <strong>des</strong> informations contenues dans le présent document.


Des <strong>technologies</strong> efficaces pour réduire la consommation<br />

énergétique <strong>et</strong> les coûts <strong>des</strong> datacentres <strong>et</strong> salles serveurs<br />

La consommation énergétique <strong>des</strong> datacentres <strong>et</strong> salles serveurs a fortement progressé au cours <strong>des</strong> dix<br />

dernières années. La montée en puissance <strong>des</strong> matériels <strong>et</strong> la complexité accrue <strong>des</strong> services informatiques<br />

ont entraîné une hausse de la demande en énergie. Les coûts liés aux infrastructures <strong>et</strong> à l’énergie dans les<br />

datacentres sont ainsi devenus un facteur essentiel de la gestion de site <strong>et</strong> de l’infogérance. Un ensemble<br />

de <strong>technologies</strong> ont donc été développées pour améliorer l’efficacité énergétique <strong>et</strong> de nouvelles options<br />

de matériels <strong>et</strong> de gestion <strong>des</strong> systèmes d’information soutiennent les stratégies d’économies d’énergie.<br />

Le potentiel d’économie <strong>des</strong> datacentres <strong>et</strong> salles serveurs est généralement élevé, souvent supérieur à<br />

50 %, en fonction <strong>des</strong> <strong>technologies</strong> <strong>et</strong> <strong>des</strong> infrastructures. Les mesures d’économies d’énergie ont jusqu’à<br />

présent surtout porté sur les solutions d’alimentation <strong>et</strong> de refroidissement, mais l’efficacité énergétique<br />

<strong>des</strong> matériels fait désormais partie <strong>des</strong> pistes à l’étude. Des travaux récents montrent que les mesures<br />

d’optimisation entraînent d’ores <strong>et</strong> déjà une réduction significative de la demande en énergie par rapport<br />

à un scénario de statu quo [Koomey 2011]. Le potentiel demeure pourtant élevé <strong>et</strong> les <strong>technologies</strong> nouvelles<br />

perm<strong>et</strong>tent un déploiement encore plus efficace <strong>des</strong> mesures d’économies d’énergie.<br />

C<strong>et</strong>te brochure présente un aperçu succinct <strong>des</strong> <strong>technologies</strong> actuelles (matériel informatique <strong>et</strong> infrastructure)<br />

en faveur de l’efficacité énergétique. Elle couvre l’ensemble <strong>des</strong> équipements informatiques essentiels<br />

<strong>des</strong> datacentres : serveurs, stockage <strong>et</strong> réseaux. Les stratégies pour une plus grande efficacité<br />

énergétique englobent la conception <strong>des</strong> systèmes, la gestion de l’énergie à différents niveaux (du matériel<br />

informatique au datacentre dans son ensemble) ainsi que les mesures de consolidation <strong>et</strong> de virtualisation.<br />

Des recommandations de bonnes pratiques m<strong>et</strong>tent en avant les choix les plus intéressants à envisager<br />

dans la gestion <strong>et</strong> les achats <strong>des</strong> matériels. Des suggestions de lecture sont également indiquées. La brochure<br />

constitue ainsi une source d’informations de base pour aider les gestionnaires en <strong>technologies</strong> <strong>et</strong><br />

infrastructures à optimiser l’efficacité énergétique <strong>et</strong> la rentabilité <strong>des</strong> datacentres.<br />

C<strong>et</strong>te brochure s’inscrit dans le proj<strong>et</strong> international<br />

<strong>PrimeEnergyIT</strong> (www.efficient-datacenters.eu), mené dans le<br />

cadre du programme de l’UE « Intelligent Energy Europe ».<br />

1) Koomey, J. (2011): Growth in Data center electricity use 2005 to 2010, Jonathan Koomey, Analytics Press, Oakland,<br />

CA, August 1, 2011<br />

3


Table <strong>des</strong> matières<br />

1 Suivi de la consommation d’énergie dans les datacentres <strong>et</strong> salles serveurs 6<br />

1.1 Concepts de monitoring 6<br />

1.2 Appareils de mesure 9<br />

2 Équipements de serveur 10<br />

2.1 Efficacité énergétique <strong>et</strong> gestion de l’énergie au niveau du serveur <strong>et</strong> de ses composants 10<br />

2.1.1 Efficacité du processeur 12<br />

2.1.2 Efficacité de l’alimentation électrique 13<br />

2.2 Gestion de l’énergie au niveau du rack <strong>et</strong> du datacentre 14<br />

2.2.1 Gestion de la capacité <strong>et</strong> de l’énergie 14<br />

2.2.2 Power capping 16<br />

2.3 Options de gestion de l’énergie spécifiques pour serveurs lames 16<br />

2.3.1 Châssis <strong>et</strong> composants <strong>des</strong> serveurs lames 17<br />

2.3.2 Problèmes d’alimentation <strong>et</strong> de refroidissement 19<br />

2.4 Virtualisation <strong>des</strong> serveurs 21<br />

2.4.1 Potentiel d’économie d’énergie de la virtualisation 22<br />

2.4.2 Exigences <strong>et</strong> outils de planification de la virtualisation 23<br />

2.4.3 Gestion de l’énergie dans les environnements virtualisés : migration vers serveur virtuel 24<br />

2.4.4 Refroidissement <strong>et</strong> infrastructures <strong>des</strong> systèmes virtualisés 25<br />

3 Équipements de stockage de données 28<br />

3.1 Appareils de stockage 28<br />

3.1.1 Systèmes à ban<strong>des</strong> 28<br />

3.1.2 Disques durs (DD) 29<br />

3.1.3 Disques SSD 31<br />

3.1.4 Disques durs hybri<strong>des</strong> (HHD) 31<br />

3.2 Éléments de stockage 32<br />

3.2.1 Disques de grande capacité <strong>et</strong> miniaturisation 32<br />

3.2.2 Baies de disques de type MAID 32<br />

3.2.3 Niveaux RAID efficaces 32<br />

3.2.4 Tiering horizontal, virtualisation du stockage <strong>et</strong> allocation granulaire de capacité 33<br />

3.2.5 Consolidation au niveau du stockage <strong>et</strong> de la matrice 34<br />

3.2.6 Déduplication de données 34<br />

4


4 Équipements de réseau 36<br />

4.1 Cadre technique <strong>et</strong> opérationnel 36<br />

4.1.1 Schéma fonctionnel 36<br />

4.1.2 Attributs du réseau 37<br />

4.1.3 Équilibrer la performance <strong>et</strong> la consommation énergétique 37<br />

4.2 Amélioration de l’efficacité énergétique 38<br />

4.2.1 Fusionner les classes de trafic (consolidation E/S) 38<br />

4.2.2 Consolidation du réseau 40<br />

4.2.3 Virtualisation du réseau 41<br />

4.2.4 Sélection <strong>des</strong> composants <strong>et</strong> équipements 42<br />

4.2.5 Commutation floor-level 42<br />

5 Refroidissement <strong>et</strong> alimentation <strong>des</strong> datacentres <strong>et</strong> salles serveurs 44<br />

5.1 Refroidissement <strong>des</strong> salles serveurs 44<br />

5.1.1 Climatiseurs « split » <strong>et</strong> mobiles 44<br />

5.1.2 Mesures d’optimisation de l’efficacité énergétique 45<br />

5.2 Refroidissement <strong>des</strong> datacentres moyens à grands 46<br />

5.2.1 Généralités 46<br />

5.2.2 Contrôle de la température <strong>et</strong> de l’humidité 47<br />

5.2.3 Efficacité <strong>des</strong> composants (compresseurs, ventilateurs, centrales de traitement d’air) 48<br />

5.2.4 Free cooling 48<br />

5.2.5 Refroidissement au niveau du rack/de la rangée 49<br />

5.3 Alimentation <strong>et</strong> onduleurs dans les datacentres 49<br />

5


1 Suivi de la consommation d’énergie dans<br />

les datacentres <strong>et</strong> salles serveurs<br />

Carlos Patrao, Université de Coimbra<br />

1.1 Concepts de suivi<br />

On peut distinguer trois grands types de suivi :<br />

Le suivi de la consommation d’énergie dans les<br />

datacentres <strong>et</strong> salles serveurs est un élément<br />

essentiel pour évaluer le potentiel d’économie<br />

d’énergie <strong>et</strong> l’efficacité <strong>des</strong> mesures d’efficacité<br />

énergétique. Ce monitoring doit être conçu de façon<br />

à garantir la collecte de données pertinentes.<br />

On tiendra compte <strong>des</strong> aspects suivants [1] :<br />

• Niveau requis de précision <strong>et</strong> de résolution <strong>des</strong><br />

données ;<br />

• Répartition de la collecte de données, capacité<br />

à recueillir <strong>des</strong> données à partir de tous les appareils<br />

souhaités ;<br />

• Facilité d’utilisation <strong>et</strong> d’intégration <strong>des</strong> données<br />

entre appareils <strong>et</strong> échelles de temps ;<br />

• Evolutivité pour un déploiement de masse <strong>et</strong><br />

capacité multi-sites ;<br />

• Adaptabilité aux nouveaux besoins de mesure ;<br />

• Options d’analyse <strong>des</strong> données <strong>et</strong> intégration<br />

avec les systèmes de contrôle ;<br />

• Capacité à détecter les problèmes <strong>et</strong> notifier les<br />

opérateurs <strong>des</strong> datacentres ;<br />

• Montant de l’investissement <strong>et</strong> r<strong>et</strong>our.<br />

Charge du site<br />

Suivi minimum – Reposant sur <strong>des</strong> mesures<br />

réalisées ponctuellement <strong>et</strong> périodiquement avec<br />

un équipement portable, ce suivi se prête surtout<br />

aux sites de très p<strong>et</strong>ite taille. Certaines données<br />

(consommation, <strong>et</strong>c.) pourront être tirées de la<br />

documentation du fabricant. C<strong>et</strong>te approche ne<br />

nécessite pas d’investissement dans <strong>des</strong> équipements<br />

<strong>et</strong> infrastructures de mesure installés de<br />

façon permanente.<br />

Suivi avancé – Les données sont communiquées<br />

en temps réel grâce à <strong>des</strong> équipements installés<br />

de façon permanente, avec le soutien éventuel<br />

d’instruments en ligne. De légères modifications<br />

devront sans doute être apportées aux infrastructures.<br />

Suivi de pointe – Les données sont collectées<br />

en temps réel grâce à <strong>des</strong> systèmes d’enregistrement<br />

automatisé ou permanent, avec le soutien<br />

de logiciels en ligne dotés de fortes capacités<br />

d’analyse. Ce suivi impose une modification <strong>des</strong><br />

infrastructures <strong>et</strong> le soutien d’un personnel technique<br />

expert.<br />

Le système de suivi doit disposer d’un nombre<br />

adéquat de « nœuds d’information » (ou « points<br />

d’auscultation ») pour fournir les informations nécessaires<br />

à une analyse exhaustive de la consommation<br />

d’énergie. Sur les sites de grande taille, la<br />

sélection de ces « nœuds » doit commencer par<br />

les sous-systèmes les plus représentatifs en termes<br />

de consommation (cf. Figure 1.1), qui pourront<br />

faire figure de « points d’auscultation ».<br />

Charge informatique<br />

Alimentation électrique<br />

Équipements informatiques<br />

Appareillage électrique<br />

Services<br />

Consommation totale<br />

du site<br />

Générateurs<br />

Onduleurs<br />

Consommation <strong>des</strong><br />

équipements informatiques<br />

Stockage<br />

Équipements télécoms<br />

<strong>et</strong>c.<br />

<strong>et</strong>c.<br />

Climatiseurs<br />

Compresseurs<br />

Free cooling<br />

<strong>et</strong>c.<br />

Fig. 1.1 Schéma simplifié <strong>des</strong> principaux sous-systèmes d’un datacentre [Source: ASHRAE [2]].<br />

6


Plusieurs outils logiciels perm<strong>et</strong>tent d’assurer la<br />

collecte <strong>des</strong> données, leur traitement <strong>et</strong> leur évaluation.<br />

Le programme « Save EnergyNow » du<br />

ministère américain de l’Énergie a ainsi mis au<br />

point une suite logicielle baptisée « DC Pro »,<br />

comprenant un processus d’évaluation, <strong>des</strong> outils<br />

de benchmarking <strong>et</strong> de suivi de la performance<br />

ainsi que <strong>des</strong> recommandations pour les mesures.<br />

C<strong>et</strong>te suite est disponible en téléchargement gratuit.<br />

http://www1.eere.energy.gov/industry/datacenters/<br />

software.html<br />

AUTRES EXEMPLES D’OUTILS LOGICIELS UTILES :<br />

• Consommation d’énergie :<br />

http://estimator.thegreengrid.org/puee<br />

• Reporting du PUE :<br />

http://www.thegreengrid.org/en/Global/Content/Tools/PUEReporting<br />

• Mesure de l’évolutivité du PUE <strong>et</strong> analyse<br />

statistique :<br />

http://www.thegreengrid.org/library-and-tools.aspx<br />

category=M<strong>et</strong>ricsAndMeasurements&range=<br />

Entire%20Archive&type=Tool&lang=en&paging=All#<br />

TB_inline&inlineId=sign_in<br />

• Mesure du PUE <strong>et</strong> du DCiE (Data Center infrastructure<br />

Efficiency) :<br />

http://www.42u.com/measurement/pue-dcie.htm<br />

RECOMMANDATIONS DE BONNES PRATIQUES<br />

L’efficacité du système de suivi de la consommation d’énergie suppose que sa conception<br />

s’appuie sur une bonne compréhension <strong>des</strong> objectifs principaux, notamment :<br />

• Évaluer la consommation d’énergie totale <strong>des</strong> équipements informatiques <strong>et</strong> <strong>des</strong><br />

infrastructures ;<br />

• Analyser l’évolution de la consommation dans le temps ;<br />

• Comprendre la demande d’énergie instantanée <strong>des</strong> principaux équipements du site ;<br />

• Contrôler la facturation ;<br />

• Calculer les indices <strong>et</strong> indicateurs d’efficacité énergétique.<br />

Les logiciels/matériels mis en œuvre pour le suivi de la consommation énergétique devront<br />

offrir les fonctionnalités suivantes (source : ASHRAE) :<br />

• Fiabilité de la collecte de données <strong>et</strong> du stockage en fonction du taux <strong>et</strong> du niveau de<br />

précision souhaités ;<br />

• Normalisation <strong>des</strong> données issues de différents appareils, interfaces <strong>et</strong> protocoles ;<br />

• Sauvegarde <strong>des</strong> données sur de longues pério<strong>des</strong> de relevé ;<br />

• Analyse <strong>et</strong> affichage <strong>des</strong> données sous forme de tableaux <strong>et</strong> graphiques ;<br />

• Architecture extensible pour accompagner l’expansion du datacentre.<br />

Les principaux aspects à prendre au compte au moment du choix <strong>des</strong> appareils pour le<br />

système de suivi sont notamment la plage de mesure de l’instrumentation, sa résolution<br />

<strong>et</strong> sa précision.<br />

7


Tab. 1.1 Exemples d’appareils de mesure de la consommation énergétique<br />

Désignation<br />

Illustration Description Type de suivi<br />

Appareils de mesure<br />

portables<br />

Les appareils portables couvrent un vaste éventail de produits, <strong>des</strong><br />

multimètres monophasés jusqu’aux appareils d’analyse triphasés<br />

les plus avancés, avec fonctions d’enregistrement <strong>et</strong> de déclenchement<br />

programmé. Ils comportent généralement un écran intégré qui<br />

perm<strong>et</strong> à l’utilisateur de consulter les données mesurées ou enregistrées.<br />

Minimum <strong>et</strong> avancé<br />

Source: Chauvin Arnoux<br />

Appareils de tableau<br />

Source: Chauvin Arnoux<br />

Les appareils de tableau sont généralement installés de façon<br />

permanente au niveau de l’armoire électrique mesurant les onduleurs,<br />

générateurs <strong>et</strong> autres appareils. Ils possèdent un écran qui<br />

affiche les mesures en temps réel <strong>et</strong> les variables cumulées comme<br />

la consommation totale d’énergie. Ils peuvent être installés pour<br />

mesurer la consommation globale ou individuelle <strong>des</strong> différents<br />

appareils.<br />

Suivi de pointe <strong>et</strong><br />

bonnes pratiques<br />

Compteurs<br />

Source: Itron<br />

Les compteurs sont principalement utilisés par les compagnies<br />

d’électricité <strong>et</strong> les propriétaires adressant <strong>des</strong> factures à leurs clients,<br />

locataires, <strong>et</strong>c. Rarement affectés au suivi <strong>des</strong> datacentres, ils fournissent<br />

toutefois <strong>des</strong> données sur la consommation totale du site. Le<br />

fournisseur pourra parfois fournir l’accès au port de communication<br />

numérique, perm<strong>et</strong>tant un relevé <strong>et</strong> une sauvegarde dans une base<br />

de données pour une analyse future (par ex. toutes les 15 minutes).<br />

Compatibles avec<br />

l’ensemble <strong>des</strong><br />

approches<br />

Unités de<br />

distribution<br />

d’alimentation<br />

intelligentes<br />

Source: Raritan<br />

Les unités de distribution d’alimentation (PDU) intelligentes ou PDU<br />

pour rack avec compteur assurent une fonction de mesure active<br />

pour optimiser l’alimentation <strong>et</strong> protéger les circuits. Ils fournissent<br />

<strong>des</strong> données d’utilisation de l’énergie perm<strong>et</strong>tant aux gestionnaires<br />

de faire <strong>des</strong> choix informés sur la répartition de la charge <strong>et</strong> la micromisation<br />

<strong>des</strong> environnements informatiques pour réduire le coût<br />

total de possession. Les PDU peuvent être équipées d’un suivi distant<br />

en temps réel de l’énergie au niveau de l’unité ou <strong>des</strong> différentes<br />

sorties : courant, tension, puissance, facteur de puissance <strong>et</strong><br />

consommation (kWh) avec une marge d’erreur de ±1 % (ISO/IEC)<br />

compatible avec la facturation. L’accès <strong>et</strong> la configuration se font via<br />

une interface sécurisée de type web, SNMP ou Teln<strong>et</strong>.<br />

Compatibles avec<br />

l’ensemble <strong>des</strong><br />

approches<br />

Fonctions de mesure<br />

intégrées au serveur<br />

Fonction de mesure de l’alimentation électrique intégrée au serveur<br />

Minimum <strong>et</strong> avancé<br />

Transducteurs<br />

Les transducteurs sont généralement <strong>des</strong> équipements dépourvus<br />

d’écran <strong>et</strong> connectés de façon permanente à l’armoire électrique, à<br />

l’instar <strong>des</strong> appareils de tableau. Ce type d’appareils sert souvent<br />

aux systèmes de suivi à obtenir <strong>des</strong> mesures issues de divers points<br />

du datacentre.<br />

Compatible avec<br />

l’ensemble <strong>des</strong><br />

approches<br />

Source: Chauvin Arnoux<br />

8


1 Suivi de la consommation d’énergie dans les salles serveurs <strong>et</strong> datacentres<br />

1.2 Appareils de mesure<br />

Un grand nombre d’appareils de mesure de tous<br />

types perm<strong>et</strong>tent de mesurer les variables clés<br />

telles que la consommation d’énergie, la température,<br />

le débit <strong>et</strong> l’humidité.<br />

Quelques exemples d’appareils de mesure de<br />

l’énergie sont présentés dans le Tableau 1.1 (cicontre,<br />

page 8). Pour tout complément d’information,<br />

veuillez vous référer aux sources indiquées<br />

ci-après ou consulter le « Technology Assessment<br />

Report » sur le site web de <strong>PrimeEnergyIT</strong>.<br />

Pour aller plus loin<br />

ASHRAE (2010) : Real-Time Energy Consumption<br />

Measurements in Data Centres, ASHRAE –<br />

American Soci<strong>et</strong>y of Heating, Refrigerating and<br />

Air- Conditioning Engineers, 2010.<br />

ISBN: 978-1-933742-73-1<br />

Stanley, J. and Koomey, J. (2009) : The Science<br />

of Measurement: Improving Data Centre<br />

Performance with Continuous Monitoring and<br />

Measurement of Site Infrastructure, Stanley John<br />

and Koomey Jonathan, October 2009<br />

www.analyticspress.com/scienceofmeasurement.html<br />

Ton, M. <strong>et</strong> al. (2008) : DC Power for Improved<br />

Data Centre Efficiency,Ton, My, Fortenbery, Brian<br />

and Tschudi, William, Ecos Consulting, EPRI, Lawrence<br />

Berkeley National Laboratory, March 2008<br />

http://hightech.lbl.gov/documents/data_centres/<br />

dcdemofinalreport.pdf<br />

The Green Grid (2008) : Green Grid Data Centre<br />

Power Efficiency M<strong>et</strong>rics. White Paper 6, The<br />

Green Grid, White Paper 6. December 30, 2008<br />

http://www.thegreengrid.org/Global/Content/white-<br />

papers/The-Green-Grid-Data-Centre-Power-Efficiency-<br />

M<strong>et</strong>rics-PUE-and-DCiE<br />

Rasmussen N. (2009) : D<strong>et</strong>ermining Total Cost<br />

of Ownership for Data Centre and N<strong>et</strong>work Room<br />

Infrastructure, Neil Rasmussen, APC by Schneider<br />

Electric, White paper #6 – Revision 4<br />

http://www.apcmedia.com/salestools/CMRP-5T9PQG_<br />

R4_EN.pdf<br />

Rasmussen N. (2010) : Avoiding Costs From<br />

Oversizing Data Centre and N<strong>et</strong>work Room Infrastructure,<br />

Neil Rasmussen, APC by Schneider Electric,<br />

2010. White paper #37 – Revision 6<br />

http://www.apcmedia.com/salestools/SADE-5TNNEP_<br />

R6_EN.pdf<br />

Schneider Electric (2011) : E-learning website<br />

(Energy University) that provi<strong>des</strong> the latest information<br />

and training on Energy Efficiency concepts<br />

and best practice<br />

www.myenergyuniversity.com<br />

Webinar : “The Data Centre in Real Time: Monitoring<br />

Tools Overview & Demon“<br />

http://www.42u.com/webinars/Real-Time-<br />

Measurement-Webinar/playback.htm<br />

Sources<br />

[1] Stanley, J. and Koomey, J. (2009) : The<br />

Science of Measurement: Improving Data Centre<br />

Performance with Continuous Monitoring and<br />

Measurement of Site Infrastructure. October 2009.<br />

[2] ASHRAE (2010) : Real-Time Energy<br />

Con sump tion Measurements in Data Centres:<br />

ASHRAE- American Soci<strong>et</strong>y of Heating, Refrigerating<br />

and Air-Conditioning Engineers, 2010.<br />

ISBN: 978-1-933742-73-1.<br />

9


2 Équipements de serveurs<br />

,<br />

Bernd Schäppi, Thomas Bogner, Hellmut Teschner, Agence autrichienne de l’Énergie<br />

Les équipements de serveurs représentent environ 30-40 % de la<br />

consommation d’énergie totale <strong>des</strong> datacentres <strong>et</strong> salles serveurs. Ils<br />

constituent donc l’une <strong>des</strong> cibles prioritaires pour la mise en œuvre de<br />

mesures d’économies d’énergie. Les équipements les plus courants<br />

englobent les serveurs de type rack, lame, mais aussi pié<strong>des</strong>tal <strong>et</strong><br />

multinœuds.<br />

Le potentiel d’économie d’énergie est élevé : il peut atteindre 20 à 60 %,<br />

voire plus, en fonction du type de système <strong>et</strong> <strong>des</strong> mesures déployées. Les<br />

approches fondamentales pour optimiser l’efficacité énergétique reposent<br />

sur la sélection de matériels efficaces, la conception <strong>des</strong> systèmes, la gestion<br />

de l’énergie à tous les niveaux (du composant hardware jusqu’au système<br />

dans sa globalité) ainsi, bien sûr, que la consolidation <strong>et</strong> la virtualisation.<br />

Ce chapitre est consacré aux <strong>technologies</strong> <strong>et</strong> options d’économies d’énergie, du niveau<br />

du composant jusqu’à celui du système. Les problèmes d’efficacité énergétique <strong>et</strong> les<br />

améliorations possibles sont traités du niveau du serveur jusqu’à celui du rack <strong>et</strong> du<br />

datacentre. La technologie <strong>des</strong> serveurs lames <strong>et</strong> la virtualisation en tant que stratégie<br />

d’efficacité font l’obj<strong>et</strong> de deux sous-parties spécifiques. Les recommandations de<br />

bonnes pratiques sont récapitulées sous forme d’encadrés.<br />

Tab. 2.1 Critères Energy Star en mode inactif<br />

Catégorie<br />

Nombre de processeurs<br />

installés<br />

Serveur géré<br />

Consommation<br />

plafond en mode<br />

inactif (W)<br />

A 1 Non 55<br />

B 1 Oui 65<br />

C 2 Non 100<br />

D 2 Oui 150<br />

Tab. 2.2 Concept de l’outil d’évaluation SERT<br />

Résultat benchmark<br />

système<br />

Serveur<br />

Processeur Résultat benchmark<br />

Mémoire Résultat benchmark<br />

2.1 Efficacité énergétique <strong>et</strong><br />

gestion de l’énergie au niveau<br />

du serveur <strong>et</strong> <strong>des</strong> composants<br />

L’efficacité énergétique <strong>des</strong> serveurs s’est fortement<br />

améliorée ces dernières années, essentiellement<br />

du fait du développement d’une gestion<br />

d’énergie efficace pour les composants matériels.<br />

À ce jour, l’efficacité <strong>des</strong> serveurs est évaluée <strong>et</strong><br />

déclarée sur la base <strong>des</strong> critères Energy Star <strong>et</strong> du<br />

benchmark SPECpower (SPEC : Standard Performance<br />

Evaluation Corporation).<br />

Le cahier <strong>des</strong> charges actuel du label Energy Star<br />

pour les serveurs d’entreprise [1] définit <strong>des</strong> critères<br />

d’efficacité énergétique pour les serveurs de<br />

type rack <strong>et</strong> pié<strong>des</strong>tal contenant jusqu’à 4 sock<strong>et</strong>s.<br />

Il définit <strong>des</strong> seuils plafonds de consommation<br />

électrique en mode inactif pour les serveurs à<br />

1 ou 2 sock<strong>et</strong>(s) ainsi que <strong>des</strong> critères d’efficacité<br />

de l’alimentation <strong>et</strong> <strong>des</strong> fonctions de gestion de<br />

l’énergie (voir Tableaux 2.1 <strong>et</strong> 2.4). Les critères du<br />

mode inactif sont surtout utiles comme indicateurs<br />

pour <strong>des</strong> conditions de charge moyenne basse <strong>et</strong><br />

de quasi-inactivité. Ces basses charges (


SPECpower_ssj2008 [2] a été le premier benchmark<br />

standard perm<strong>et</strong>tant l’évaluation de l’effi-<br />

fig 2.1<br />

cacité énergétique de serveurs de type volume. Il<br />

porte essentiellement sur l’efficacité liée au processeur<br />

<strong>et</strong> fournit donc une bonne indication pour<br />

les charges importantes au niveau du processeur.<br />

Mais ce benchmark n’est publié par les fabricants<br />

que pour certains matériels. La Figure 2.1 montre<br />

un exemple de résultats SPECpower pour un serveur<br />

de type volume. Ce graphique type nous renseigne<br />

sur la performance moyenne par watt <strong>et</strong> ce,<br />

pour dix niveaux de charge gradués. Il perm<strong>et</strong> de<br />

comparer les serveurs du mode inactif jusqu’à une<br />

charge 100 %. Dans la perspective d’un achat, il<br />

conviendrait d’exiger du fournisseur l’information<br />

complète SPECpower. Il faut en outre tenir compte<br />

du fait que les produits sont souvent testés avec<br />

<strong>des</strong> configurations réduites.<br />

Axe <strong>des</strong> charges<br />

(de inactif à<br />

100 % par<br />

tranche de 10 %)<br />

Targ<strong>et</strong> Load<br />

100%<br />

90%<br />

80%<br />

70%<br />

60%<br />

50%<br />

40%<br />

30%<br />

20%<br />

10%<br />

Active<br />

Idle<br />

Axe de la performance<br />

Performance to Power Ratio<br />

0 1,000 2,000 3,000 4,000<br />

3,197 overall ssj_ops/watt<br />

4,020<br />

4,073<br />

4,003<br />

3,853<br />

3,653<br />

3,285<br />

2,829<br />

2,305<br />

1,681<br />

955<br />

Score benchmark global (La<br />

valeur SPECpower_ssj2008<br />

est égale à la somme <strong>des</strong><br />

scores ssj_ops pour toutes<br />

les charges cibles divisée par<br />

la somme <strong>des</strong> moyennes de<br />

consommation (en watts)<br />

pour ces charges, y compris<br />

l’intervalle de mesure en<br />

mode active idle)<br />

Barres indiquant la performance<br />

Courbe de consommation<br />

d’énergie<br />

0 25 50 75 100 125 150 175 200 225<br />

Average Active Power (W)<br />

Axe de la consommation<br />

d’énergie<br />

Fig. 2.1 Diagramme SPECpower <strong>et</strong> principales données<br />

Recommandations de bonnes pratiques<br />

Critères <strong>et</strong> benchmarks pour la sélection de matériels<br />

efficaces<br />

• Ach<strong>et</strong>er en fonction <strong>des</strong> critères d’efficacité Energy Star si disponibles.<br />

Pour les serveurs opérant à faible charge, les critères<br />

Energy Star Vers. 1 en mode inactif peuvent raisonnablement<br />

faire office d’indicateurs. Les critères d’alimentation sont valables<br />

pour tout type d’équipement.<br />

• Exiger du fabricant les résultats du benchmark SPECpower_<br />

ssj2008 (<strong>et</strong> SPEC-SERT dès sa sortie). Pour SPECpower, tenir<br />

compte <strong>des</strong> points suivants :<br />

■ Ce benchmark ciblé CPU est surtout représentatif <strong>des</strong><br />

charges intenses au niveau du processeur ;<br />

■ Vérifier la configuration dans laquelle le serveur a été testé,<br />

celle-ci pouvant être assez réduite ;<br />

■ Pour bien interpréter les résultats, ne pas se contenter de<br />

la valeur globale (opérations par watt), mais tenir compte<br />

aussi du détail du benchmark.<br />

11


2.1.1 Efficacité du processeur<br />

Le processeur (CPU) est l’élément le plus énergivore<br />

du serveur. Un modèle de CPU efficace avec<br />

gestion d’énergie efficace peut donc jouer un rôle<br />

important dans l’efficacité globale.<br />

La consommation du processeur dépend de la<br />

tension <strong>et</strong> de la fréquence d’horloge. La gestion<br />

d’énergie au niveau du CPU ou du cœur repose<br />

donc sur l’adaptation dynamique de la tension <strong>et</strong><br />

de la fréquence (DVFS) ou le fait d’éteindre <strong>des</strong><br />

cœurs. La consommation du CPU est souvent<br />

comparée en termes d’enveloppe thermique (thermal<br />

<strong>des</strong>ign power, TDP), qui indique la puissance<br />

maximale que le système de refroidissement d’un<br />

serveur doit pouvoir traiter. Or le TDP n’est qu’une<br />

mesure partielle, car l’efficacité globale dépend<br />

aussi fortement de la gestion d’énergie. Les fabricants<br />

proposent <strong>des</strong> CPU conçus spécialement<br />

pour une faible consommation <strong>et</strong> perm<strong>et</strong>tant une<br />

économie d’énergie substantielle si les critères de<br />

performance spécifiques sont remplis.<br />

L’efficacité énergétique d’un CPU est étroitement<br />

liée à la réussite de la mise en œuvre de la gestion<br />

d’énergie. Les grands systèmes d’exploitation<br />

supportent c<strong>et</strong>te gestion sur la base de la norme<br />

ACPI (advanced configuration and power interface)<br />

pour les états de performance du processeur<br />

<strong>et</strong> de consommation (P-states) <strong>et</strong> les états de gestion<br />

thermique (C-states). Les nouveaux contrôles<br />

système <strong>et</strong> composants que perm<strong>et</strong> la version 3 de<br />

l’ACPI assurent une gestion de l’énergie optimisée<br />

<strong>et</strong> par là un ajustement affiné de l’alimentation <strong>et</strong><br />

de la performance en fonction de la demande. De<br />

nombreux modèles de serveurs récents possèdent<br />

<strong>des</strong> mo<strong>des</strong> préconfigurés, par ex. :<br />

■ « Haute performance » (pour <strong>des</strong> serveurs très<br />

fortement sollicités <strong>et</strong> devant assurer une performance<br />

maximale quel que soit le coût de<br />

l’énergie) ;<br />

■ « Économie d’énergie » / « consommation minimum<br />

» (ce mode peut entraîner une économie<br />

d’énergie supplémentaire pour les serveurs<br />

peu sollicités <strong>et</strong> ayant une capacité supérieure à<br />

leurs besoins réels) ;<br />

■ « Équilibre consommation/performance ».<br />

La Figure 2.2 montre les eff<strong>et</strong>s positifs de la<br />

gestion d’énergie <strong>des</strong> processeurs modernes à<br />

travers les résultats de benchmark (SPECpower)<br />

pour la famille de produits serveurs HP ProLiant<br />

DL 380 : le ratio puissance en mode inactif/puissance<br />

pleine charge a été fortement réduit entre<br />

les générations 5 <strong>et</strong> 7 de ce modèle. Sur le DL 380<br />

G5, la puissance en mode inactif (charge zéro)<br />

était inférieure de 33 % (170 watts) à celle en<br />

pleine charge (253 W). Sur le G7, la différence<br />

est d’environ 75 %. La nouvelle technologie est<br />

donc beaucoup plus efficace à basse charge ou en<br />

mode inactif, grâce à une gestion d’énergie intelligente<br />

au niveau du CPU. Dans le même temps,<br />

la performance de calcul de ce modèle a été plus<br />

que triplée.<br />

Pour sélectionner un matériel dans la perspective<br />

d’un achat, il est essentiel de vérifier les critères<br />

de performance concr<strong>et</strong>s que devront remplir ses<br />

composants. Différents types de charges entraînent<br />

différentes exigences de performance, dont<br />

Targ<strong>et</strong> Load<br />

100%<br />

90%<br />

80%<br />

70%<br />

60%<br />

50%<br />

40%<br />

30%<br />

20%<br />

10%<br />

Active<br />

Idle<br />

G7 (3.07 GHz, Intel Xeon X5675) G5 (2.66GHz, Intel Xeon L5430)<br />

Performance Performance to Power Ratio to Power Ratio<br />

Performance Performance to Power Ratio to Power Ratio<br />

0 1,0000 2,000 1,000 3,000 2,000 4,000 3,000 4,000<br />

0 250 0 500250 750500 1,000750 1,250 1,000 1,250<br />

3,197 overall ssj_ops/watt 3,197 overall ssj_ops/watt<br />

734 overall ssj_ops/watt 734 overall ssj_ops/watt<br />

4,020 100% 4,020<br />

100% 1,214 100% 1,214<br />

4,073 90% 4,073<br />

90% 1,135 90% 1,135<br />

4,003 80% 4,003<br />

80% 1,049 80% 1,049<br />

3,853 70% 3,853<br />

70% 95170%<br />

951<br />

3,653 60% 3,653<br />

60% 85460%<br />

854<br />

3,285 50% 3,285<br />

50% 73850%<br />

738<br />

2,829 40% 2,829<br />

40% 62040%<br />

620<br />

2,305 30% 2,305<br />

30% 48430%<br />

484<br />

1,681 20% 1,681<br />

20% 33520%<br />

335<br />

95510%<br />

955<br />

10% 17510%<br />

175<br />

Targ<strong>et</strong> Load<br />

Active<br />

Idle<br />

Targ<strong>et</strong> Load<br />

Active<br />

Idle<br />

Targ<strong>et</strong> Load<br />

Active<br />

Idle<br />

0 25 50 075 251005012575150100 175125 200150 225175 200 225<br />

Average Active Average Power Active (W) Power (W)<br />

0 50 0 100 50 150 100 200 150 250 200 250<br />

Average Active Average Power Active (W) Power (W)<br />

Fig. 2.2 Exemple de benchmark SPECpower pour deux générations de serveur (serveurs HP G5 <strong>et</strong> G7) [SPEC (2010, www.spec.org)]<br />

12


2 Équipements de serveurs<br />

il faut tenir compte pour une configuration matérielle<br />

efficace. Le Tableau 2.3 fournit une indication<br />

approximative <strong>des</strong> exigences de performance<br />

pour différentes charges de travail.<br />

2.1.2 Efficacité de l’alimentation électrique<br />

Le label Energy Star pour serveurs [1] définit <strong>des</strong><br />

critères d’efficacité de l’alimentation électrique<br />

pour <strong>des</strong> charges de 10, 20, 50 <strong>et</strong> 100 %. La certification<br />

80 PLUS possède ses propres critères<br />

d’efficacité pour l’alimentation <strong>des</strong> serveurs, mais<br />

pas à une charge de 10 %. En pratique <strong>et</strong> dans la<br />

perspective d’un achat, il est recommandé de privilégier<br />

une alimentation remplissant au moins le<br />

niveau 80 PLUS « Or », qui correspond à une efficacité<br />

de 88 % à 20 % de charge <strong>et</strong> 92 % à 50 %.<br />

Les serveurs racks standards qui fonctionnent<br />

couramment à faible charge sont souvent équipés<br />

d’une alimentation électrique redondante <strong>et</strong> surprovisionnée.<br />

Ceci entraîne une perte d’énergie<br />

Tab. 2.3 Critères de performance de différentes applications serveur [5]<br />

Catégorie CPU RAM Disques<br />

durs<br />

Fichiers/impression 0 + ++ +<br />

Messagerie + + ++ 0<br />

Virtualisation ++ +++ ++ ++<br />

Web + + 0 +<br />

Base de données ++ ++ +++ +<br />

Application ++ ++ 0 +<br />

Terminal ++ ++ + +<br />

substantielle due au point d’opération très bas<br />

de l’équipement. Optimiser l’alimentation électrique<br />

est donc un point essentiel. C’est ce que<br />

perm<strong>et</strong>tent notamment les outils de configuration<br />

d’énergie en ligne proposés par les fabricants <strong>et</strong><br />

les outils d’évaluation du power capping.<br />

Certains serveurs (HP ProLiant G6 <strong>et</strong> G7 par ex.)<br />

possèdent <strong>des</strong> fonctions spécifiques pour pallier<br />

E/S<br />

les pertes inutiles <strong>des</strong> alimentations redondantes.<br />

Ces matériels proposent un mode d’opération perm<strong>et</strong>tant<br />

de n’utiliser qu’une seule alimentation en<br />

deçà d’un seuil de charge prédéfini. La seconde<br />

alimentation demeure en mode veille, ce qui perm<strong>et</strong><br />

d’avoir une redondance complète en cas de<br />

coupure de courant ou de défaillance du circuit.<br />

Tab. 2.4 Critères d’efficacité pour l’alimentation électrique selon le label Energy Star <strong>et</strong> la certification 80 PLUS [1, 3]<br />

Type d’alimentation<br />

Puissance nominale<br />

de sortie<br />

Charge<br />

10 %<br />

Charge<br />

20 %<br />

Charge<br />

50 %<br />

Charge<br />

100 %<br />

Energy Star 1 Sorties multiples (CA-CC & CC-CC) Toutes puissances N/A 82 % 85 % 82 %<br />

Sortie unique (CA-CC & CC-CC) ≤ 500 W 70 % 82 % 89 % 85 %<br />

>500–1 000 W 75 % 85 % 89 % 85 %<br />

> 1 000 W 80 % 88 % 92 % 88 %<br />

Energy Star 2 (en préparation)<br />

Sorties multiples (CA-CC & CC-CC) Toutes puissances N/A 85 % 88 % 85 %<br />

Sortie unique (CA-CC & CC-CC) Toutes puissances 80 % 88 % 92 % 88 %<br />

80 PLUS Bronze Toutes puissances N/A 81 % 85 % 81 %<br />

Argent Toutes puissances N/A 85 % 89 % 85 %<br />

Or Toutes puissances N/A 88 % 92 % 88 %<br />

Platine Toutes puissances N/A 90 % 94 % 91 %<br />

13


2.2 Gestion de l’alimentation<br />

au niveau du rack <strong>et</strong> du datacentre<br />

Au-delà <strong>des</strong> composants matériels <strong>et</strong> <strong>des</strong> unités<br />

de serveur, la gestion de l’énergie au niveau du<br />

système est un autre élément important pour optimiser<br />

l’efficacité globale.<br />

Comme expliqué précédemment, la majorité <strong>des</strong><br />

serveurs restent utilisés à un niveau de charge mo<strong>des</strong>te.<br />

Il existe donc un important potentiel d’économie<br />

d’énergie par la consolidation matérielle<br />

(voir chapitre suivant) ou la gestion de l’énergie<br />

au niveau du système. Comme pour le niveau<br />

composant, il s’agit d’ajuster la performance <strong>et</strong><br />

la consommation en fonction de la demande en<br />

temps réel <strong>et</strong> de couper ou brider les ressources<br />

non utilisées. Le Tableau 2.5 résume les diverses<br />

approches de la gestion de l’énergie à différents<br />

niveaux [7]. Certaines de ces options sont traitées<br />

dans les pages suivantes.<br />

2.2.1 Gestion de la capacité <strong>et</strong> de l’énergie<br />

Les logiciels de gestion de serveur fournissent<br />

<strong>des</strong> outils essentiels pour sécuriser les opérations<br />

mais aussi gérer l’énergie de façon globale. Ces<br />

outils peuvent contribuer efficacement à réduire<br />

la consommation en facilitant la mise en œuvre<br />

de principes d’économie à tous les niveaux du<br />

système <strong>et</strong> en fournissant <strong>des</strong> fonctions capables<br />

de favoriser fortement l’efficacité. Ces principales<br />

fonctions sont :<br />

• Provisionnement<br />

• Monitoring<br />

• Déploiement<br />

• Gestion de configuration<br />

• Contrôle <strong>des</strong> mises à jour<br />

• Gestion de l’énergie<br />

• Gestion de la charge<br />

Les principaux fournisseurs proposent tous <strong>des</strong><br />

outils puissants de gestion de serveur. Les solutions<br />

IBM (Systems Director) <strong>et</strong> HP (Systems<br />

Insight Manager avec Insight Dynamics) sont<br />

particulièrement complètes puisqu’elles sont capables<br />

d’intégrer les systèmes de parties tierces.<br />

Fujitsu (Server View Site) propose <strong>des</strong> produits<br />

aux fonctionnalités de base pouvant être intégrés<br />

dans les consoles d’autres fabricants. Dell fait appel<br />

à la suite Altiris Total Management. Sun <strong>et</strong><br />

Acer fournissent <strong>des</strong> consoles pour leurs propres<br />

environnements.<br />

Suites de gestion de l’énergie (par ex. IBM<br />

Energy Manager)<br />

Ce type d’outil perm<strong>et</strong>, entre autres, le suivi <strong>et</strong> la<br />

collecte de données de consommation, la gestion<br />

de l’énergie (configuration d’options d’économie<br />

d’énergie <strong>et</strong> power caps) <strong>et</strong> l’automation de<br />

certaines tâches liées à l’énergie : configuration<br />

d’appareils de mesure tels que PDU <strong>et</strong> capteurs,<br />

définition de seuils, création <strong>et</strong> configuration de<br />

principes, calcul <strong>des</strong> coûts, <strong>et</strong>c. Pour en savoir plus<br />

sur les suites de gestion de l’énergie, voir plus bas.<br />

Tab. 2.5. Options de gestion de l’énergie du niveau composant au niveau datacentre [7]<br />

Niveau composant Niveau système Niveau rack Niveau datacentre<br />

• Processeur (package/core C-states, • S-states<br />

P-states, T-states, étrangleur • Gestion de l’énergie sur plateforme<br />

thermique)<br />

• Planificateurs de charge de travail<br />

• Autres composants (D-states, L- • Contrôle de vitesse <strong>des</strong> ventilateurs<br />

states)<br />

• Gestion système ou nœud<br />

• Équilibrage application/charge<br />

• Gestion de châssis<br />

• Équilibrage application/charge<br />

• Suivis de sites <strong>et</strong> d’équipements<br />

• Déduplication <strong>des</strong> données, <strong>et</strong>c..<br />

• Gestion multi-racks, consolidation<br />

dynamique<br />

14


2 Équipements de serveurs<br />

Outils de gestion de la capacité<br />

(e.g. HP Capacity Planner)<br />

Les outils de gestion de la capacité sont utilisés,<br />

entre autres, pour accroître l’utilisation <strong>des</strong><br />

serveurs, réduire la consommation d’énergie <strong>et</strong><br />

améliorer les performances <strong>des</strong> applications. Ils<br />

perm<strong>et</strong>tent de recueillir <strong>des</strong> données d’utilisation<br />

pour les cœurs de processeur, la mémoire, le réseau,<br />

les E/S disque <strong>et</strong> l’énergie. Ils perm<strong>et</strong>tent par<br />

ailleurs la planification <strong>des</strong> charges ou les modifications<br />

du système <strong>et</strong> l’évaluation de l’impact sur<br />

l’utilisation <strong>des</strong> ressources. Ils évaluent enfin les<br />

tendances pour prévoir l’évolution <strong>des</strong> besoins.<br />

Pour en savoir plus sur les outils de gestion de la<br />

capacité, voir plus bas.<br />

L’outil HP, par ex., fait appel aux journaux d’utilisation<br />

pour apporter une aide à la décision en<br />

évaluant la demande en ressources <strong>des</strong> applications<br />

candidates à la consolidation. La Figure 2.3<br />

montre un exemple de comparaison d’utilisation<br />

de deux systèmes. On voit que les pics de performance<br />

interviennent à <strong>des</strong> moments différents :<br />

une consolidation matérielle ne provoquerait<br />

donc qu’un accroissement mo<strong>des</strong>te de la charge<br />

moyenne.<br />

3,0<br />

2,5<br />

Nombre de coeurs<br />

2,0<br />

1,5<br />

1,0<br />

Pic d’utilisation du système<br />

Pic d’utilisation du système 1<br />

2<br />

0,5<br />

0,0<br />

21 fév. 28 fév. 6 mars<br />

Temps<br />

13 mars<br />

Système 1<br />

Système 2<br />

Allocation<br />

Fig. 2.3 Comparaison de l’utilisation du CPU de deux systèmes (voir HP Capacity Planner)<br />

15


2.2.2 Power capping<br />

Le terme power capping désigne l’allocation<br />

active d’un budg<strong>et</strong> énergie à un serveur. Les gestionnaires<br />

informatiques peuvent définir un power<br />

cap pour leurs serveurs en fonction <strong>des</strong> besoins<br />

réels. Le dynamic power capping réduit la demande<br />

maximum du système <strong>et</strong> optimise ainsi le<br />

provisionnement au-delà du niveau généralement<br />

supporté par les configurateurs <strong>des</strong> fabricants.<br />

Les économies réalisées en pratique dépendent de<br />

la valeur du cap. Celui-ci doit être fixé de façon à<br />

limiter les pics d’alimentation mais sans affecter<br />

de façon perceptible les performances de calcul<br />

RECOMMANDATIONS DE BONNES PRATIQUES<br />

Planification <strong>et</strong> gestion d’un datacentre efficace<br />

du système. Un capping optimisé exige donc une<br />

évaluation <strong>des</strong> tendances de la charge <strong>et</strong> de la<br />

consommation. Pour les charges relativement uniformes,<br />

le cap pourra être fixé au niveau moyen<br />

sans affecter sensiblement la performance. D’une<br />

façon générale, le cap ne doit jamais être situé en<br />

deçà de la valeur médiane entre plancher <strong>et</strong> plafond<br />

de consommation du serveur. Certains outils<br />

de gestion perm<strong>et</strong>tent un capping dynamique en<br />

définissant différentes valeurs sur différentes pério<strong>des</strong>,<br />

en fonction de la charge, du coût de l’énergie,<br />

<strong>et</strong>c.<br />

• Utiliser les outils de gestion de serveur pour la planification de la capacité, le suivi de la charge <strong>et</strong><br />

de la puissance <strong>et</strong> la gestion spécifique de l’énergie. Un <strong>des</strong>criptif détaillé <strong>et</strong> <strong>des</strong> recommandations<br />

sur l’utilisation de la fonction gestion de l’énergie sont fournis avec la documentation technique<br />

<strong>des</strong> suites de gestion de serveur.<br />

• Équilibrer les applications <strong>et</strong> les charges pour optimiser l’utilisation <strong>des</strong> ressources matérielles.<br />

• Utiliser le power capping pour maintenir la demande au niveau souhaité sur l’ensemble du système.<br />

• Profiter <strong>des</strong> niveaux de résilience optimisés <strong>des</strong> matériels. Évaluer le niveau réellement justifié au<br />

vu de l’impact prévu <strong>des</strong> incidents de service sur l’activité pour chaque service déployé.<br />

• Désaffecter les services <strong>et</strong> supprimer entièrement les matériels non utilisés. Évaluer la possibilité<br />

de désaffecter <strong>des</strong> services à faible valeur pour l’activité en identifiant ceux pour lesquels le coût<br />

financier <strong>et</strong> environnemental n’est pas justifié.<br />

2.3 Options de gestion de<br />

l’énergie spécifiques pour serveurs<br />

lames<br />

La technologie <strong>des</strong> serveurs lames est déployée à<br />

la fois dans les datacentres <strong>et</strong> les salles serveurs.<br />

Ce segment du marché est celui qui connaît la<br />

croissance la plus rapide de ces dernières années.<br />

Il est donc important de rendre c<strong>et</strong>te technologie<br />

aussi efficace que possible.<br />

Les châssis à lames (voir Figure 2.4.) rassemblent<br />

généralement 7, 14 (ou plus) modules de serveurs<br />

lames, au moins un module de gestion ainsi que<br />

<strong>des</strong> interfaces KVM. Ils supportent <strong>des</strong> modules<br />

serveur, stockage <strong>et</strong> réseau <strong>et</strong> peuvent être optimisés<br />

pour <strong>des</strong> applications <strong>et</strong> types d’utilisateur<br />

spécifiques. Par rapport aux serveurs racks standard,<br />

c<strong>et</strong>te technologie perm<strong>et</strong> de réduire certains<br />

composants matériels comme l’alimentation<br />

électrique, les E/S réseau <strong>et</strong> la câblerie, qui sont<br />

partagés par plusieurs serveurs dans un coffr<strong>et</strong><br />

commun.<br />

Les principaux avantages de ces systèmes sont les<br />

suivants :<br />

• Forte densité de calcul <strong>et</strong> faible encombrement ;<br />

• Réduction du temps de maintenance <strong>et</strong> de mise<br />

à niveau grâce au remplacement à chaud <strong>des</strong><br />

modules <strong>et</strong> aux fonctions de gestion intégrées ;<br />

• Efficacité énergétique légèrement supérieure à<br />

celle <strong>des</strong> racks si la gestion de l’énergie <strong>et</strong> le<br />

refroidissement sont optimisés.<br />

Fig. 2.4 Châssis à lames<br />

Fig. 2.5 Serveur lame à deux nœuds<br />

16


2 Équipements de serveurs<br />

L’utilisation de fortes densités de lames entraîne<br />

toutefois une demande élevée en infrastructure <strong>et</strong><br />

refroidissement. Une forte densité de calcul accroît<br />

la puissance jusqu’à 10-25 kW/rack. Les solutions<br />

de refroidissement standard <strong>des</strong> datacentres <strong>et</strong><br />

salles serveurs sont donc souvent insuffisantes <strong>et</strong><br />

il faut m<strong>et</strong>tre en place une solution de refroidissement<br />

spécifique. L’efficacité énergétique d’un<br />

serveur lame est donc fortement dépendante de<br />

la conception d’ensemble du système.<br />

Les concepts à deux nœuds ou multi-nœuds reposent<br />

en partie sur la même philosophie. Le modèle<br />

multi-nœuds consiste à combiner un nombre<br />

fixe d’unités de serveur (souvent 2 ou 4) sur un<br />

châssis unique monté en rack. À l’instar <strong>des</strong> lames,<br />

ces serveurs partagent l’alimentation <strong>et</strong> les ventilateurs,<br />

mais leur capacité d’expansion est limitée.<br />

fig 3.7<br />

C<strong>et</strong>te technologie perm<strong>et</strong> de m<strong>et</strong>tre en œuvre de<br />

hautes densités de calcul à un coût relativement<br />

réduit <strong>et</strong> correspond souvent aux besoins <strong>des</strong> p<strong>et</strong>ites<br />

<strong>et</strong> moyennes entreprises. Il existe toutefois<br />

<strong>des</strong> serveurs à deux nœuds hautes performances<br />

disponibles par exemple pour les systèmes à lames<br />

<strong>et</strong> qui combinent deux nœuds sur une seule lame.<br />

Les principaux avantages <strong>des</strong> systèmes à plusieurs<br />

nœuds standards sont les suivants :<br />

• Coût <strong>et</strong> encombrement inférieurs à ceux d’un<br />

serveur rack standard ;<br />

• Consommation d’énergie légèrement inférieure<br />

du fait du partage de l’alimentation <strong>et</strong> <strong>des</strong> ventilateurs.<br />

2.3.1 Châssis <strong>et</strong> composants <strong>des</strong> serveurs<br />

lames<br />

Les alimentations de grande taille sont souvent<br />

plus efficaces : le nombre réduit d’alimentations<br />

dans les systèmes à lames peut donc accroître<br />

l’efficacité énergétique par rapport aux serveurs<br />

racks. Dans la pratique, toutefois, l’efficacité dépend<br />

aussi du rapport entre demande <strong>et</strong> capacité<br />

d’alimentation. La Figure 2.6 représente la courbe<br />

d’efficacité d’une alimentation labellisée Platine<br />

[80plus 2011] d’une puissance nominale de 2990<br />

W pour un châssis à lame : les valeurs sont comprises<br />

entre 92 <strong>et</strong> 95 % en fonction de la charge.<br />

Pour être efficace, l’alimentation <strong>des</strong> serveurs<br />

lames doit dépasser 90 % d’efficacité entre 20 %<br />

<strong>et</strong> 100 % de charge.<br />

Efficiency (%)<br />

100%<br />

90%<br />

80%<br />

70%<br />

60%<br />

50%<br />

40%<br />

30%<br />

Sur les serveurs lames <strong>et</strong> multi-nœuds de dernière<br />

génération, certains fabricants fournissent<br />

plusieurs modèles d’alimentation de puissance<br />

nominale différente, perm<strong>et</strong>tant de s’adapter à la<br />

demande réelle. Des configurateurs en ligne proposés<br />

par les fabricants fournissent une aide à la<br />

sélection.<br />

Des alimentations moins nombreuses <strong>et</strong> plus efficaces,<br />

<strong>des</strong> ventilateurs plus efficaces <strong>et</strong> <strong>des</strong> options<br />

avancées de gestion de l’énergie dans le<br />

châssis à lames perm<strong>et</strong>tent en théorie d’accroître<br />

l’efficacité énergétique globale par rapport aux<br />

serveurs racks standard. Dans la pratique, l’effica-<br />

Efficiency of the Power Supply<br />

RECOMMANDATIONS DE BONNES PRATIQUES<br />

Sélectionner la technologie à lame sur <strong>des</strong> critères précis<br />

• Définir <strong>et</strong> évaluer les principales raisons pour la mise en œuvre de la<br />

technologie à lame dans le datacentre (contrainte d’espace par ex.).<br />

• Évaluer les avantages escomptés par rapport à la technologie rack <strong>et</strong><br />

vérifier le caractère réaliste <strong>des</strong> attentes.<br />

• Vérifier si la virtualisation peut être une solution alternative au regard <strong>des</strong><br />

objectifs définis.<br />

• Évaluer le coût total de possession (TCO) <strong>et</strong> l’efficacité énergétique par<br />

rapport à d’autres options (d’après les données fournisseurs).<br />

0% 25% 50% 75% 100% 125%<br />

Loading (% of Rated Output Power)<br />

Fig. 2.6 Efficacité de l’alimentation d’un serveur<br />

lame [3]<br />

17


Serveur lame Dell M610<br />

Serveur rack R610 1U<br />

Targ<strong>et</strong> Load<br />

Performance to Power Ratio<br />

Performance to Power Ratio<br />

0 1,000 2,000 3,000 4,000<br />

0 1,000 2,000 3,000 4,000<br />

3,093 overall ssj_ops/watt 2,938 overall ssj_ops/watt<br />

100%<br />

90%<br />

80%<br />

70%<br />

60%<br />

50%<br />

40%<br />

30%<br />

20%<br />

10%<br />

Active<br />

Idle<br />

3,885<br />

3,911<br />

3,873<br />

3,733<br />

3,502<br />

3,158<br />

2,754<br />

2,255<br />

1,653<br />

940<br />

100%<br />

90%<br />

80%<br />

70%<br />

60%<br />

50%<br />

40%<br />

30%<br />

20%<br />

10%<br />

Active<br />

Idle<br />

3,739<br />

3,725<br />

3,697<br />

3,572<br />

3,337<br />

2,999<br />

2,623<br />

2,125<br />

1,549<br />

868<br />

0 1,000 2,000 3,000 4,000<br />

0 25 50 75 100 125 150 175 200 225 250<br />

Average Active Power (W)<br />

Average Active Power (W)<br />

Targ<strong>et</strong> Load<br />

Fig. 2.7 Comparaison SPECpower_ssj2008 entre un serveur lame (Dell M610) <strong>et</strong> un serveur rack (R610 1U).<br />

Système à 16 lames avec configuration du processeur identique à celle du serveur rack (2 x Intel Xeon 5670, 2.93GHz).<br />

SPEC (2010, www.spec.org)<br />

cité dépend toutefois aussi de la configuration du<br />

châssis <strong>et</strong> de l’utilisation <strong>des</strong> options de gestion de<br />

l’énergie. Un châssis comportant un p<strong>et</strong>it nombre<br />

de lames sera évidemment moins efficace, du fait<br />

du sur-provisionnement de ses capacités de refroidissement,<br />

d’alimentation <strong>et</strong> de réseau.<br />

Pour une comparaison approximative de l’efficacité<br />

entre serveurs lames <strong>et</strong> racks, on peut<br />

prendre l’exemple d’un système à lames entièrement<br />

configuré. La Figure 2.7 reprend les données<br />

publiées par Dell pour le diagramme SPECpower<br />

(SPECpower_ssj2008) de systèmes à lames <strong>et</strong> de<br />

serveurs racks comparables.<br />

À 100 % de charge, la performance maximale<br />

est de 3885 ops/watt pour le système à lames <strong>et</strong><br />

3739 ops/watt pour le serveur rack, soit une différence<br />

de 4 % en faveur du premier. C<strong>et</strong> écart<br />

de performance par watt ou d’efficacité énergétique<br />

atteint environ 8 % dans les basses charges<br />

(10 %) <strong>et</strong> 11 % en mode repos.<br />

Si c<strong>et</strong>te simple comparaison ne doit pas être surinterprétée<br />

(SPECpower n’évalue qu’une partie de<br />

l’efficacité <strong>des</strong> serveurs), elle suggère toutefois que<br />

les systèmes à lames, même entièrement configurés<br />

<strong>et</strong> optimisés pour un test, ne présentent sur<br />

les serveurs racks standard qu’un avantage marginal<br />

en terme d’efficacité énergétique, surtout à<br />

fort niveau de charge. L’écart est plus significatif à<br />

basse charge, ce qui indique une meilleure gestion<br />

globale de l’énergie dans ces conditions.<br />

Les solutions à lames semblent donc ne présenter<br />

qu’un potentiel limité d’amélioration de l’efficacité<br />

énergétique, comparées notamment à la<br />

virtualisation. Comme avec les serveurs racks, il<br />

est possible de combiner les deux approches pour<br />

renforcer l’amélioration de l’efficacité énergétique.<br />

Les problèmes posés par les fortes densités de<br />

chaleur au niveau du rack <strong>et</strong> <strong>des</strong> rangées sont traités<br />

ci-après (2.3.2).<br />

Les châssis lames modernes contiennent <strong>des</strong> matériels<br />

<strong>et</strong> logiciels de gestion qui, associés à <strong>des</strong><br />

contrôleurs d’accès distant au niveau <strong>des</strong> lames,<br />

perm<strong>et</strong>tent un inventaire <strong>et</strong> une gestion de l’alimentation<br />

<strong>des</strong> différentes lames. Des cartes de<br />

gestion spécifiques perm<strong>et</strong>tent un inventaire <strong>des</strong><br />

matériels <strong>et</strong> de la demande en alimentation. Le<br />

contrôleur d’accès distant transm<strong>et</strong> les informations<br />

de budg<strong>et</strong> énergétique à la carte de gestion<br />

du châssis (CMC), laquelle confirme la disponibilité<br />

de l’alimentation au niveau du système à partir<br />

de l’inventaire total du châssis. La CMC peut<br />

définir <strong>des</strong> principes au niveau du système <strong>et</strong> la<br />

18


2 Équipements de serveurs<br />

RECOMMANDATIONS DE<br />

BONNES PRATIQUES<br />

Critères à prendre en compte pour<br />

l’achat d’un serveur lame efficace<br />

consommation en temps réel de chaque module<br />

est suivie de façon à ne pas excéder la valeur allouée.<br />

Les fonctions de base de la gestion d’énergie en<br />

mode automatique restent généralement invisibles<br />

pour l’administrateur système. Mais les priorités<br />

de chaque module peuvent aussi être configurées<br />

manuellement : on pourra par exemple<br />

désigner les lames prioritaires pour passer en<br />

mode économie.<br />

Sur un châssis à lames, le dynamic power capping<br />

peut être utilisé de façon encore plus efficace<br />

que sur un serveur rack standard, sachant que le<br />

power cap peut être spécifié pour de multiples<br />

serveurs. Celui-ci peut être ajusté de façon dynamique<br />

par le module onboard administrator<br />

<strong>et</strong> le processeur de service. Les lames opérant à<br />

charge réduite recevront ainsi un cap moins élevé.<br />

L’intensité de la charge <strong>et</strong> son évolution variant<br />

généralement d’une lame à l’autre, les pics de<br />

consommation peuvent se produire à <strong>des</strong> moments<br />

différents. Le cap global du châssis pourra<br />

donc être fixé à un niveau plus bas que la somme<br />

<strong>des</strong> caps <strong>des</strong> lames pris séparément. HP a calculé<br />

l’économie d’énergie <strong>et</strong> la réduction du TCO pour<br />

un centre à lames dont l’alimentation reposait sur<br />

le power capping : le coût d’alimentation maximum<br />

<strong>et</strong> de provisionnement baissait d’environ 20<br />

% par rapport à un <strong>des</strong>ign sans power capping<br />

[HP2011].<br />

• Définir les charges de travail <strong>et</strong> les niveaux<br />

prévus pour les systèmes à lames.<br />

• Comparer la rentabilité <strong>et</strong> l’efficacité<br />

énergétique entre fabricants.<br />

• Exiger du fournisseur une information produit<br />

sur :<br />

■ Le coût total de possession (TCO) ;<br />

■ L’efficacité énergétique globale (par ex.<br />

SPECpower_ssj2008, SPEC-SERT dès sa<br />

sortie) ;<br />

■ Les composants matériels efficaces<br />

(efficacité <strong>et</strong> optimisation de<br />

l’alimentation) ;<br />

■ Les outils de gestion, surtout pour<br />

l’énergie <strong>et</strong> l’optimisation de la conception<br />

du système.<br />

• Sélectionner l’équipement présentant la plus<br />

haute efficacité énergétique pour le type <strong>et</strong><br />

le niveau de charge prévus <strong>et</strong> les bonnes<br />

options de gestion de l’énergie.<br />

2.3.2 Problèmes d’alimentation <strong>et</strong> de<br />

refroidissement<br />

On a souvent tendance à sous-estimer le défi posé<br />

par la conception d’un système de serveurs lames,<br />

surtout en cas de forte densité. Les principales difficultés<br />

sont :<br />

• Conception <strong>et</strong> capacité du refroidissement pour<br />

faire face aux fortes densités de chaleur ;<br />

• Capacité <strong>et</strong> distribution de l’alimentation (capacité<br />

du PDU local, câblerie, <strong>et</strong>c.).<br />

Les systèmes de refroidissements traditionnels<br />

sont conçus pour une puissance de 2-3 kW/rack,<br />

soit dix fois moins que la puissance d’un rack de<br />

lames entièrement peuplé. Le refroidissement<br />

standard <strong>des</strong> datacentres <strong>et</strong> salles serveurs est<br />

donc souvent insuffisant pour les grands systèmes<br />

à lames <strong>et</strong> doit être modifié dans sa conception<br />

même.<br />

RECOMMANDATIONS DE BONNES PRATIQUES<br />

Utiliser les outils de gestion pour optimiser l’efficacité <strong>des</strong> systèmes lames<br />

• Utiliser les outils de gestion <strong>et</strong> les équipements réseau <strong>et</strong> alimentation intelligents pour effectuer un<br />

suivi de la consommation énergétique <strong>et</strong> de la charge de travail.<br />

• Analyser les options pour équilibrer <strong>et</strong> gérer les charges <strong>et</strong> la consommation au niveau <strong>des</strong> châssis<br />

<strong>et</strong> <strong>des</strong> racks.<br />

• Utiliser les fonctions de capping <strong>et</strong> d’équilibrage de l’énergie du châssis.<br />

• Utiliser les outils de calcul fournis par les fabricants pour estimer approximativement la demande<br />

en énergie/capacité de refroidissement.<br />

• Évaluer la demande réelle en énergie à l’aide <strong>des</strong> outils de gestion disponibles pour un cycle<br />

d’utilisation compl<strong>et</strong> <strong>et</strong> définir <strong>des</strong> caps en fonction <strong>des</strong> pics de charge. Ajuster l’alimentation <strong>et</strong> le<br />

refroidissement en fonction de ces caps.<br />

19


Le Tableau 2.6 récapitule les options traditionnelles<br />

de conception pour différentes densités en<br />

fonction <strong>des</strong> exigences <strong>et</strong> contraintes de l’activité<br />

telles qu’infrastructures <strong>et</strong> capacités de refroidissement.<br />

Selon le niveau de densité de lames,<br />

on pourra envisager les options suivantes pour<br />

la conception du refroidissement [Rasmussen<br />

2010] :<br />

• Répartir la charge thermique <strong>des</strong> châssis à<br />

lames vers les différents racks : c<strong>et</strong>te méthode<br />

n’est possible que si les châssis à lames ne représentent<br />

qu’une très faible partie du système<br />

global.<br />

• Dédier la capacité de refroidissement : la capacité<br />

en excédent est affectée spécifiquement<br />

aux lames. C<strong>et</strong>te méthode n’est possible<br />

qu’avec un pourcentage de lames relativement<br />

bas, sachant qu’on n’utilise que la capacité de<br />

refroidissement existante.<br />

• Installer un refroidissement supplémentaire<br />

pour les racks de lames. La densité de puissance<br />

par rack peut atteindre 10 kW. C<strong>et</strong>te technique<br />

perm<strong>et</strong> d’optimiser l’espace au sol <strong>et</strong> l’efficacité.<br />

• Délimiter/concevoir une zone à forte densité<br />

(jusqu’à 25 kW) au sein du datacentre. C<strong>et</strong>te<br />

technique perm<strong>et</strong> d’optimiser l’efficacité <strong>et</strong><br />

l’utilisation de l’espace.<br />

• Concevoir un centre à forte densité (entièrement<br />

composé de racks de lames à forte densité).<br />

C<strong>et</strong>te solution extrême, plutôt rare, entraîne<br />

dans la plupart <strong>des</strong> cas <strong>des</strong> coûts substantiels <strong>et</strong><br />

une forte sous-utilisation <strong>des</strong> infrastructures.<br />

Les datacentres existants présentent souvent certains<br />

obstacles au déploiement de la technologie<br />

lame du fait de leurs infrastructures. Un système à<br />

faux plancher standard peut par exemple ne pas<br />

perm<strong>et</strong>tre de densité de puissance supérieure à 5<br />

kW par rack. Une bonne spécification de la densité<br />

électrique <strong>et</strong> thermique est donc une condition<br />

majeure à la conception de systèmes efficaces en<br />

termes d’énergie, d’espace <strong>et</strong> de coûts.<br />

Un point essentiel de l’efficacité énergétique au<br />

niveau du système est d’éviter le sur-provisionnement<br />

<strong>des</strong> infrastructures <strong>et</strong> du refroidissement. La<br />

spécification de la densité doit tenir compte de<br />

la variabilité dans l’espace (différentes densités<br />

électriques locales dans les datacentres pour les<br />

racks de lames <strong>et</strong> les racks standard) <strong>et</strong> le temps<br />

(risque d’augmentation à terme). La densité électrique<br />

doit donc être spécifiée au niveau du rack<br />

ou de la rangée. Pour les systèmes de grande<br />

taille, la rangée convient mieux, sachant que le<br />

refroidissement <strong>et</strong> la distribution électrique se<br />

font généralement à ce niveau. Dans la mesure du<br />

possible, il est recommandé de définir les spécifications<br />

pour chaque rack/rangée <strong>et</strong> de les laisser<br />

inchangées pendant les pério<strong>des</strong> d’opération. La<br />

mise en œuvre d’une nouvelle technologie avec<br />

<strong>des</strong> niveaux de densité différents doit donc se faire<br />

sur un rack ou une rangée nouveau/elle. Certaines<br />

solutions alternatives perm<strong>et</strong>tent toutefois de<br />

faire varier la densité sur un rack ou une rangée<br />

installé(e) :<br />

• Ajout à chaud de modules onduleurs ;<br />

• Utilisation de PDU remplaçables à chaud ;<br />

• Ajout de capacité de refroidissement avec appareils<br />

montés en rack.<br />

Tab. 2.6 Configuration <strong>des</strong> systèmes à lames au niveau du rack <strong>et</strong> exigences liées pour le refroidissement [d’après Rasmussen 2010]<br />

Nombre de<br />

châssis/racks<br />

Répartition de la charge<br />

entre racks<br />

Affectation d’un refroidissement<br />

dédié<br />

Refroidissement<br />

supplémentaire<br />

Zone à forte densité<br />

Centre à forte densité<br />

1 Possible dans la plupart Possible dans la plupart Possible dans la plupart Non rentable<br />

Non rentable<br />

<strong>des</strong> DC<br />

<strong>des</strong> DC<br />

<strong>des</strong> DC<br />

2 Peu pratique dans la Possible dans la plupart Possible dans la plupart Non rentable<br />

Non rentable<br />

plupart <strong>des</strong> cas <strong>des</strong> DC<br />

<strong>des</strong> DC<br />

3 Impossible Possible dans la plupart Possible dans la plupart Maximum pour les Non rentable<br />

<strong>des</strong> DC<br />

<strong>des</strong> DC selon solution<br />

r<strong>et</strong>enue<br />

systèmes à faux plancher<br />

à efficacité optimisée<br />

4 Impossible Peu pratique dans la Selon solution r<strong>et</strong>enue Systèmes à balayage d’air Balayage d’air chaud,<br />

plupart <strong>des</strong> cas<br />

chaud<br />

réagencement <strong>des</strong> locaux<br />

5 Impossible Impossible Impossible Systèmes à balayage d’air Balayage d’air chaud,<br />

chaud<br />

réagencement <strong>des</strong> locaux<br />

6 Impossible Impossible Impossible Extrêmement coûteux Extrêmement coûteux<br />

20


2 Équipements de serveurs<br />

Pour définir la densité d’une rangée, il est recommandé<br />

de fixer le ratio pic/moyenne de puissance<br />

à un maximum de 2 dans les configurations standard.<br />

Si un rack donné dépasse le double de la<br />

moyenne, les charges devront être redistribuées<br />

au sein de sa rangée ou vers d’autres rangées.<br />

D’une façon générale, il est évidemment judicieux<br />

de disperser les racks à plus forte densité dans<br />

une rangée donnée. On pourra faire appel aux<br />

systèmes de gestion de l’énergie <strong>et</strong> du refroidissement<br />

pour définir <strong>des</strong> règles de déploiement <strong>des</strong><br />

capacités installées, par exemple perm<strong>et</strong>tre à un<br />

rack de dépasser la puissance moyenne uniquement<br />

si la demande du rack voisin est n<strong>et</strong>tement<br />

inférieure à la moyenne.<br />

L’un <strong>des</strong> principaux défis est de savoir comment<br />

faire face aux évolutions futures <strong>et</strong> aux besoins<br />

d’expansion. Il n’est évidemment pas recommandé<br />

de déployer une infrastructure couvrant<br />

d’emblée la capacité future, ce qui entraînerait<br />

une surcapacité <strong>et</strong> <strong>des</strong> coûts élevés sur une longue<br />

période. Il est généralement préférable de poser<br />

tout le câblage <strong>des</strong>tiné aux futures expansions de<br />

capacité, mais de n’installer les équipements d’alimentation<br />

<strong>et</strong> de refroidissement qu’à mesure de<br />

l’apparition <strong>des</strong> besoins.<br />

2.4 Virtualisation <strong>des</strong> serveurs<br />

La virtualisation <strong>des</strong> serveurs présente un important<br />

potentiel d’économie d’énergie. C<strong>et</strong>te technologie<br />

perm<strong>et</strong> de consolider les charges sur un<br />

matériel physiquement réduit <strong>et</strong> donc de réduire<br />

fortement la demande en électricité <strong>et</strong> refroidissement.<br />

D’une façon générale, la virtualisation<br />

présente plusieurs avantages pour la conception<br />

efficace de systèmes informatiques dans les datacentres<br />

<strong>et</strong> salles serveurs, notamment l’optimisation<br />

<strong>des</strong> tests <strong>et</strong> du développement (provisionnement<br />

rapide <strong>des</strong> serveurs par la réutilisation de<br />

systèmes préconfigurés, favorisant la collaboration<br />

<strong>des</strong> développeurs <strong>et</strong> la standardisation <strong>des</strong> environnements),<br />

la réduction de l’encombrement<br />

grâce au déploiement de machines virtuelles<br />

opérant de façon sécurisée sur <strong>des</strong> matériels mutualisés<br />

(utilisation <strong>des</strong> serveurs accrue de 5-15<br />

% à 60-80 %) <strong>et</strong> la réduction du coût <strong>et</strong> de la<br />

complexité de la continuité de l’activité (haute disponibilité<br />

<strong>et</strong> solutions de reprise après sinistre) en<br />

encapsulant <strong>des</strong> systèmes entiers dans <strong>des</strong> fichiers<br />

uniques pouvant être répliqués <strong>et</strong> restaurés sur<br />

n’importe quel serveur cible.<br />

Les plateformes de virtualisation telles que VM-<br />

Ware, Microsoft Hyper-V <strong>et</strong> Citrix XEN offrent<br />

de nombreuses fonctions : haute disponibilité,<br />

basculement, réallocation automatique (DRS),<br />

équilibrage de charge, sauvegarde automatique,<br />

gestion de l’énergie (DPM), VMotion serveur, stockage<br />

<strong>et</strong> réseau, <strong>et</strong>c.<br />

Les options de base de la virtualisation de serveurs<br />

sont :<br />

• Création de partitions physiques ;<br />

• Virtualisation basée sur un système d’exploitation<br />

hôte ;<br />

• Virtualisation <strong>des</strong> applications (par ex. Microsoft<br />

Termi¬nalserver, Citrix XenApp) ;<br />

• Virtualisation par hyperviseur :<br />

■ VMware ESX<br />

■ Citrix /Open-Source: XENServer 5<br />

■ Microsoft Hyper-V<br />

Le marché étant dominé par un p<strong>et</strong>it nombre de<br />

produits, le chapitre suivant traite <strong>des</strong> plateformes<br />

de virtualisation de type hyperviseur : VMware<br />

ESX/ESXi/Vsphere4, Microsoft Hyper-V <strong>et</strong> Citrix<br />

XEN.<br />

Leaders sur le marché, ces plateformes supportent<br />

la plupart <strong>des</strong> systèmes d’exploitation hôtes les<br />

plus répandus. Elles fournissent <strong>des</strong> consoles de<br />

gestion pour l’administration d’environnements<br />

de serveurs de p<strong>et</strong>ite taille ainsi que l’administration<br />

au niveau du datacentre.<br />

Premier produit lancé sur le marché en 2001,<br />

VMware possède une architecture adaptée aux<br />

systèmes d’exploitation <strong>et</strong> processeurs pré-virtualisation<br />

tels que Intel VT <strong>et</strong> AMD-V. VMware ESX/<br />

VSphere4 possède de puissants outils d’administration<br />

(VMotion - migration à chaud de machines<br />

virtuelles entre serveurs <strong>et</strong> migration du stockage,<br />

sur-provisionnement du stockage, virtualisation<br />

bureau <strong>et</strong> réseau, technologie de sécurité virtuelle)<br />

<strong>et</strong> constitue une plateforme de virtualisation complète<br />

du bureau jusqu’au cloud computing en<br />

passant par le datacentre.<br />

La solution Microsoft Hyper-V Server repose sur<br />

l’hyperviseur de Windows Server. Elle perm<strong>et</strong> un<br />

faible encombrement <strong>et</strong> un minimum d’overhead<br />

<strong>et</strong> se connecte aux environnements existants pour<br />

tirer parti <strong>des</strong> outils <strong>et</strong> process déjà en place pour<br />

le provisionnement, la gestion, l’administration de<br />

correctifs <strong>et</strong> le support. Parmi les principales fonctions<br />

de Microsoft Hyper-V Server 2008 R2, on<br />

peut citer la migration à chaud, le support <strong>des</strong> volumes<br />

partagés de cluster <strong>et</strong> la montée en charge<br />

(processeurs <strong>et</strong> mémoire) sur le système hôte. La<br />

migration à chaud, intégrée à Windows Server<br />

2008® R2 Hyper-V, perm<strong>et</strong> de migrer <strong>des</strong> machines<br />

virtuelles sans interruption de service.<br />

En fonction <strong>des</strong> attentes de l’utilisateur, Citrix<br />

XENServer peut constituer une solution de virtualisation<br />

rentable puisque ses éléments de base<br />

21


(hyperviseur nu, architecture distribuée <strong>et</strong> résiliente,<br />

gestion XENServer <strong>et</strong> outils de conversion)<br />

sont gratuits. Les fonctions avancées de gestion <strong>et</strong><br />

d’automation telles que provisionnement virtuel,<br />

distributed virtual switching, migration à chaud<br />

instantanée, snapshots, récupération, rapports de<br />

performance <strong>et</strong> répartition de charge dynamique<br />

font que la solution XENServer est comparable aux<br />

deux autres produits dans sa version payante.<br />

BMC Software, Eucalyptus Systems, HP, IBM, Intel,<br />

RedHat, Inc. <strong>et</strong> SUSE ont annoncé la formation de<br />

l’Open Virtualization Alliance, qui vise à favoriser<br />

l’adoption de <strong>technologies</strong> de virtualisation open<br />

source, surtout la Kernel-based Virtual Machine<br />

fig 3.9<br />

(KVM). Ce consortium s’ajoute aux groupes gérant<br />

le développement de l’hyperviseur KVM <strong>et</strong><br />

autres capacités associées de gestion, à l’origine<br />

de nombreuses innovations technologiques pour<br />

les clients virtualisant <strong>des</strong> applications sous Linux<br />

ou Windows. Il prévoit d’accélérer l’expansion de<br />

solutions de tierces parties autour de la KVM <strong>et</strong> de<br />

fournir un avis technique ainsi que <strong>des</strong> exemples<br />

de bonnes pratiques.<br />

2.4.1 Potentiel d’économies d’énergie de<br />

la virtualisation<br />

La virtualisation est l’une <strong>des</strong> <strong>technologies</strong> les plus<br />

puissantes pour réduire la demande en énergie<br />

dans les datacentres <strong>et</strong> salles serveurs. La consolidation<br />

<strong>des</strong> matériels, en concentrant la charge<br />

de travail sur un nombre réduit de serveurs physiques,<br />

perm<strong>et</strong> souvent d’économiser 40 à 80 %<br />

d’énergie, voire plus. La technologie actuelle offre<br />

la possibilité de m<strong>et</strong>tre en œuvre une virtualisation<br />

avec un facteur de consolidation d’au moins<br />

10-20, en fonction <strong>des</strong> systèmes <strong>et</strong> <strong>des</strong> exigences<br />

spécifiques.<br />

La Figure 2.8 montre un exemple de consolidation<br />

de serveurs par virtualisation au ministère<br />

allemand de l’Environnement. Ces mesures spécifiques<br />

ont permis d’économiser environ 68 %<br />

d’énergie, avec une réduction <strong>des</strong> matériels à deux<br />

serveurs physiques sous VMware ESX [4].<br />

Power [Watt]<br />

5000<br />

4500<br />

4000<br />

3500<br />

3000<br />

2500<br />

2000<br />

Access Control<br />

Intran<strong>et</strong><br />

Help Desk<br />

IT Controlling<br />

VMware1<br />

SAN-Enclosure<br />

File Server<br />

MS SQL<br />

SPS<br />

SMS<br />

Root DC<br />

Office DC<br />

Office DC<br />

Un autre exemple de virtualisation par IBM [5]<br />

avec serveurs lames montre que les économies<br />

d’énergie pourraient dépasser 90 % si toutes les<br />

mesures appropriées étaient envisagées au niveau<br />

du matériel <strong>et</strong> de l’infrastructure.<br />

Ces exemples montrent bien que la consolidation<br />

par virtualisation est l’une <strong>des</strong> principales options<br />

pour améliorer sensiblement l’efficacité énergétique<br />

<strong>des</strong> datacentres. Toutefois, comme dans les<br />

autres approches purement informatiques, le potentiel<br />

d’économie ne peut être pleinement atteint<br />

que s’il s’accompagne de mesures parallèles sur<br />

l’infrastructure, notamment l’alimentation <strong>et</strong> le<br />

refroidissement.<br />

Inventory Server<br />

Software Packaging<br />

Logging Server<br />

Certificate Server<br />

VMware2<br />

Help Line<br />

Novatime<br />

System Monitoring<br />

Terminal Server<br />

CMF<br />

1500<br />

1000<br />

500<br />

0<br />

Old<br />

Exchange<br />

Exchange<br />

Exchange FE<br />

Conference Proxy<br />

4 Rack Monitor<br />

4 Rack Fan & KVM<br />

New<br />

FC Switch<br />

IT NSeries<br />

NSeries Storage<br />

NSeries Controler<br />

ESX1 Server<br />

Fig. 2.8 Réduction de la demande d’énergie par virtualisation : étude de cas [4]<br />

22


2 Équipements de serveurs<br />

2.4.2 Exigences <strong>et</strong> outils de planification<br />

de la virtualisation<br />

La stratégie de virtualisation <strong>des</strong> datacentres doit<br />

passer par une évaluation <strong>et</strong> une identification <strong>des</strong><br />

serveurs candidats appropriés.<br />

Pour ce faire, on recueillera <strong>des</strong> données sur la<br />

performance, l’utilisation du système, les chronologies<br />

de fin de service, le domaine d’activité <strong>et</strong> les<br />

spécifications de l’application. Une fois identifiés<br />

les candidats à la virtualisation, on analysera les<br />

spécifications de l’application <strong>et</strong> la charge de la<br />

machine. L’évaluation de la performance se fera<br />

entre autres autour <strong>des</strong> paramètres suivants, critères<br />

de sélection <strong>des</strong> matériels :<br />

• Performance du processeur ;<br />

• Mémoire nécessaire ;<br />

• Intensité E/S disque ;<br />

• Exigences réseau ;<br />

• Configuration du système d’exploitation.<br />

Il est généralement possible de consolider plusieurs<br />

applications sur un même serveur physique,<br />

lequel est protégé <strong>des</strong> défaillances matérielles <strong>et</strong><br />

coupures de courant tout en possédant la capacité<br />

d’équilibrer les charges. Pour atteindre c<strong>et</strong> objectif,<br />

les serveurs hôtes pourront avoir une double alimentation,<br />

<strong>des</strong> disques durs miroirs <strong>et</strong> <strong>des</strong> cartes<br />

réseaux groupées. On pourra utiliser un réseau de<br />

stockage SAN avec tolérance aux pannes. La répartition<br />

de la charge pourra enfin être étayée par<br />

la migration de machines virtuelles entre serveurs<br />

physiques.<br />

En fonction du type de charges, on pourra envisager<br />

un ratio de consolidation compris entre<br />

10:1 <strong>et</strong> 20:1. De nombreux environnements de<br />

virtualisation proposent une fonction de sur-provisionnement<br />

de mémoire : la mémoire affectée à<br />

l’ensemble <strong>des</strong> machines virtuelles peut alors excéder<br />

la mémoire physique disponible d’un facteur<br />

de 2 à 3.<br />

La virtualisation répond rarement à un simple souci<br />

d’économie d’énergie. Si une forte économie est<br />

en principe garantie, la réussite d’un proj<strong>et</strong> de virtualisation<br />

exige généralement une planification<br />

approfondie, avec un calcul du r<strong>et</strong>our sur investissement<br />

(ROI) <strong>et</strong> du coût total de possession (TCO).<br />

Le TCO d’un nouveau serveur virtuel se calcule en<br />

additionnant les facteurs de coûts. On pourra calculer<br />

un ROI à court <strong>et</strong> long termes pour évaluer le<br />

coût dans le temps.<br />

Pour bien estimer le ROI, il est essentiel de comprendre<br />

les coûts de virtualisation. Certains frais<br />

sont évidents, comme le matériel, les logiciels (<strong>et</strong><br />

leur licence) ou la main-d’œuvre. Mais la virtualisation<br />

peut aussi imposer l’achat de nouveaux<br />

serveurs plus puissants <strong>et</strong> la mise à niveau du<br />

stockage, du réseau, de la sécurité, <strong>et</strong>c., sans oublier<br />

les coûts de formation <strong>et</strong> de gestion : autant<br />

de facteurs à prendre en compte dans le calcul du<br />

ROI.<br />

Plusieurs outils logiciels disponibles sur le marché<br />

perm<strong>et</strong>tent de planifier un proj<strong>et</strong> de virtualisation<br />

<strong>et</strong> d’en évaluer le ROI <strong>et</strong> le TCO. L’outil Microsoft<br />

Assessment and Planning (MAP), par exemple,<br />

perm<strong>et</strong> de planifier la migration. Il inventorie <strong>et</strong><br />

évalue différents environnements informatiques<br />

pour la migration <strong>et</strong> la virtualisation sur diverses<br />

plateformes sans recourir à un logiciel agent. Les<br />

rapports qu’il génère fournissent <strong>des</strong> recommandations<br />

spécifiques sur la mise à niveau pour la<br />

migration vers Windows Vista <strong>et</strong> Windows Server<br />

2008 ainsi que pour la virtualisation. MAP fournit<br />

aussi <strong>des</strong> recommandations sur la façon de conso-<br />

Fig. 2.9 Exemple de calculateur de ROI/TCO par VMWare [6]<br />

23


lider <strong>des</strong> serveurs physiques dans un environnement<br />

virtualisé avec Microsoft Hyper-V. Le calculateur<br />

ROI perm<strong>et</strong> enfin d’estimer les économies<br />

d’énergie potentielles avec Hyper-V en amont de<br />

son déploiement. L’outil perm<strong>et</strong> d’examiner les<br />

serveurs de production <strong>et</strong> de développement existants<br />

<strong>et</strong> les possibilités de virtualisation du bureau<br />

<strong>et</strong> <strong>des</strong> applications en quantifiant les économies<br />

potentielles, les avantages en termes de niveau de<br />

service, l’investissement <strong>et</strong> le ROI.<br />

La méthodologie TCO/ROI proposée par VMware<br />

(disponible en tant qu’outil en ligne) perm<strong>et</strong> de<br />

comparer les économies de TCO, les investissements<br />

nécessaires <strong>et</strong> les avantages pour l’activité<br />

<strong>des</strong> solutions de virtualisation. Elle repose sur <strong>des</strong><br />

techniques financières standard, les données terrain<br />

<strong>et</strong> clients de VMware <strong>et</strong> les données sur les<br />

utilisateurs. Ces dernières perm<strong>et</strong>tent de calculer<br />

<strong>des</strong> chiffres clés tels qu’économies, investissements,<br />

ROI, valeur actualisée n<strong>et</strong>te, TCO <strong>et</strong> pério<strong>des</strong><br />

d’amortissement. Si ces données font défaut,<br />

les statistiques de la branche pourront être<br />

utilisées comme base de calcul.<br />

2.4.3 Gestion de l’énergie dans les environnements<br />

virtualisés : migration vers un<br />

serveur virtuel<br />

Les logiciels de virtualisation actuels supportent<br />

la migration de machines virtuelles <strong>et</strong> la mise<br />

hors service provisoire <strong>des</strong> hôtes pour réduire la<br />

demande en énergie. C’est le cas par exemple de<br />

VMware Vsphere4, dont la fonction distributed<br />

power management (DPM) surveille l’utilisation<br />

<strong>des</strong> ressources <strong>des</strong> machines virtuelles opérant au<br />

sein du cluster. En cas de capacité excédentaire,<br />

certaines de ces machines sont réparties de façon<br />

à pouvoir placer certains hôtes en mode veille <strong>et</strong><br />

ainsi économiser de l’énergie. Si la capacité devient<br />

insuffisante, ces hôtes sont rebasculés en<br />

mode actif.<br />

La gestion d’énergie peut se faire en mode automatique<br />

(migration <strong>des</strong> machines virtuelles <strong>et</strong><br />

mise en veille/sortie de veille <strong>des</strong> hôtes) ou manuel.<br />

On peut donc passer outre la configuration<br />

automatique pour chaque hôte <strong>et</strong> activer la gestion<br />

d’énergie sous forme de tâche planifiée.<br />

L’objectif de la fonction DPM de VMware est de<br />

maintenir l’utilisation <strong>des</strong> hôtes ESX du cluster<br />

dans une fourch<strong>et</strong>te cible. Mais pour réduire efficacement<br />

la consommation, la gestion de l’énergie<br />

doit remplir les critères suivants :<br />

• Évaluer précisément la demande en ressource.<br />

Une surestimation peut entraver les économies<br />

d’énergie tandis qu’une sous-estimation peut<br />

se traduire par une baisse <strong>des</strong> performances,<br />

voire une violation <strong>des</strong> accords de niveau de<br />

service ;<br />

• Éviter de m<strong>et</strong>tre en/hors tension les serveurs<br />

trop souvent, même en cas de fortes variations<br />

de la charge ;<br />

• Réagir rapidement à un accroissement soudain<br />

de la demande de façon à réduire la consommation<br />

sans sacrifier la performance ;<br />

• Bien sélectionner les hôtes à m<strong>et</strong>tre en/hors<br />

tension. Déconnecter un hôte hébergeant un<br />

grand nombre de machines virtuelles peut entraîner<br />

une violation de la fourch<strong>et</strong>te d’utilisation<br />

d’un ou plusieurs hôtes de plus p<strong>et</strong>ite taille.<br />

• Redistribuer intelligemment les machines virtuelles<br />

en tirant parti de la planification <strong>des</strong><br />

ressources distribuées (DRS).<br />

RECOMMANDATIONS DE BONNES PRATIQUES<br />

Bien évaluer <strong>et</strong> sélectionner sa solution de virtualisation :<br />

• Élaborer une stratégie <strong>et</strong> évaluer les serveurs pour sélectionner les bons candidats à la virtualisation.<br />

• Évaluer les exigences en termes de performance CPU, mémoire, intensité E/S disque, réseau <strong>et</strong> configuration<br />

du système d’exploitation.<br />

• Considérer le ratio de virtualisation approprié (de 1:6 à 1:20 en fonction <strong>des</strong> caractéristiques de la<br />

charge de travail).<br />

• Comparer les fonctionnalités <strong>des</strong> produits de différents fournisseurs en tenant compte <strong>des</strong> questions<br />

de licence, de gestion de l’énergie <strong>et</strong> du prix. Les principaux produits sur le marché ont chacun leurs<br />

points forts en fonction <strong>des</strong> besoins spécifiques en termes d’application.<br />

• Calculer le TCO <strong>et</strong> le ROI pour déterminer les avantages de la réduction du coût d’alimentation <strong>et</strong> du<br />

refroidissement. Les modèles fournis par les fabricants devront être affinés en fonction <strong>des</strong> besoins<br />

spécifiques de votre structure.<br />

• Étudier les options de gestion de l’énergie perm<strong>et</strong>tant la migration <strong>des</strong> machines virtuelles <strong>et</strong> la mise<br />

hors service temporaire <strong>des</strong> serveurs.<br />

• Envisager l’évolution du refroidissement <strong>et</strong> de l’alimentation (demande réduite <strong>et</strong> variant de façon<br />

dynamique) <strong>et</strong> vérifier la possibilité de revoir la conception du refroidissement.<br />

24


2 Équipements de serveurs<br />

La façon traditionnelle d’utiliser la DPM est de<br />

m<strong>et</strong>tre en/hors service <strong>des</strong> hôtes ESX en fonction<br />

d’un schéma d’utilisation sur une journée ou une<br />

semaine. Des services tels que messagerie, fax,<br />

intran<strong>et</strong> <strong>et</strong> interrogations de la base de données<br />

sont par exemple davantage utilisés pendant les<br />

heures de bureau. Le niveau d’utilisation peut<br />

chuter considérablement en dehors de ces plages<br />

horaires <strong>et</strong> la plupart <strong>des</strong> serveurs se trouvent ainsi<br />

sous-exploités. Ils peuvent alors être affectés à <strong>des</strong><br />

tâches de sauvegarde, archivage, répondre aux<br />

requêtes de pays étrangers, <strong>et</strong>c. La consolidation<br />

<strong>des</strong> machines virtuelles <strong>et</strong> la mise hors service <strong>des</strong><br />

hôtes superflus perm<strong>et</strong>tent de réduire la consommation<br />

d’énergie.<br />

On distingue deux gran<strong>des</strong> approches pour ajuster<br />

manuellement l’activité de la DPM :<br />

• Augmenter le ratio demande/capacité ciblé :<br />

pour économiser l’énergie en augmentant l’utilisation<br />

de l’hôte (en consolidant un plus grand<br />

nombre de machines virtuelles sur un nombre<br />

réduit d’hôtes), la valeur par défaut pourra être<br />

augmentée (par ex. de 63 à 70 %).<br />

• Utiliser VMware DPM pour forcer la mise en<br />

service de tous les hôtes avant 9 h, puis m<strong>et</strong>tre<br />

certains hôtes hors service après 17 h, par ex.<br />

C<strong>et</strong>te approche plus proactive évitera l’impact<br />

sur la performance que peut avoir le fait d’attendre<br />

que VMware DPM m<strong>et</strong>te en service <strong>des</strong><br />

hôtes en réponse à un pic soudain dans la demande.<br />

L’utilisation <strong>des</strong> ressources de chaque hôte ESX<br />

est calculée sous la forme demande/capacité pour<br />

chaque ressource (CPU <strong>et</strong> mémoire). La demande<br />

est la somme <strong>des</strong> ressources requises par les machines<br />

virtuelles en opération <strong>et</strong> la capacité, la<br />

somme <strong>des</strong> ressources disponibles sur l’hôte. La<br />

gestion de l’énergie <strong>des</strong> hôtes s’exécute donc en<br />

fonction de l’utilisation <strong>des</strong> ressources CPU <strong>et</strong><br />

mémoire par rapport à la gamme d’utilisation définie.<br />

Pour chaque hôte évalué, la DPM compare<br />

le coût d’une mise hors service en tenant compte<br />

<strong>des</strong> risques estimés avec les économies d’énergie<br />

pouvant raisonnablement être attendues.<br />

2.4.4 Refroidissement <strong>et</strong> infrastructures<br />

<strong>des</strong> systèmes virtualisés<br />

Si elle réduit sensiblement la consommation totale<br />

d’énergie, la virtualisation, surtout dans les<br />

systèmes de grande taille, peut entraîner un accroissement<br />

de la densité énergétique du rack. La<br />

gestion de l’énergie par migration <strong>des</strong> machines<br />

virtuelles entraîne par ailleurs un déplacement<br />

physique de la densité énergétique <strong>et</strong> thermique,<br />

d’où une demande localement accrue en alimentation<br />

<strong>et</strong> refroidissement. Des solutions appropriées<br />

devront être utilisées pour couvrir c<strong>et</strong>te<br />

demande <strong>et</strong> éviter la formation de zones chau<strong>des</strong>.<br />

Si la capacité d’alimentation <strong>et</strong> de refroidissement<br />

totale n’est pas adaptée à la demande minimum,<br />

la virtualisation peut détériorer le PUE, en réduisant<br />

la charge de refroidissement à un niveau très<br />

bas. Il est donc essentiel de bien dimensionner<br />

l’alimentation <strong>et</strong> le refroidissement pour tirer parti<br />

du potentiel d’économie d’énergie. Les pertes fixes<br />

doivent être réduites avec les mesures suivantes :<br />

• Réduire la capacité d’alimentation <strong>et</strong> de refroidissement<br />

pour s’adapter à la charge ;<br />

• Utiliser <strong>des</strong> ventilateurs à vitesse variable <strong>et</strong><br />

pompes à régulateur contrôlés par la demande ;<br />

• Utiliser <strong>des</strong> équipements à haute efficacité ;<br />

• Architecture de refroidissement avec circuits<br />

d’air raccourcis (par ex. au niveau de la rangée);<br />

• Utiliser un système de gestion adaptant la capacité<br />

à la demande ;<br />

• Utiliser <strong>des</strong> panneaux d’obturation pour limiter<br />

le mélange d’air au sein du rack.<br />

AVANT APRES APRES<br />

Charges constantes > Refroidissement stable<br />

Migration <strong>des</strong> charges haute densité > Besoins imprévisibles<br />

Fig. 2.10 Densité thermique avant <strong>et</strong> après virtualisation [5]<br />

25


RECOMMANDATIONS DE BONNES PRATIQUES<br />

Gestion efficace de l’énergie dans les systèmes virtualisés :<br />

Dans un environnement traditionnel avec faux<br />

plancher, le refroidissement du local peut être<br />

configuré pour cibler les zones de chauffe en<br />

ré-agençant les panneaux de sol ventilés. La migration<br />

dynamique <strong>des</strong> serveurs virtuels entraîne<br />

toutefois de nouvelles exigences <strong>et</strong> donc <strong>des</strong><br />

solutions de refroidissement en temps réel. Pour<br />

répondre à ce défi, on peut positionner <strong>des</strong> unités<br />

de refroidissement au sein <strong>des</strong> rangées <strong>et</strong> les<br />

équiper pour qu’elles détectent <strong>et</strong> répondent aux<br />

variations de température. En les plaçant à proximité<br />

<strong>des</strong> serveurs, on réduira la circulation d’air<br />

entre le refroidissement <strong>et</strong> la charge. Les variations<br />

dynamiques de l’alimentation dans les environnements<br />

virtualisés sont l’une <strong>des</strong> principales raisons<br />

justifiant l’adoption d’un refroidissement ciblé au<br />

niveau de la rangée ou du rack.<br />

• M<strong>et</strong>tre en œuvre <strong>des</strong> principes stricts de mise en place <strong>et</strong> de gestion <strong>des</strong> serveurs virtualisés <strong>et</strong><br />

éviter la prolifération anarchique <strong>des</strong> serveurs.<br />

• Utiliser les outils de migration pour m<strong>et</strong>tre hors service certains matériels en période de faible<br />

demande. Utiliser d’abord la gestion de l’énergie en mode automatique, puis développer ses<br />

propres configurations en fonction <strong>des</strong> rythmes d’utilisation.<br />

• Réduire le refroidissement en fonction de la demande <strong>et</strong> m<strong>et</strong>tre en place <strong>des</strong> équipements pour<br />

un refroidissement local en temps réel si nécessaire. Traiter les changements dynamiques dans<br />

l’espace.<br />

• Adapter les process <strong>et</strong> workflows liés au déploiement de machines virtuelles, à la sauvegarde <strong>et</strong><br />

restauration de données, à l’administration de correctifs, à la disponibilité, <strong>et</strong>c.<br />

Il est essentiel de disposer d’informations précises<br />

sur la demande en alimentation <strong>et</strong> refroidissement<br />

pour répondre aux variations <strong>des</strong> profils de charge.<br />

La gestion de capacité fournit l’instrument pour<br />

un suivi <strong>et</strong> une analyse en temps réel <strong>des</strong> capacités<br />

d’alimentation, de refroidissement <strong>et</strong> d’espace<br />

physique <strong>et</strong> perm<strong>et</strong> une utilisation efficiente<br />

<strong>et</strong> efficace d’un bout à l’autre du datacentre. Elle<br />

perm<strong>et</strong> aussi d’identifier les zones à capacité disponible<br />

ou dangereusement faible. Les systèmes<br />

de gestion de capacité doivent être capables de<br />

faire face aux problèmes suivants :<br />

• Changement de densité <strong>et</strong> de localisation de la<br />

charge : la virtualisation peut créer <strong>des</strong> zones<br />

de chauffe, par ex. du fait de la migration <strong>des</strong><br />

machines virtuelles ;<br />

• Changements de système dynamiques : il peut<br />

être difficile de maintenir la stabilité du système<br />

si plusieurs parties procèdent à <strong>des</strong> changements<br />

sans coordination centrale ;<br />

• Interdépendances : la virtualisation rend plus<br />

complexes les dépendances partagées <strong>et</strong> eff<strong>et</strong>s<br />

secondaires de la relation entre capacités d’alimentation,<br />

refroidissement <strong>et</strong> espace ;<br />

• Provisionnement d’alimentation <strong>et</strong> de refroidissement<br />

: la charge électrique <strong>et</strong> thermique<br />

monte <strong>et</strong> <strong>des</strong>cend à mesure que de nouvelles<br />

machines virtuelles sont créées. On pourra utiliser<br />

<strong>des</strong> systèmes d’alimentation <strong>et</strong> de refroidissement<br />

extensibles.<br />

26


2 Équipements de serveurs<br />

Pour aller plus loin<br />

HP (2011) : HP Power capping and HP Dynamic power<br />

capping for ProLiant servers. Hewl<strong>et</strong>t Packard<br />

Development company.<br />

SPEC (2011) : Server Efficiency Rating Tool (SERT)<br />

TM Design Document. 3rd draft. Standard Performance<br />

Evaluation Cooperation<br />

Rasmussen, N. (2010) : Strategies for deploying<br />

blade servers in existing data centres. White paper<br />

125. APC Schneider Electric<br />

80 PLUS (2011) : 80 PLUS power supplies.<br />

www.plugloadsolutions.com<br />

Schäppi B. <strong>et</strong> al. (2009) : Energy and cost savings<br />

by energy efficient servers. IEE E-Server best<br />

practice cases. Brochure 2009<br />

IBM (2011) : Server Management suite, Module<br />

Active Energy Manager<br />

www-03.ibm.com/systems/software/director/aem/<br />

HP (2011) : Server managment suite «Systems<br />

Insight Manager» www.hp.com<br />

VMware DPM : Information Guide: VMware Distributed<br />

Power Management Concepts and Use.<br />

www.vmware.com<br />

VMware TCO : VMware ROI TCO Calculator,<br />

Overview and Analysis.<br />

http://roitco.vmware.com/vmw/<br />

Sources<br />

[1] EPA (2010) : Energy Star ENERGY STAR®<br />

Program Requirements for Computer Servers (vers<br />

1.1)<br />

[2] SPEC (2010) : SPEC power and performance.<br />

Benchmark m<strong>et</strong>hodology 2.0. Standard Performance<br />

Evaluation Cooperation<br />

[3] 80 PLUS (2011) : 80 PLUS power supplies.<br />

www.plugloadsolutions.com<br />

[4] Schäppi B. <strong>et</strong> al. (2009) : Energy and cost<br />

savings by energy efficient servers. IEE E-Server<br />

best practice cases. Brochure 2009<br />

[5] BITKOM (2010) : Bitkom/Beschaffungsamt<br />

<strong>des</strong> Bun<strong>des</strong>ministeriums <strong>des</strong> Innern, Leitfaden<br />

Produktneutrale Leistungsbeschreibung x86-Server,<br />

2010<br />

[5] Comtec Power : Overcoming the Challenges<br />

of Server Virtualization. www.comtec.com<br />

[6] VMware TCO : VMware ROI TCO Calculator,<br />

Overview and Analysis.<br />

http://roitco.vmware.com/vmw/<br />

[7] The Green Grid (2010) : White paper Nr.<br />

33 “A roadmap for the adoption of power-related<br />

features in servers”, Pflueger, J., <strong>et</strong> al., The Green<br />

Grid, 2010<br />

27


3 Équipements de stockage de données<br />

Marcos Dias de Asunção, Laurent Lefèvre, INRIA<br />

Si l’information est au cœur de toute activité, le stockage <strong>et</strong> l’accès aux<br />

données sont devenus un véritable défi pour les entreprises. On estime que<br />

les besoins en stockage devraient être multipliés par 44 entre 2010 <strong>et</strong> 2020<br />

[1] <strong>et</strong> les stratégies d’optimisation de l’efficacité énergétique connaissent<br />

une demande sans précédent. La chute constante du prix par Mo de stockage<br />

fait qu’il est devenu plus simple <strong>et</strong> moins coûteux de se doter de<br />

capacités supplémentaires que de chercher <strong>des</strong> solutions aux doublons <strong>et</strong><br />

autres formes de stockage superflu.<br />

Or le coût de l’alimentation <strong>et</strong> du refroidissement <strong>des</strong> ressources de stockage<br />

est désormais envisagé comme un problème <strong>et</strong> les inefficacités sont<br />

bien moins tolérées. Des étu<strong>des</strong> montrent que les gran<strong>des</strong> entreprises sont<br />

actuellement confrontées à un problème de capacité d’alimentation <strong>et</strong> de<br />

refroidissement alors que les entreprises de taille moyenne ont du mal à<br />

trouver la surface suffisante pour leurs systèmes de stockage [2]. Le stockage<br />

<strong>des</strong> données représentant une part importante de l’énergie consommée<br />

par les datacentres, il est essentiel d’améliorer l’efficacité énergétique<br />

<strong>des</strong> systèmes <strong>et</strong> de choisir les solutions adéquates pour le déploiement<br />

d’une infrastructure de stockage.<br />

Ce chapitre passe en revue quelques <strong>technologies</strong> favorisant l’efficacité énergétique<br />

<strong>des</strong> solutions de stockage de données. Il fournit également <strong>des</strong> recommandations de<br />

bonnes pratiques qui pourront s’ajouter auxdites solutions pour améliorer l’efficacité<br />

de l’infrastructure de stockage dans les entreprises <strong>et</strong> datacentres.<br />

Les solutions de stockage telles que les ensembles de disques sont composées d’un<br />

support offrant une capacité de stockage brute <strong>et</strong> de composants supplémentaires<br />

servant d’interface <strong>et</strong> améliorant la fiabilité d’ensemble. On distingue communément<br />

deux niveaux auxquels peuvent s’appliquer les stratégies d’amélioration de leur efficacité<br />

énergétique : les « appareils », ou composants individuels formant le stockage<br />

brut (lecteurs de bande, disques durs <strong>et</strong> SSD notamment), <strong>et</strong> les « éléments », solutions<br />

composites tels que produits de stockage en réseau. Nous évoquerons dans un premier<br />

temps les solutions s’appliquant aux différents appareils avant d’analyser la façon dont<br />

ces techniques sont utilisées <strong>et</strong> combinées pour améliorer l’efficacité énergétique <strong>des</strong><br />

éléments.<br />

3.1 Appareils de stockage<br />

3.1.1 Systèmes à ban<strong>des</strong><br />

Les ban<strong>des</strong> sont souvent considérées comme l’un<br />

<strong>des</strong> supports les plus rentables pour le stockage<br />

<strong>des</strong> données à long terme. Plusieurs étu<strong>des</strong> [3][4]<br />

montrent que :<br />

• Dans la perspective d’un stockage à long terme,<br />

comme la sauvegarde <strong>et</strong> l’archivage dans les<br />

datacentres de taille moyenne, les disques durs<br />

peuvent être jusqu’à 23 fois plus chers que les<br />

solutions à bande <strong>et</strong> coûter 290 fois plus cher à<br />

alimenter <strong>et</strong> refroidir ;<br />

• La consolidation <strong>des</strong> données avec un système<br />

d’archives sur ban<strong>des</strong> peut diminuer considérablement<br />

le coût <strong>des</strong> centres de stockage. Les<br />

bandothèques à forte capacité peuvent remplacer<br />

les îlots de données grâce à la consolidation<br />

<strong>des</strong> opérations de sauvegarde, entraînant une<br />

réduction <strong>des</strong> coûts d’infrastructure <strong>et</strong> sans<br />

doute une plus grande efficacité énergétique.<br />

Avec une durée de vie de 30 ans <strong>et</strong> de fortes capacités<br />

de stockage, les ban<strong>des</strong> sont une solution<br />

attractive pour les datacentres ayant <strong>des</strong> besoins<br />

importants en sauvegarde <strong>et</strong> archivage à long<br />

terme. Dans un environnement à plusieurs niveaux<br />

de stockage, les systèmes à ban<strong>des</strong> restent donc<br />

les solutions les plus efficaces pour un archivage<br />

à long terme <strong>et</strong> un faible taux de consultation <strong>des</strong><br />

fichiers archivés. Cependant, certaines solutions<br />

de bibliothèques sur disque cherchent aujourd’hui<br />

à minimiser l’impact de la consommation <strong>des</strong><br />

disques par <strong>des</strong> techniques telles que le spindown.<br />

Ces <strong>technologies</strong> sont évoquées plus bas.<br />

28


Axe de l’actionneur<br />

Actionneur<br />

Tête de lecture/écriture<br />

Bras de l’actionneur<br />

Plateau<br />

Axe<br />

Cavaliers<br />

Alimentation électrique<br />

Fig. 3.1 Composants d’un DD<br />

Interface IDE<br />

3.1.2 Disques durs (DD)<br />

Les disques durs (DD) sont depuis longtemps le<br />

support de référence pour le stockage non-volatile<br />

de données, grâce à leur rapidité d’écriture<br />

<strong>et</strong> de lecture. Leur consommation d’énergie est<br />

essentiellement liée à leurs pièces mobiles, telles<br />

que moteurs <strong>et</strong> têtes de lecture (voir Figure 3.1).<br />

Afin d’accroître le débit de données, les fabricants<br />

augmentent la vitesse de rotation <strong>des</strong> plateaux, <strong>et</strong><br />

donc la consommation d’énergie. Les DD à haut<br />

débit actuels tournent généralement à 15 000 tr/<br />

min.<br />

Plusieurs techniques perm<strong>et</strong>tent d’améliorer<br />

l’efficacité <strong>des</strong> DD, comme stocker les données<br />

à certains endroits du plateau pour réduire l’effort<br />

mécanique lié à la récupération, contrôler la<br />

vitesse <strong>des</strong> plateaux <strong>et</strong> réduire la consommation<br />

en période de repos. Une autre technique répandue,<br />

appelée spin-down, consiste à ralentir les<br />

plateaux <strong>et</strong> parquer les têtes dans une zone sécurisée<br />

après une période d’inactivité définie en<br />

usine. Plutôt que de m<strong>et</strong>tre les plateaux à l’arrêt<br />

compl<strong>et</strong>, certains DD les font tourner à une vitesse<br />

variant en fonction de la charge (lecture/écriture).<br />

Certains DD ont plusieurs états de repos <strong>et</strong> de<br />

veille, avec plusieurs actions à mesure que la période<br />

d’inactivité se prolonge (par ex. désactivation<br />

du système d’asservissement, puis parcage<br />

<strong>des</strong> têtes <strong>et</strong> enfin spin-down <strong>des</strong> plateaux). La<br />

technologie PowerChoice de Seagate [5], par<br />

exemple, augmente le nombre de composants<br />

désactivés à partir de seuils d’activité prédéfinis.<br />

Les états intermédiaires présentent un temps de<br />

récupération généralement plus court que l’état<br />

de spin-down.<br />

Le Tableau 3.1 montre que la consommation en<br />

veille est d’environ 50 % inférieure à celle en<br />

mode repos. Ce type d’approche pourrait perm<strong>et</strong>tre<br />

d’importantes économies sur les systèmes<br />

RAID <strong>et</strong> MAID (Massive arrays of idle disks).<br />

Tab. 3.1 Profil de la technologie PowerChoice sur un disque 2,5’’ Constellation<br />

État Puissance (W) Économie d’énergie*<br />

(%)<br />

Standby_Z 1.29 54 8 60 min.<br />

* Les estimations en termes d’économie d’énergie <strong>et</strong> le temps de récupération constituent <strong>des</strong> valeurs préliminaires ; les chiffres mentionnés s’appliquent<br />

au disque dur 2,5 pouces Seagate® Constellation SAS.<br />

Temps de récupération<br />

(s)<br />

Temporisateur par défaut<br />

avant activation<br />

Idle 2.82 0 0 n/a<br />

Idle_A 2.82 0 0 1 sec.<br />

Idle_B 2.18 23 0.5 10 min.<br />

Idle_C 1.82 35 1 30 min.<br />

29


Le spin-down pouvant limiter les performances<br />

du DD, les fabricants travaillent sur d’autres techniques,<br />

comme augmenter la taille du cache <strong>et</strong><br />

m<strong>et</strong>tre en queue les instructions de lecture/écriture.<br />

Pour profiter <strong>des</strong> techniques du spin-down <strong>et</strong><br />

de la vitesse de rotation variable, il a été envisagé<br />

d’augmenter la durée <strong>des</strong> pério<strong>des</strong> d’inactivité du<br />

disque au niveau du système d’exploitation <strong>et</strong> <strong>des</strong><br />

applications. Certaines de ces approches consistent<br />

à reprogrammer les requêtes d’accès en<br />

modifiant le code d’application ou la répartition<br />

<strong>des</strong> données. D’autres techniques moins intrusives<br />

perm<strong>et</strong>tent de reprogrammer les requêtes au niveau<br />

du compilateur, sans avoir à toucher au code<br />

source de l’application. Si ces techniques peuvent<br />

réduire la consommation d’énergie, la répétition<br />

de cycles on/off pourrait toutefois entraver la durée<br />

de vie <strong>des</strong> DD.<br />

Moteurs <strong>et</strong> actionneurs étant les principaux responsables<br />

de la consommation d’énergie <strong>des</strong> DD,<br />

la miniaturisation pourrait contribuer à les rendre<br />

plus efficaces. Un DD 2,5’’ occupant environ<br />

quatre fois moins de place qu’un DD 3,5’’ (voir<br />

Figure 3.2), un châssis d’un volume suffisant pour<br />

recevoir 16 DD 3,5’’ peut être réorganisé pour accueillir<br />

jusqu’à 48 DD 2,5’’ sans avoir à accroître<br />

le volume total. Les DD hautes performances dans<br />

un boîtier 2,5’’ affichent une consommation réduite<br />

: leurs moteurs <strong>et</strong> actionneurs, plus p<strong>et</strong>its,<br />

ém<strong>et</strong>tent aussi moins de chaleur. Les fabricants affirment<br />

que sur les DD 2,5’’ de type Tier-1, la performance<br />

IOPS/W peut être jusqu’à 2,5 fois supérieure<br />

à celle d’un DD 3,5’’ [6]. Le refroidissement<br />

consomme moins d’énergie du fait que la chaleur<br />

émise <strong>et</strong> l’encombrement au sol sont réduits.<br />

Le Tableau 3.2 indique la consommation approximative<br />

de deux modèles de DD hautes<br />

performances produits par Seagate. Le DD 2,5’’<br />

consomme environ 46 % d’énergie en moins<br />

que son homologue 3,5’’ en mode actif. L’écart<br />

de consommation peut atteindre 53 % en mode<br />

repos. Si l’on considère le coût d’alimentation de<br />

Fig. 3.2 Disque dur 2,5 pouces posé sur un DD 3,5’’ (source: Wikipedia)<br />

24 DD seulement sur un an, avec un kWh à 0,11<br />

€, la différence entre DD 3,5’’ <strong>et</strong> 2,5’’ en mode<br />

actif avoisinerait les 140 €. Dans <strong>des</strong> datacentres<br />

avec systèmes de stockage sur plusieurs centaines,<br />

voire milliers de disques, les économies peuvent<br />

ainsi se chiffrer en milliers ou dizaines de milliers<br />

d’euros.<br />

Tab. 3.2 Consommation électrique de deux DD hautes performances de Seagate<br />

Caractéristiques Che<strong>et</strong>ah 15K.7 300GB* Savvio 15K.2 146GB* Variation<br />

Facteur de forme 3.5“ 2.5“ –<br />

Capacité 300 GB 146 GB –<br />

Interface SAS 6 Gb/s SAS 6 Gb/s –<br />

Vitesse de rotation (tr/min) 15 000 15 000 –<br />

Consommation moy. au repos (W) 8,74 4,1 -53%<br />

Consommation moy. en<br />

fonctionnement (W)<br />

* Source : fiches techniques consultables sur le site du fabricant<br />

12,92 6,95 -46.2%<br />

30


3 Équipements de stockage de données<br />

3.1.3 Disques SSD<br />

Tab. 3.3 Consommation électrique d’un SSD <strong>et</strong> d’un DD de Seagate<br />

Les SSD sont constitués, entre autres, d’une mémoire<br />

flash <strong>et</strong> d’un contrôleur assurant diverses<br />

tâches. Ils reposent sur la technologie flash NAND,<br />

qui emploie l’un <strong>des</strong> deux types de cellules de mémoire<br />

en fonction du nombre de bits que la cellule<br />

peut stocker (1 bit par cellule pour le flash SLC<br />

tandis que les mémoires MLC peuvent souvent<br />

stocker 2 ou 4 bits par cellule). La plupart <strong>des</strong> SSD<br />

bon marché font appel au flash MLC tandis que<br />

les appareils haut de gamme sont en SLC.<br />

Du fait de l’absence de parties mécaniques (moteurs<br />

<strong>et</strong> actionnneurs), les SSD sont supérieurs<br />

Caractéristiques Savvio 15K.2 73GB* Pulsar SSD 50GB* Variation<br />

Facteur de forme 3.5“ 2.5“ –<br />

Capacité 73 GB 50 GB –<br />

Interface<br />

SAS 3 Gb/s<br />

SAS 6 Gb/s<br />

SATA 3 Gb/s –<br />

Vitesse de rotation (tr/min) 15 000 – –<br />

Type de flash NAND – SLC –<br />

Consommation moy. au repos (W) 3,7 0,65 -82,4%<br />

Consommation moy. en<br />

fonctionnement (W)<br />

* Source : fiches techniques consultables sur le site du fabricant<br />

6,18 0,8 -87%<br />

aux DD par l’efficacité énergétique <strong>et</strong> la fiabilité.<br />

Ils génèrent aussi moins de chaleur <strong>et</strong> peuvent<br />

être placés dans <strong>des</strong> boîtiers plus p<strong>et</strong>its, ce qui<br />

réduit l’encombrement physique <strong>et</strong> les besoins<br />

en refroidissement. Le Tableau 3.3 présente une<br />

comparaison simple entre le SSD d’entreprise Pulsar<br />

(Seagate) <strong>et</strong> un DD SAS haute performance à<br />

15 000 tr/min. Le SSD consomme environ 87 %<br />

moins que le DD en mode actif <strong>et</strong> 82 % moins<br />

en mode repos. En pratique, les économies d’énergie<br />

dépendront toutefois de la façon dont les<br />

solutions de stockage utilisent les disques <strong>et</strong> <strong>des</strong><br />

caractéristiques de la charge de travail à laquelle<br />

ceux-ci sont soumis.<br />

3.1.4 Disques durs hybri<strong>des</strong> (HDD)<br />

Les HDD sont <strong>des</strong> disques équipés d’une importante<br />

mémoire tampon (buffer) composée de mémoire<br />

flash non volatile afin de minimiser les opérations<br />

de lecture ou d’écriture sur les plateaux.<br />

Plusieurs algorithmes sont utilisés pour faire fonctionner<br />

ce buffer [7]. Plus ce dernier est volumineux,<br />

plus longtemps les plateaux pourront rester<br />

en mode repos. La mémoire flash supplémentaire<br />

perm<strong>et</strong> aussi de réduire la consommation <strong>des</strong> moteurs<br />

<strong>et</strong> bras mécaniques <strong>et</strong> ainsi celle <strong>des</strong> solutions<br />

de stockage dans leur ensemble. Les HDD<br />

présentent <strong>des</strong> besoins en énergie potentiellement<br />

réduits par rapport aux DD classiques, mais leur<br />

application au stockage d’entreprise reste limitée.<br />

RECOMMANDATIONS DE BONNES PRATIQUES<br />

Évaluer les avantages <strong>des</strong> différentes <strong>technologies</strong> de stockage de données dans<br />

l’achat de matériels <strong>et</strong> la conception de systèmes<br />

• Les ban<strong>des</strong> sont la solution la plus efficace pour le stockage à long terme.<br />

• Les disques durs actuels possèdent <strong>des</strong> plateaux à vitesse de rotation variable pour économiser<br />

l’énergie.<br />

• Les multiples états de repos <strong>des</strong> DD perm<strong>et</strong>tent <strong>des</strong> économies d’énergie considérables au<br />

sein de solutions de stockage composites telles qu’ensembles de disques <strong>et</strong> MAID.<br />

• Les SSD sont plus chers, mais beaucoup plus efficaces que les HDD.<br />

• Les SSD peuvent être envisagés comme couche de stockage haute performance.<br />

31


3.2 Éléments de stockage<br />

C<strong>et</strong>te partie présente les techniques matérielles<br />

pouvant être utilisées <strong>et</strong> combinées pour améliorer<br />

l’efficacité énergétique <strong>des</strong> solutions de<br />

stockage composites telles que les ensembles de<br />

disques <strong>et</strong> le stockage à connexion directe (DAS)<br />

ou en réseau (NAS). Elle analyse aussi les solutions<br />

spécifiques au niveau éléments.<br />

3.2.1 Disques de grande capacité <strong>et</strong> miniaturisation<br />

Pour les applications ne nécessitant pas un stockage<br />

haute performance, les disques de grande<br />

capacité présentent généralement une efficacité<br />

énergétique accrue. Un DD SATA traditionnel<br />

consomme jusqu’à moitié moins par To de stockage<br />

qu’un disque Fibre Channel [8].<br />

Comme on l’a vu, les boîtiers miniaturisés perm<strong>et</strong>tent<br />

un gain d’espace dans les datacentres <strong>et</strong><br />

Tous les disques tournent<br />

à pleine vitesse : hautes<br />

performances, mais<br />

consommation maximum<br />

une réduction de l’empreinte énergétique grâce à<br />

leurs DD 2,5’’ plus efficaces. Dell a ainsi comparé<br />

deux de ses ensembles de disques avec le banc<br />

d’essai SPC-1C du Storage Performance Council :<br />

l’une avec <strong>des</strong> DD 3,5’’, l’autre avec <strong>des</strong> DD 2,5’’<br />

[9]. Les résultats montrent qu’en plus d’accroître<br />

la performance de 93 %, l’ensemble composé de<br />

DD 2,5’’ consommait 40 % moins d’énergie.<br />

3.2.2 Baies de disques de type MAID<br />

La technologie MAID (massive array of idle disks)<br />

combine la mémoire cache <strong>et</strong> le mode repos pour<br />

traiter les requêtes, ne rehaussant les disques<br />

qu’en fonction <strong>des</strong> besoins. L’immobilisation <strong>des</strong><br />

disques les moins demandés perm<strong>et</strong> de réduire la<br />

consommation d’énergie (voir Figure 3.3). Fujitsu,<br />

par exemple, perm<strong>et</strong> à ses clients de définir <strong>des</strong><br />

pério<strong>des</strong> durant lesquelles les disques devront<br />

être ralentis (ou mis hors service) en fonction de la<br />

charge ou du rythme de sauvegarde.<br />

L’ampleur <strong>des</strong> économies d’énergie à réaliser avec<br />

une baie MAID dépend de l’application <strong>et</strong> de la<br />

fréquence d’accès aux disques. Les critères r<strong>et</strong>enus<br />

pour décider de quand placer les disques en mode<br />

veille ou repos (puis les en sortir) ont un impact<br />

sur la consommation d’énergie ainsi que sur les<br />

performances. À l’origine, la technique MAID ne<br />

perm<strong>et</strong>tait aux HDD que d’être en position « on<br />

» ou « off », avec un lourd impact sur les performances<br />

d’une application si celle-ci avait besoin<br />

d’accéder à <strong>des</strong> données situées sur un disque<br />

en veille. La MAID de deuxième génération,<br />

ou « MAID 2.0 », est équipée d’une gestion de<br />

l’énergie intelligente (IPM), avec différents mo<strong>des</strong><br />

d’économie d’énergie (adaptés aux différents besoins<br />

de la qualité de service) <strong>et</strong> de performance.<br />

L’utilisateur peut ainsi configurer l’équilibre entre<br />

réactivité <strong>et</strong> économie d’énergie. Ces mo<strong>des</strong> multiples<br />

font appel notamment aux différents états<br />

de repos du disque décrits plus haut.<br />

Parmi les autres techniques de conservation de<br />

l’énergie pour les ensembles de disques figurent la<br />

popular data concentration (PDC) [10] <strong>et</strong> autres<br />

mécanismes d’attribution de fichiers [11]. L’idée<br />

qui sous-tend c<strong>et</strong>te approche est de consolider les<br />

données auxquelles le système accède le plus souvent<br />

en les sauvegardant ou les migrant vers une<br />

sous-série de disques. La charge est ainsi dirigée<br />

vers un plus p<strong>et</strong>it nombre de disques, les autres<br />

pouvant être basculés en mode basse consommation.<br />

25% <strong>des</strong> disques sont en<br />

spin-down : jusqu’à 25%<br />

d’économie d’énergie,<br />

mais baisse relative de la<br />

performance<br />

32<br />

Fig. 3.3 Représentation schématique d’un MAID<br />

3.2.3 Niveaux de RAID efficaces<br />

L’efficacité du stockage varie aussi avec le niveau<br />

de RAID : en termes de protection <strong>des</strong> données,<br />

certains niveaux tels que RAID-6 présentent un<br />

overhead important. Une implémentation RAID-6<br />

haute performance peut toutefois fournir le même<br />

niveau de performance que RAID-5 avec jusqu’à<br />

48 % de réduction <strong>des</strong> exigences de capacités sur<br />

disque par rapport à RAID-10.


3 Équipements de stockage de données<br />

Serveur<br />

Volume virtuel (10 TB)<br />

(capacité de stockage reconnue par le serveur)<br />

Pool de disques physiques (2 TB)<br />

(capacité de stockage réellement disponible)<br />

ÉCRITURE<br />

Écriture de données<br />

ÉCRITURE<br />

ÉCRITURE<br />

Fig. 3.4 Allocation granulaire de capacité (Source : Fujitsu ETERNUS solutions)<br />

3.2.4 Tiering horizontal, virtualisation du<br />

stockage <strong>et</strong> allocation granulaire de capacité<br />

L’utilisation efficace d’une infrastructure de stockage<br />

suppose d’élaborer <strong>et</strong> de m<strong>et</strong>tre en œuvre<br />

de bons principes de gestion en hiérarchisant le<br />

stockage en fonction de la fréquence d’accès aux<br />

données, de leur caractère recyclé ou non <strong>et</strong> de<br />

la durée de conservation (selon exigences opérationnelles<br />

ou réglementaires). Les fabricants<br />

de solutions de stockage proposent <strong>des</strong> logiciels<br />

qui hiérarchisent automatiquement les données<br />

en les transférant vers le niveau de tier adéquat<br />

d’après un suivi de la performance. On peut citer<br />

par exemple Fully Automated Storage Tiering<br />

(FAST, EMC2), System Storage Easy Tier (IBM),<br />

Data Progression (Compellent) <strong>et</strong> Data Migration<br />

Facility (DMF, SGI).<br />

Combiner virtualisation <strong>des</strong> serveurs <strong>et</strong> virtualisation<br />

du stockage perm<strong>et</strong> de créer <strong>des</strong> pools de<br />

disques <strong>et</strong> <strong>des</strong> volumes virtuels dont la capacité<br />

pourra être augmentée à la demande en fonction<br />

<strong>des</strong> besoins <strong>des</strong> applications. L’efficacité <strong>des</strong> baies<br />

de stockage traditionnelles est généralement comprise<br />

entre 30 <strong>et</strong> 40 %. Selon certains travaux [12],<br />

la virtualisation du stockage pourrait la porter à<br />

70 %, voire plus, en réduisant les exigences de<br />

stockage <strong>et</strong> augmentant les économies d’énergie.<br />

La virtualisation du tiering, ou gestion hiérarchique<br />

du stockage (HSM), perm<strong>et</strong> aux données<br />

de migrer automatiquement entre différents<br />

types de supports sans que l’utilisateur ne s’en<br />

aperçoive, grâce à <strong>des</strong> systèmes logiciels. C<strong>et</strong>te<br />

approche perm<strong>et</strong> de réduire le coût <strong>et</strong> la consommation<br />

d’énergie en n’adm<strong>et</strong>tant que les données<br />

auxquelles l’utilisateur accède le plus souvent sur<br />

les supports haute performance tandis que les<br />

données moins utilisées sont stockées sur <strong>des</strong><br />

équipements moins onéreux <strong>et</strong> plus efficaces,<br />

utilisant <strong>des</strong> techniques telles que la MAID <strong>et</strong> la<br />

déduplication.<br />

L’allocation granulaire de capacité, technologie<br />

qui vient souvent en complément de la virtualisation<br />

du stockage, vise à maximiser l’utilisation <strong>des</strong><br />

supports <strong>et</strong> éliminer les capacités pré-attribuées<br />

mais non utilisées. L’espace de stockage n’est provisionné<br />

qu’au moment de l’écriture <strong>des</strong> données.<br />

La capacité de réserve est généralement fixée à<br />

zéro au lieu d’être définie par le stockage maximum<br />

exigé par les applications. Les volumes sont<br />

étendus en ligne <strong>et</strong> <strong>des</strong> capacités sont ajoutées<br />

sur-le-champ pour s’adapter aux variations sans<br />

interruption de l’activité (voir Figure 3.4). L’allocation<br />

granulaire de capacité peut se traduire par<br />

<strong>des</strong> économies d’énergie en réduisant la nécessité<br />

de sur-provisionner les capacités de stockage.<br />

33


3.2.5 Consolidation au niveau du stockage<br />

<strong>et</strong> de la matrice<br />

La consolidation du stockage n’est pas un suj<strong>et</strong><br />

récent : les réseaux SAN (storage area n<strong>et</strong>works)<br />

fournissent un certain degré de consolidation <strong>et</strong><br />

d’efficacité depuis plusieurs années en partageant<br />

les baies de disques à travers plusieurs serveurs<br />

par le biais d’un réseau privé local, évitant ainsi la<br />

formation d’îlots de données. Passer du stockage<br />

à connexion directe (DAS) au stockage en réseau<br />

présente plusieurs avantages en termes d’efficacité<br />

énergétique. La consolidation <strong>des</strong> équipements<br />

de stockage de données peut entraîner à la fois<br />

<strong>des</strong> économies substantielles en termes d’encombrement<br />

au sol <strong>et</strong> de consommation d’énergie.<br />

Certains fabricants affirment qu’en fournissant un<br />

équipement de réseau multi-protocole, la matrice<br />

réseau peut être consolidée sur un nombre réduit<br />

de ressources, ce qui réduit aussi l’encombrement,<br />

la consommation d’énergie <strong>et</strong> les besoins en refroidissement.<br />

3.2.6 Déduplication <strong>des</strong> données<br />

Les infrastructures de stockage conservent souvent<br />

un grand nombre de copies <strong>des</strong> mêmes données.<br />

Les centres de stockage utilisent plusieurs niveaux<br />

de duplication, parfois nécessaires pour améliorer<br />

la fiabilité <strong>et</strong> le débit de données. Mais il est également<br />

possible de minimiser le gaspillage <strong>et</strong> donc<br />

de recycler les capacités de stockage. Les solutions<br />

SAN actuelles font appel à <strong>des</strong> techniques de déduplication<br />

pour réduire les doublons, qui interviennent<br />

principalement au niveau <strong>des</strong> blocs de<br />

données <strong>et</strong> <strong>des</strong> fichiers.<br />

En dehors du niveau de déduplication, ces techniques<br />

se distinguent selon qu’elles agissent avant<br />

ou après l’écriture <strong>des</strong> données sur le disque. Les<br />

deux approches ont leurs avantages <strong>et</strong> inconvénients.<br />

Tout en réduisant les besoins en support<br />

de stockage, la déduplication après écriture <strong>des</strong><br />

données sur le disque exige une mise en cache<br />

pour la suppression <strong>des</strong> doublons. Pour les applications<br />

de sauvegarde, c<strong>et</strong>te technique entraîne<br />

généralement <strong>des</strong> fenêtres de sauvegarde réduites<br />

<strong>et</strong> une moindre dégradation <strong>des</strong> performances. Les<br />

techniques de déduplication se distinguent enfin<br />

par leur lieu d’intervention : à la source (client),<br />

à la cible (serveur) ou via un périphérique dédié<br />

connecté au serveur.<br />

Du fait qu’elles perm<strong>et</strong>tent aux entreprises de<br />

recycler leurs capacités de stockage <strong>et</strong> de réduire<br />

leurs besoins en supports, les solutions de déduplication<br />

sont considérées comme une technique<br />

de réduction de la consommation d’énergie. En<br />

pratique, les économies dépendent du degré de<br />

granularité. Les solutions qui segmentent les données<br />

(« hash ») <strong>et</strong> agissent au niveau <strong>des</strong> fichiers<br />

sont généralement moins efficaces, mais génèrent<br />

moins d’overhead. L’efficacité <strong>des</strong> techniques au<br />

niveau <strong>des</strong> blocs est généralement inversement<br />

proportionnelle à la taille de ces derniers.<br />

Si la déduplication <strong>des</strong> données constitue une<br />

technologie prom<strong>et</strong>teuse pour réduire le gaspillage<br />

<strong>et</strong> la consommation d’énergie, elle ne<br />

convient pas à toutes les applications. Dédupliquer<br />

<strong>des</strong> données avant qu’elles ne soient stockées sur<br />

le disque, par exemple, peut entraver grandement<br />

les performances, ce qui ne saurait être toléré pour<br />

<strong>des</strong> applications de base de données. Les applications<br />

<strong>et</strong> services conservant d’importants volumes<br />

de données sur <strong>des</strong> pério<strong>des</strong> prolongées sont ceux<br />

pour lesquels les <strong>technologies</strong> de déduplication<br />

présenteront les résultats les plus intéressants.<br />

D’une façon générale, la déduplication fonctionne<br />

le mieux pour la sauvegarde, la réplication <strong>et</strong> la<br />

conservation <strong>des</strong> données.<br />

34


3 Équipements de stockage de données<br />

Pour aller plus loin<br />

McClure T. (2009) : Driving Storage Efficiency<br />

in SAN Environments, Enterprise Strategy Group -<br />

White Paper, November 2009.<br />

Craig B. and McCaffrey T. (2009) : Optimizing<br />

Nearline Storage in a 2.5-inch Environment Using<br />

Seagate Constellation Drives, Dell Power Solutions,<br />

Jun. 2009.<br />

SNIA (2010) : Storage Power Efficiency Measurement<br />

Specification: Working Draft Version 0.2.10,<br />

SNIA Green Storage Initiative, August 2010.<br />

Storage Tiering with EMC Celerra FAST, EMC2<br />

www.snia.org/sites/default/files/Storage_Power_<br />

Efficiency_Measurement_Spec_v0.2.10_DRAFT.pdf<br />

Clark T. and Yoder A. (2008) : Best Practices for<br />

Energy Efficient Storage Operations Version 1.0,<br />

SNIA Green Storage Initiative, October 2008.<br />

Freeman L. (2009) : Reducing Data Centre<br />

Power Consumption Through Efficient Storage.<br />

White Paper. N<strong>et</strong>App, July 2009.<br />

Sources<br />

[1] IDC (2010) : The Digital Universe Decade –<br />

Are you ready IDC, May, 2010.<br />

[2] McClure T. (2009) : Driving Storage Efficiency<br />

in SAN Environments, Enterprise Strategy<br />

Group - White Paper, November 2009.<br />

[3] Reine D. and Kahn M. (2008) : Disk and<br />

Tape Square Off Again – Tape Remains King of the<br />

Hill with LTO-4. Clipper Notes, February 2008.<br />

[4] ORACLE (2010) : Consolidate Storage Infrastructure<br />

and Create a Greener Datacentre.<br />

Oracle White Paper, April 2010.<br />

[5] Seagate (2011) : PowerChoice Technology<br />

Provi<strong>des</strong> Unprecedented Hard Drive Power Savings<br />

and Flexibility - Technology Paper, Seagate,<br />

2011.<br />

[6] Seagate (2010) : Seagate Savvio 15K.2<br />

Data She<strong>et</strong>, Seagate, 2010.<br />

[7] Bisson T., Brandt S., Long D. (2006) : NV-<br />

Cache: Increasing the Effectiveness of Disk Spin-<br />

Down Algorithms with Caching, 14th IEEE International<br />

Symposium on Modeling, Analysis, and<br />

Simulation, pp. 422-432, 2006.<br />

[8] Freeman L. (2009) : Reducing Data Centre<br />

Power Consumption Through Efficient Storage.<br />

White Paper. N<strong>et</strong>App, July 2009.<br />

[9] Craig B. and McCaffrey T. (2009) : Optimizing<br />

Nearline Storage in a 2.5-inch Environment<br />

Using Seagate Constellation Drives, Dell Power<br />

Solutions, Jun. 2009.<br />

[10] Pinheiro E. and Bianchini R. (2004) :<br />

Energy Conservation Techniques for Disk Array-<br />

Based Servers. 18th Annual International Conference<br />

on Supercomputing (ICS 2004), pp. 68-78.<br />

Malo, France, 2004.<br />

[11] Otoo E. D., Rotem D. and Tsao S.C.<br />

(2009) : Analysis of Trade-Off b<strong>et</strong>ween Power Saving<br />

and Response Time in Disk Storage Systems,<br />

IEEE International Symposium on Parallel Distributed<br />

Processing (IPDPS 2009), pp. 1-8, May 2009.<br />

[12] Blade N<strong>et</strong>work (2009) : Storage Consolidation<br />

for Data Centre Efficiency, BLADE N<strong>et</strong>work<br />

Technologies White Paper, Jun. 2009.<br />

35


4 Équipements de réseau<br />

Alexander Schlösser, Technische Universität Berlin, Lutz Stobbe, Fraunhofer IZM<br />

D’après les données actuelles, la consommation <strong>des</strong> commutateurs, routeurs<br />

<strong>et</strong> autres équipements de réseau représenterait 8 à 12 % de l’empreinte<br />

énergétique totale <strong>des</strong> datacentres. C<strong>et</strong>te part relativement faible<br />

fait que les équipements de réseau sont rarement au centre <strong>des</strong> mesures<br />

d’amélioration de l’efficacité énergétique. Mais c<strong>et</strong>te vision <strong>des</strong> choses<br />

commence à évoluer, surtout dans les centres de taille moyenne à grande.<br />

Plusieurs raisons font que la consommation d’énergie <strong>des</strong> équipements de<br />

réseau <strong>et</strong> les eff<strong>et</strong>s de l’architecture implémentée jouent un rôle de plus en<br />

plus important dans la conception <strong>et</strong> l’opération <strong>des</strong> datacentres.<br />

Avec l’augmentation <strong>des</strong> exigences en termes de qualité de service <strong>et</strong> <strong>des</strong><br />

applications sensibles au délai, les réseaux <strong>et</strong> leurs équipements jouent un<br />

rôle de plus en plus décisif pour les datacentres. Leur consommation varie<br />

en fonction de la technologie choisie <strong>et</strong> de l’architecture (câblerie, alimentation<br />

<strong>et</strong> refroidissement).<br />

4.1 Cadre technique <strong>et</strong> opérationnel<br />

4.1.1 Schéma fonctionnel<br />

La Figure 4.1 représente un schéma fonctionnel<br />

simplifié <strong>des</strong> aspects énergétiques liés aux réseaux<br />

<strong>et</strong> à leurs équipements au sein d’un datacentre. Ce<br />

modèle perm<strong>et</strong> de visualiser les chevauchements<br />

<strong>des</strong> infrastructures d’alimentation <strong>et</strong> de refroidissement<br />

ainsi que la relation entre le réseau <strong>et</strong> les<br />

principaux équipements informatiques tels que<br />

serveurs <strong>et</strong> systèmes de stockage. Il définit aussi<br />

les principaux éléments à améliorer au niveau du<br />

réseau, comme son architecture <strong>et</strong> sa topologie,<br />

son infrastructure physique, ses composants matériels,<br />

sa câblerie mais aussi la configuration <strong>des</strong><br />

logiciels <strong>et</strong> les possibilités de virtualisation.<br />

L’efficacité énergétique de l’infrastructure du réseau<br />

<strong>et</strong> de ses équipements dépend aussi <strong>des</strong><br />

applications, <strong>des</strong> accords de niveau de service <strong>et</strong><br />

<strong>des</strong> exigences de performance en termes de bande<br />

passante <strong>et</strong> de latence définies par l’opérateur du<br />

datacentre. La question de la performance doit<br />

être prise en compte dans la procédure de planification<br />

pour améliorer l’efficacité énergétique.<br />

Salle serveur / datacentre<br />

Architecture & topologie<br />

Virtualisation & configuration<br />

Composants & câblerie<br />

Alimentation & onduleurs<br />

Refroidissement & flux d’air<br />

Suivi & contrôles<br />

Réseau Équipement Infrastructure<br />

Fig. 4.1: Schéma fonctionnel <strong>des</strong> réseaux d’un datacentre<br />

36


4.1.2 Attributs du réseau<br />

L’amélioration de l’efficacité énergétique de l’infrastructure<br />

réseau <strong>des</strong> datacentres exige une<br />

démarche structurée. La planification doit intégrer<br />

une perspective stratégique ou à long terme, sachant<br />

que c<strong>et</strong>te infrastructure est généralement<br />

en place pour une période prolongée, souvent<br />

plus de huit ans. Modifier l’infrastructure de base<br />

<strong>et</strong> la topologie du réseau, ses équipements, <strong>et</strong>c.<br />

représente donc un investissement considérable<br />

<strong>et</strong> non dénué de risque. L’amélioration du réseau<br />

est pourtant synonyme d’optimisation <strong>des</strong> performances<br />

du datacentre <strong>et</strong> bien souvent aussi de<br />

son efficacité énergétique.<br />

La planification commencera par une analyse<br />

stratégique. L’opérateur doit définir les attributs<br />

de son réseau <strong>et</strong> ses exigences en termes de performance.<br />

C<strong>et</strong>te tâche passe par une analyse du<br />

marché. Le monde de l’informatique connaît en<br />

2011 une formidable transition vers une production<br />

centralisée <strong>des</strong> applications, qui transforme le<br />

volume <strong>et</strong> les modèles de circulation <strong>des</strong> données.<br />

Les applications ne sont plus produites du côté de<br />

l’utilisateur final, à grand renfort de puissance de<br />

calcul <strong>et</strong> de packs logiciels, mais au sein <strong>des</strong> datacentres<br />

<strong>et</strong> du « nuage », du fait de l’utilisation<br />

<strong>des</strong> logiciels en tant que service (SaaS) <strong>et</strong> du cloud<br />

computing. Les conditions préalables incluent une<br />

connectivité à haut débit <strong>et</strong> un faible niveau de<br />

latence.<br />

C<strong>et</strong>te tendance générale entraîne une augmentation<br />

<strong>des</strong> flux de données non seulement entre<br />

client <strong>et</strong> serveur, mais aussi de serveur à serveur<br />

<strong>et</strong> <strong>des</strong> supports de stockage vers les serveurs. Enterasys<br />

[1] prévoit que l’architecture <strong>et</strong> la configuration<br />

<strong>des</strong> réseaux vont évoluer pour s’y adapter.<br />

Afin d’améliorer les performances (productivité<br />

informatique), la tendance est à l’agrégation de<br />

réseau (bottom-up) <strong>et</strong> à la virtualisation (topdown).<br />

Fusionner l’accès <strong>et</strong> l’agrégation ainsi que l’agrégation<br />

<strong>et</strong> le cœur du réseau dans une certaine<br />

mesure perm<strong>et</strong> de réduire le nombre de strates<br />

de l’architecture réseau (voir aussi Figure 4.3).<br />

En unifiant le réseautage, c<strong>et</strong>te tendance pourrait<br />

éventuellement faire baisser la consommation<br />

d’énergie. Tout est question d’équilibre. On dispose<br />

encore de peu d’informations <strong>et</strong> de données<br />

<strong>et</strong> aucune solution particulière n’est en vue sur le<br />

marché.<br />

La virtualisation favorise elle aussi l’incorporation<br />

<strong>des</strong> équipements de réseau <strong>et</strong> réseaux locaux<br />

(VLAN). Elle présente l’avantage de consolider les<br />

équipements physiques <strong>et</strong> donc de perm<strong>et</strong>tre une<br />

plus grande efficacité énergétique.<br />

Toujours selon Enterasys [1], la conception <strong>des</strong><br />

réseaux de datacentres répond à une série d’objectifs<br />

communs :<br />

• Bande passante <strong>et</strong> faible latence (sélection de<br />

la technologie réseau) ;<br />

• Modularité <strong>et</strong> souplesse (architecture réseau) ;<br />

• Capacité à supporter divers services (consolidation)<br />

;<br />

• Sécurité (de plus en plus important, avec une<br />

influence sur l’overhead) ;<br />

• Forte disponibilité <strong>et</strong> redondance (exigences sur<br />

la qualité de service) ;<br />

• Gérabilité <strong>et</strong> transparence (solutions de virtualisation)<br />

;<br />

• Optimisation <strong>des</strong> coûts (réduire CAPEX <strong>et</strong><br />

OPEX).<br />

4.1.3 Équilibrer la performance <strong>et</strong> la<br />

consommation énergétique<br />

Bande passante, haut débit, latence <strong>et</strong> intégrité<br />

<strong>des</strong> données sont <strong>des</strong> critères importants pour la<br />

performance <strong>des</strong> réseaux. La satisfaction du client<br />

ou « qualité de service » (QoS) est une autre exigence<br />

majeure. Elle se définit en termes d’accords<br />

de niveau de service (SLA), avec <strong>des</strong> caractéristiques<br />

telles que débit minimum <strong>et</strong> temps de réponse<br />

ou latence maximum. Une architecture réseau<br />

réactive, convergente <strong>et</strong> intelligente, capable<br />

de gérer les flux de données de façon dynamique<br />

<strong>et</strong> dans le respect <strong>des</strong> SLA est non seulement un<br />

gage important de compétitivité, mais peut aussi<br />

servir de base à une approche systématique de<br />

l’efficacité énergétique.<br />

RECOMMANDATIONS DE BONNES PRATIQUES<br />

Du fait du grand nombre de produits <strong>et</strong> d’options de réseaux disponibles sur le marché, il est<br />

recommandé aux opérateurs de datacentres <strong>et</strong> administrateurs informatiques de lister les priorités<br />

concernant les attributs de leur réseau, tels que :<br />

• Services ;<br />

• Latence ;<br />

• Qualité de service ;<br />

• Possibilité de virtualisation ;<br />

• Autres aspects de la performance ou de l’interopérabilité.<br />

La meilleure approche consiste en une optimisation du système qui reflète les interactions entre<br />

l’infrastructure <strong>et</strong> les performances du réseau <strong>et</strong> celles <strong>des</strong> autres équipements.<br />

37


La mise en œuvre de la QoS peut toutefois entraîner<br />

une augmentation du trafic total <strong>et</strong> de la<br />

consommation énergétique du datacentre. Les différentes<br />

<strong>technologies</strong> réseau <strong>et</strong> leurs équipements<br />

présentent <strong>des</strong> avantages <strong>et</strong> <strong>des</strong> inconvénients.<br />

D’une façon générale, on observe que la norme<br />

10 Gigabite Ethern<strong>et</strong> (10GbE) s’impose comme<br />

la technologie de référence dans les datacentres.<br />

Le protocole Ethern<strong>et</strong> relie non seulement les serveurs<br />

(LAN), mais s’utilise aussi de plus en plus<br />

dans les réseaux de stockage (SAN).<br />

Or une faible latence <strong>et</strong> l’intégrité <strong>des</strong> données<br />

sont <strong>des</strong> exigences de base pour le trafic de stockage.<br />

Selon Lippis [2], les commutateurs 10GbE<br />

actuels produisent 400 à 700 ns de latence. Ce<br />

chiffre devrait tomber à environ 100 ns d’ici à<br />

2014. On voit donc que l’augmentation de la<br />

bande passante entraîne une réduction du temps<br />

de latence. Du point de vue de la consommation,<br />

il est nécessaire d’équilibrer c<strong>et</strong>te amélioration<br />

(technologie réseau) avec la consommation<br />

éventuellement accrue d’une capacité haut débit<br />

(composant). La sélection <strong>des</strong> composants <strong>et</strong> la<br />

consolidation E/S sont deux aspects à envisager.<br />

De même, il est nécessaire de peser la question<br />

de l’intégrité <strong>des</strong> données (disponibilité) au regard<br />

de la performance en termes de débit <strong>et</strong> d’efficacité<br />

énergétique. Un réseau sens pertes se traduit<br />

généralement par <strong>des</strong> protocoles plus complexes<br />

(overhead) <strong>et</strong> une latence accrue, avec une plus<br />

grande puissance de calcul <strong>et</strong> une efficacité réduite<br />

de la bande passante. C’est toutefois une<br />

condition sine qua non pour les réseaux de stockage<br />

SAN. Les pertes liées au protocole Ethern<strong>et</strong><br />

l’ont empêché par le passé d’être appliqué à ce<br />

type de réseaux.<br />

Les protocoles Fibre Channel (FC) <strong>et</strong> InfiniBand<br />

(IB) étaient alors les deux <strong>technologies</strong> de réseau<br />

les plus répandues. Il existe aujourd’hui de multiples<br />

options de réseau de stockage reposant<br />

sur le protocole Ethern<strong>et</strong> : Converged Enhanced<br />

Ethern<strong>et</strong> (CEE), Fibre Channel over Ethern<strong>et</strong><br />

(FCoE), Intern<strong>et</strong> Small Computer System Interface<br />

(iSCSI) over Ethern<strong>et</strong>, ATA over Ethern<strong>et</strong><br />

(AoE) <strong>et</strong> stockage en réseau (NAS). Ces options<br />

contribuent à unifier le réseautage (<strong>et</strong> éviter les<br />

adaptateurs), mais créent un surcroît d’overhead,<br />

d’où une efficacité réduite de la bande passante.<br />

On ignore quel peut être l’impact éventuel sur l’efficacité<br />

énergétique.<br />

L’opérateur doit donc envisager l’impact énergétique<br />

de l’amélioration de la performance, de la<br />

modularité <strong>et</strong> de l’adaptabilité <strong>des</strong> nouvelles solutions<br />

de réseau consolidé. Ces nouvelles solutions<br />

ont sans doute <strong>des</strong> conséquences positives sur la<br />

consommation, mais un bon dimensionnement<br />

reste essentiel. Il est recommandé de se renseigner<br />

sur l’impact énergétique global au moment<br />

de l’achat d’un nouvel équipement ou de solutions<br />

de réseau complètes.<br />

4.2 Amélioration de l’efficacité<br />

énergétique<br />

4.2.1 Fusionner les classes de trafic<br />

(consolidation E/S)<br />

Les réseaux <strong>des</strong> datacentres doivent transm<strong>et</strong>tre<br />

différents types de flux au sein de différents types<br />

d’applications, d’où l’existence de protocoles <strong>et</strong><br />

d’architectures spécialisés. Mais les réseaux devenus<br />

très complexes ne partagent souvent plus<br />

leurs ressources. L’objectif de base de l’amélioration<br />

est de réduire les composants physiques<br />

<strong>et</strong> de partager la capacité du réseau en fonction<br />

<strong>des</strong> différentes unités fonctionnelles. La tendance<br />

technique générale vers une simplification <strong>et</strong> une<br />

réduction <strong>des</strong> structures ainsi qu’une convergence<br />

E/S basée sur le protocole Ethern<strong>et</strong> découle aussi<br />

d’un souci d’efficacité énergétique. Le maître mot<br />

est la consolidation du réseau. Celle-ci s’applique<br />

aux réseaux serveur <strong>et</strong> stockage ainsi qu’à l’architecture<br />

de distribution. La carte réseau convergent<br />

(CNA) fusionne ainsi plusieurs interfaces<br />

jusqu’alors séparées :<br />

• Contrôleur hôte de bus (HBA) pour les flux SAN;<br />

• Carte réseau (NIC) pour les flux LAN;<br />

• Adaptateur de canal hôte (HCA) pour les flux<br />

IPC.<br />

La consolidation E/S désigne la capacité d’un commutateur<br />

ou adaptateur hôte à utiliser la même<br />

infrastructure physique pour différents types de<br />

flux, chacun ayant généralement <strong>des</strong> caractéristiques<br />

uniques <strong>et</strong> <strong>des</strong> exigences spécifiques. Pour<br />

l’opérateur, cela revient à n’avoir qu’un seul réseau<br />

à installer <strong>et</strong> à gérer au lieu de trois (voir<br />

Figure 4.2).<br />

Pour les hôtes <strong>et</strong> les baies de stockage, la consolidation<br />

perm<strong>et</strong> d’avoir un p<strong>et</strong>it nombre de cartes<br />

réseau convergent (CNA) à ach<strong>et</strong>er au lieu <strong>des</strong><br />

cartes Ethern<strong>et</strong>, HBA FC <strong>et</strong> HCA IB. Une carte<br />

HBA FC classique consomme environ 12,5 W [3].<br />

En termes de redondance, plusieurs options devront<br />

être envisagées pour assurer la fiabilité de<br />

la conception.<br />

38


4 Équipements de réseau<br />

Communication<br />

inter-processus<br />

(IPC)<br />

Réseau local<br />

(LAN)<br />

Réseau de<br />

stockage<br />

(SAN)<br />

IPC<br />

LAN<br />

SAN<br />

Switch<br />

Ethern<strong>et</strong><br />

Switch FC<br />

Switch<br />

Ethern<strong>et</strong><br />

Ethern<strong>et</strong><br />

Fibre Channel/<br />

Infiniband<br />

Ethern<strong>et</strong> 10G / 40G / 100G<br />

HCA<br />

NIC<br />

HBA<br />

CNA<br />

Processeur<br />

Mémoire<br />

Processeur<br />

Mémoire<br />

Serveur<br />

Fig. 4.2 Consolidation E/S <strong>et</strong> convergence <strong>des</strong> réseaux de datacentres<br />

AVANTAGES DES RÉSEAUX CONVERGÉS<br />

La consolidation E/S perm<strong>et</strong> un plus haut niveau de regroupement <strong>des</strong> différents types de réseau<br />

(LAN, SAN) en vue de la virtualisation du système. Elle perm<strong>et</strong> en outre une réduction sensible<br />

de l’ampleur de l’infrastructure physique (commutateurs, ports, connectique <strong>et</strong> câblerie) entre les<br />

différents réseaux. Les réseaux convergés entraînent :<br />

• jusqu’à 80 % d’adaptateurs <strong>et</strong> câbles en moins ;<br />

• jusqu’à 25 % d’espace en moins pour les commutateurs, adaptateurs <strong>et</strong> racks ;<br />

• jusqu’à 42 % d’économie sur l’alimentation <strong>et</strong> le refroidissement [4].<br />

39


4.2.2 Consolidation du réseau<br />

La principale approche pour optimiser la consommation<br />

du réseau d’un datacentre consiste à<br />

repenser son architecture <strong>et</strong> faire converger <strong>des</strong><br />

réseaux jusqu’alors séparés en une technologie<br />

unique. L’architecture pourra être composée d’un<br />

arbre fait d’équipements de routage <strong>et</strong> commutation<br />

(couches multiples), dans lequel les matériels<br />

les plus spécialisés <strong>et</strong> les plus onéreux seront<br />

placés au somm<strong>et</strong> de la hiérarchie. L’objectif de<br />

consolidation doit être de créer une architecture<br />

réseau plate basée sur un maillage fonctionnel.<br />

Voici quelques exemples de mesures à prendre :<br />

• Agréger les commutateurs : plusieurs commutateurs<br />

physiques sur un seul appareil logique ;<br />

• Réduire le nombre de couches : utiliser un commutateur<br />

agrégé pour effectuer les tâches de<br />

plusieurs couches de commutateurs en tenant<br />

compte <strong>des</strong> services <strong>et</strong> de la sécurité ;<br />

• Créer un maillage unifié : combinaison <strong>des</strong> deux<br />

approches alliant simplicité opérationnelle <strong>et</strong><br />

haute performance, toujours en tenant compte<br />

<strong>des</strong> services <strong>et</strong> de la sécurité.<br />

La convergence <strong>des</strong> réseaux serveur (LAN) <strong>et</strong> stockage<br />

(SAN) est une tendance générale qui perm<strong>et</strong><br />

d’économiser l’énergie. Maintenir deux réseaux<br />

distincts entraînerait une hausse du coût total<br />

d’opération <strong>et</strong> de la consommation du fait de la<br />

multiplication du nombre d’adaptateurs, câbles <strong>et</strong><br />

ports nécessaire pour connecter chaque serveur<br />

directement aux LAN <strong>et</strong> SAN. Pour simplifier ou<br />

aplanir la structure de leur réseau, les datacentres<br />

m<strong>et</strong>tent actuellement en œuvre <strong>des</strong> <strong>technologies</strong><br />

telles que iSCSI, Fibre Channel over Ethern<strong>et</strong><br />

(FCoE) <strong>et</strong> data centre bridging (DCB).<br />

Routeurs<br />

N<br />

W<br />

E<br />

Core<br />

S<br />

Agrégation<br />

Accès<br />

Fig. 4.3 Consolidation de réseau<br />

40


4 Équipements de réseau<br />

4.2.3 Virtualisation du réseau<br />

La virtualisation est une technologie bien établie<br />

pour consolider un serveur physique <strong>et</strong> plusieurs<br />

machines virtuelles. Le même principe peut<br />

s’appliquer aux réseaux : diverses approches<br />

matérielles <strong>et</strong> logicielles perm<strong>et</strong>tent de gérer les<br />

ressources réseau en tant qu’unités logiques indépendantes<br />

de leur topologie physique. Ceci résulte<br />

en <strong>des</strong> flux réduits, une sécurité simplifiée <strong>et</strong> un<br />

contrôle amélioré. Les principaux éléments pour<br />

optimiser l’efficacité <strong>des</strong> réseaux sont la connaissance<br />

<strong>et</strong> la visibilité du réseau dans le cycle de<br />

vie <strong>des</strong> machines virtuelles (VM). La possibilité de<br />

configurer les capacités réseau <strong>et</strong> ports au niveau<br />

de chaque VM prise séparément ainsi que d’effectuer<br />

un traçage dynamique <strong>des</strong> VM dans leurs<br />

déplacements au sein du datacentre est un aspect<br />

important pour l’efficacité de la gestion d’un environnement<br />

virtualisé. L’efficacité énergétique<br />

découle principalement de la consolidation <strong>des</strong><br />

routeurs, adaptateurs physiques pour ports E/S <strong>et</strong><br />

autres matériels réseau.<br />

Etendre la virtualisation du système au réseau signifie<br />

:<br />

• Virtualiser le routeur (logiciel avec fonction routage,<br />

systèmes multiples sur une seule machine<br />

réelle) ;<br />

• Virtualiser les liens (interconnexion logique du<br />

routeur virtuel) ;<br />

• Virtualiser les réseaux (routeurs virtuels connectés<br />

par <strong>des</strong> liens virtuels).<br />

La virtualisation croissante <strong>des</strong> serveurs entraîne<br />

un surcroît de complexité <strong>et</strong> d’overhead pour le<br />

réseau. Les commutateurs obsolètes ne détectent<br />

pas les VM, ce qui pose un risque d’interruption<br />

de service <strong>et</strong> de failles dans la sécurité en cas de<br />

configuration incorrecte du réseau. Le réseau est<br />

un domaine clé qui doit lui aussi être virtualisé<br />

pour afficher le même niveau de souplesse, débit<br />

<strong>et</strong> performance.<br />

La virtualisation de service réseau est une stratégie<br />

qui perm<strong>et</strong> de simplifier les opérations du réseau<br />

<strong>et</strong> de consolider plusieurs périphériques. Virtualiser<br />

un module pare-feu ou IPS en fournissant<br />

une image logiciel à différentes applications via un<br />

matériel unique perm<strong>et</strong>trait de réduire la nécessité<br />

d’avoir plusieurs appareils distincts.<br />

La consolidation de plusieurs services sur un seul<br />

appareil physique perm<strong>et</strong> de réduire la consommation<br />

d’énergie sans avoir à déployer un matériel<br />

dédié à chaque fois. Ceci perm<strong>et</strong> aussi une<br />

économie sur l’alimentation, le refroidissement <strong>et</strong><br />

l’encombrement du rack.<br />

La virtualisation de service réseau présente en résumé<br />

les avantages suivants :<br />

• Flexibilité accrue <strong>des</strong> interfaces de gestion ;<br />

• Réduction du coût d’acquisition grâce à l’utilisation<br />

de logiciels ;<br />

• Performance accrue <strong>des</strong> applications grâce à la<br />

simplification de l’extension <strong>et</strong> de l’allocation<br />

<strong>des</strong> services ;<br />

• Baisse potentielle de la consommation d’énergie<br />

grâce à la consolidation <strong>des</strong> équipements.<br />

RECOMMANDATIONS DE BONNES PRATIQUES<br />

Pour les p<strong>et</strong>its <strong>et</strong> moyens datacentres, le choix entre FCoE <strong>et</strong> iSCSI dépendra fortement<br />

<strong>des</strong> exigences posées à l’application <strong>et</strong> de la présence de personnel formé en Fibre Channel.<br />

La réussite de la mise en œuvre de la virtualisation<br />

d’un réseau dépend de certains aspects tels que<br />

l’investissement, la définition d’objectifs précis <strong>et</strong><br />

la compatibilité avec les matériels existants. Les<br />

proj<strong>et</strong>s de virtualisation exigent donc de bien peser<br />

le rapport coût/bénéfice, de gérer entièrement<br />

les processus <strong>et</strong> de bien tenir compte <strong>des</strong> risques<br />

éventuels pour la sécurité.<br />

• Si les bases de données à hautes capacités <strong>et</strong> performances sont <strong>des</strong> applications critiques pour<br />

l’activité, FCoE <strong>et</strong> iSCSI sont deux solutions appropriées pour améliorer le niveau de service <strong>et</strong> réduire<br />

la consommation.<br />

• Le stockage centralisé <strong>et</strong> la récupération de sinistre exigent un SAN commun : on préfèrera l’iSCSI.<br />

• Pour les réseaux existants basés sur le protocole Fibre Channel, FCoE est recommandée [5].<br />

41


4.2.4 Sélection <strong>des</strong> composants <strong>et</strong><br />

équipements<br />

La consommation <strong>des</strong> équipements réseau varie<br />

souvent avec le choix <strong>des</strong> composants <strong>et</strong> la configuration<br />

du système. Le standard de technologie<br />

(10GbE par ex.) est le facteur prédominant. La<br />

conception <strong>des</strong> puces <strong>et</strong> le degré d’intégration<br />

du système présentent la plus forte marge de<br />

manœuvre, tendance accentuée par les améliorations<br />

de performance <strong>des</strong> semi-conducteurs, qui<br />

continuent de progresser de façon exponentielle.<br />

Cela englobe les performances thermiques <strong>des</strong><br />

puces <strong>et</strong> <strong>technologies</strong> d’interconnexion, avec le<br />

problème croissant de la fiabilité. La configuration<br />

du système, c’est-à-dire le type <strong>et</strong> le nombre de<br />

ports déployés dans l’équipement, est un autre<br />

facteur. La consommation <strong>des</strong> équipements de<br />

réseau dépend enfin de l’efficacité du bloc d’alimentation<br />

<strong>et</strong> <strong>des</strong> options de gestion de l’énergie.<br />

RECOMMANDATIONS DE BONNES PRATIQUES<br />

Critères à prendre en compte pour la sélection de matériels de réseau<br />

(notamment blocs d’alimentation) efficaces<br />

• Choisir un équipement avec fonctions de gestion de l’énergie <strong>et</strong> comparer la<br />

consommation <strong>des</strong> différents matériels en mode inactif <strong>et</strong> veille.<br />

• Comparer les systèmes de différents fournisseurs en termes de rentabilité <strong>et</strong><br />

d’efficacité énergétique.<br />

• Demander aux fournisseurs les informations produits sur :<br />

■ l’efficacité énergétique globale (par ex. ECR, TEER dès sa sortie) ;<br />

■ l’efficacité <strong>et</strong> la modularité <strong>des</strong> blocs d’alimentation ;<br />

■ l’efficacité <strong>et</strong> l’extensibilité <strong>des</strong> blocs de ventilation (ventilateurs à vitesse<br />

variable, <strong>et</strong>c.).<br />

Gestion de l’énergie<br />

La variation de la consommation d’énergie <strong>des</strong><br />

équipements de réseau est liée aux pério<strong>des</strong> d’activité<br />

<strong>et</strong> d’inactivité. La différence de consommation<br />

entre une charge à 100 % <strong>et</strong> le mode inactif<br />

(avec lien établi) est généralement d’un facteur<br />

1,1 (500 W de sortie) s’est amélioré ces<br />

dernières années pour atteindre plus de 85 %,<br />

voire 90 %. Quand on sait que la consommation<br />

<strong>des</strong> gros commutateurs <strong>et</strong> routeurs core peut se<br />

mesurer en kW, on comprend qu’une amélioration<br />

même infime du rendement de conversion (1 %<br />

par ex.) peut entraîner une économie d’énergie<br />

substantielle. Le rendement n’est pas toujours indiqué<br />

dans la documentation produit.<br />

4.2.5 Commutation floor-level<br />

On distingue deux grands types de distribution de<br />

commutateurs au niveau floor ou applications : «<br />

fin de rangée » (end-of-row, EoR) <strong>et</strong> « haut de<br />

rack » (top-of-rack, ToR). Le premier correspond<br />

à une approche traditionnelle du réseautage, avec<br />

un commutateur unique dans un grand châssis<br />

supportant un ou plusieurs racks. Du point de vue<br />

de l’efficacité énergétique, le déploiement EoR<br />

présente :<br />

• l’avantage d’une commutation centralisée <strong>et</strong><br />

modulaire, plus économe qu’une solution ToR<br />

médiocre ;<br />

• l’inconvénient d’une câblerie complexe, source<br />

d’inefficacité dans les systèmes denses.<br />

Dans un déploiement ToR, un commutateur est intégré<br />

à chaque rack. C<strong>et</strong>te conception assure une<br />

faible latence <strong>et</strong> un haut débit de transmission de<br />

données. En termes d’efficacité énergétique, ce<br />

déploiement présente :<br />

42


4 Équipements de réseau<br />

48 ports 48 ports<br />

}<br />

Switch<br />

48 ports<br />

Tous les ports<br />

sont utilisés<br />

Câblage simple<br />

Rack #1 Rack #2<br />

Rack #1<br />

Switch<br />

48 ports<br />

Switch<br />

48 ports<br />

Switch<br />

48 ports<br />

10 serveurs 14 serveurs 16 serveurs 8 serveurs<br />

Rack #2 Rack #3 Rack #4<br />

}<br />

Configuration sub-optimale<br />

<strong>des</strong> serveurs<br />

Certains ports sont<br />

inutilisés<br />

Commutation ToR<br />

optimale<br />

Fig. 4.4: Commutation floor-level « haut de rack » (ToR)<br />

Déploiement ToR sub-optimal<br />

• l’avantage d’une commutation décentralisée<br />

pour les environnements de serveurs denses<br />

(consolidation E/S), ce qui réduit la câblerie. La<br />

distance réduite entre le serveur <strong>et</strong> son commutateur<br />

améliore la vitesse de transmission <strong>et</strong><br />

réduit la consommation d’énergie liée.<br />

• l’inconvénient du surdimensionnement dans un<br />

environnement moins dense (peu de serveurs<br />

par rack). La sous-utilisation <strong>des</strong> ports disponibles<br />

entraîne alors une faible efficacité énergétique.<br />

Le déploiement ToR présente donc <strong>des</strong> éco-avantages<br />

s’il est appliqué à <strong>des</strong> systèmes correctement<br />

dimensionnés.<br />

La Figure 4.4 illustre le concept du déploiement<br />

ToR <strong>et</strong> sa bonne utilisation.<br />

Pour aller plus loin<br />

Hintemann R. (2008) : Energy Efficiency in the<br />

Data centre, A Guide to the Planning, Modernization<br />

and Operation of Data centres, BITKOM, Berlin,<br />

online available:<br />

http://www.bitkom.org/de/publikationen/38337_53432.<br />

aspx<br />

EC JRC ISPRA (2011) : Best Practices for the EU<br />

Code of Conduct on Data centres<br />

European Commission (2011), EC Joint Research<br />

Centre, Ispra, online available :<br />

http://re.jrc.ec.europa.eu/energyefficiency/html/<br />

standby_initiative_data_centres.htm<br />

Juniper (2010) : Government Data centre<br />

N<strong>et</strong>work Reference Architecture, Using a High-Performance<br />

N<strong>et</strong>work Backbone to Me<strong>et</strong> the Requirements<br />

of the Modern Government Data centre<br />

Juniper (2010), Juniper N<strong>et</strong>works, Inc., Sunnyvale,<br />

available online :<br />

http://www.buyn<strong>et</strong>screen.com/us/en/local/pdf/<br />

reference-architectures/8030004-en.pdf<br />

Sources<br />

[1] Enterasys (2011) : Data centre N<strong>et</strong>working<br />

– Connectivity and Topology Design Guide; Inc Enterasys<br />

N<strong>et</strong>works, Andover.<br />

[2] Lippis (2011) : Open Industry N<strong>et</strong>work Performance<br />

& Power Test Industry N<strong>et</strong>work Performance<br />

& Power Test for Private and Public Data<br />

centre Clouds Ethern<strong>et</strong> Fabrics Evaluating 10 GbE<br />

Switches; Lippis Enterprises, Inc, Santa Clara.<br />

[3] Cisco (2008) : Converging SAN and LAN Infrastructure<br />

with Fibre Channel over Ethern<strong>et</strong> for<br />

Efficient, Cost-Effective Data centres; Intel, Santa<br />

Clara.<br />

[4] Emulex (2008) : Sheraton Case Study. Virtual<br />

Fabric for IBM BladeCentre Increases Server<br />

Bandwidth, Reduces Footprint and Enables Virtualization<br />

for High-performance Casino Applications;<br />

Emulex, Costa Mesa 2010.<br />

[5] Blade.org (2008) : Blade Platforms and<br />

N<strong>et</strong>work Convergence; Blade.org,White Paper<br />

2008.<br />

43


5 Refroidissement <strong>et</strong> alimentation <strong>des</strong><br />

datacentres <strong>et</strong> salles serveurs<br />

Andrea Rosc<strong>et</strong>ti, Politecnico di Milano, Shailendra Mudgal, Thibault Faninger, Bio Intelligence Service<br />

Le refroidissement représente jusqu’à 50 % de la consommation d’énergie totale<br />

<strong>des</strong> datacentres <strong>et</strong> salles serveurs. Il est donc essentiel de concevoir un refroidissement<br />

efficace pour les sites informatiques, quelle que soit leur taille.<br />

Ce chapitre présente plusieurs gran<strong>des</strong> options pour réduire la facture énergétique.<br />

5.1 Refroidissement <strong>des</strong> salles<br />

serveurs<br />

Les armoires à serveurs ou p<strong>et</strong>ites salles serveurs<br />

sont généralement équipées de climatiseurs de<br />

confort (systèmes CVC 1 de bureau). Les p<strong>et</strong>ites<br />

salles comportent généralement de 1 à 5 racks<br />

de serveurs, pour une puissance totale n’excédant<br />

pas 20 kW.<br />

5.1.1 Climatiseurs « split » <strong>et</strong> mobiles<br />

Fig. 5.1: Climatiseur « split » : unité murale<br />

Unité extérieure (Source: Daikin)<br />

Les p<strong>et</strong>ites salles serveurs font le plus souvent appel<br />

à <strong>des</strong> climatiseurs composés de deux unités,<br />

d’une puissance de refroidissement de 1 à 100<br />

kW. Les systèmes « split » ou DX 2 présentent plusieurs<br />

avantages :<br />

• Un coût d’investissement généralement peu<br />

élevé ;<br />

• Une grande simplicité de conception <strong>et</strong> d’installation<br />

;<br />

• Un faible encombrement au sol (unités généralement<br />

montées aux murs) ;<br />

• Une installation possible dans la quasi-totalité<br />

<strong>des</strong> situations ;<br />

• La simplicité <strong>et</strong> la rapidité de l’entr<strong>et</strong>ien <strong>et</strong> du<br />

remplacement.<br />

Il faut toutefois tenir compte de leurs inconvénients<br />

:<br />

• Une efficacité globale très réduite pour les systèmes<br />

p<strong>et</strong>its, anciens ou surdimensionnés ;<br />

• Un mauvais contrôle de l’humidité ;<br />

• Des contraintes de longueur <strong>et</strong> hauteur <strong>des</strong><br />

tuyaux reliant les unités.<br />

Il est possible d’installer un système mobile, par<br />

exemple pour prévenir la formation de zones<br />

chau<strong>des</strong>. C<strong>et</strong>te technologie présente les avantages<br />

suivants :<br />

• Très faible coût d’investissement ;<br />

• Simplicité de l’installation ;<br />

• Faible encombrement au sol ;<br />

• Simplicité <strong>et</strong> rapidité de l’entr<strong>et</strong>ien <strong>et</strong> du remplacement.<br />

1) CVC: chauffage, ventilation, climatisation<br />

2) DX: détente directe<br />

44


Elle présente aussi les inconvénients suivants :<br />

• Faible efficacité globale (les systèmes mobiles<br />

de classe A sont moins efficaces que les systèmes<br />

« split » de classe D) ;<br />

• Faible contrôle de l’humidité <strong>et</strong> de la température<br />

;<br />

• Installation possible uniquement si l’air peut<br />

être expulsé à l’extérieur.<br />

5.1.2 Mesures d’optimisation de<br />

l’efficacité énergétique<br />

Pour éviter le surdimensionnement, problème courant<br />

dans les p<strong>et</strong>ites salles serveurs, il est généralement<br />

recommandé que la puissance de refroidissement<br />

n’excède pas 120 % de la puissance <strong>des</strong><br />

systèmes informatiques installés dans les salles<br />

bien isolées.<br />

L’étiqu<strong>et</strong>age énergétique de l’UE peut servir à<br />

orienter le choix au moment de l’achat de nouveaux<br />

appareils jusqu’à 12 kW de puissance de refroidissement.<br />

On privilégiera les ratios EER 3 /SEER 4<br />

élevés <strong>et</strong> l’efficacité de classe A ou plus. Le SEER <strong>et</strong><br />

la consommation annuelle en kWh sont les deux<br />

principaux critères de comparaison. Le Tableau 5.1<br />

indique l’efficacité <strong>des</strong> meilleures <strong>technologies</strong> actuellement<br />

sur le marché.<br />

L’étiqu<strong>et</strong>age reste purement facultatif jusqu’au 1 er<br />

janvier 2013. L’ancien étiqu<strong>et</strong>age <strong>des</strong> climatiseurs<br />

(Directive 2002/31/CE) reste permis pendant c<strong>et</strong>te<br />

période de transition.<br />

Fig. 5.2: Étiqu<strong>et</strong>age énergétique <strong>des</strong> climatiseurs (Source: Règlement<br />

délégué complétant la directive 2010/30/UE du Parlement européen <strong>et</strong> du<br />

Conseil sur l’indication, par voie d’étiqu<strong>et</strong>age, de la consommation d’énergie<br />

<strong>des</strong> climatiseurs)<br />

Tab. 5.1: Valeurs de performance énergétique <strong>des</strong> meilleures <strong>technologies</strong> disponibles pour les p<strong>et</strong>its climatiseurs (


RECOMMANDATIONS DE BONNES PRATIQUES<br />

Salles serveurs existantes<br />

• Éliminer l’apport solaire, la transmission de chaleur <strong>et</strong> les pertes de ventilation vers les autres pièces/l’extérieur.<br />

• Contrôler <strong>et</strong> gérer les conditions environnementales (points de consigne) : l’air entrant dans les équipements informatiques doit être à 18-<br />

27 °C (suggestion : 24-27 °C).<br />

• Vérifier l’isolation <strong>des</strong> conduits/tuyaux (air chaud <strong>et</strong> froid/eau/liqui<strong>des</strong>).<br />

• Envisager de remplacer les composants du système de refroidissement obsolètes ou moins efficaces (comparer la classe d’efficacité <strong>des</strong><br />

systèmes existants avec les plus efficaces disponibles sur le marché).<br />

• Contrôler <strong>et</strong> vérifier l’architecture du système de refroidissement installé (par ex. la distance entre systèmes de refroidissement <strong>et</strong> les charges<br />

thermiques).<br />

• Éteindre les lumières <strong>et</strong> supprimer dans la mesure du possible les autres charges <strong>et</strong> sources de chaleur mécaniques/électriques.<br />

Salles serveurs neuves<br />

• Évaluer l’utilisation de systèmes de refroidissement de précision (afin de supprimer la chaleur sensible <strong>et</strong> d’éviter une déshumidification<br />

excessive).<br />

• Définir <strong>et</strong> évaluer les caractéristiques de la pièce <strong>et</strong> de ses équipements, en tenant compte <strong>des</strong> contraintes d’espace <strong>et</strong> de la distance entre<br />

charges <strong>et</strong> unités externes.<br />

• Éviter le recours à <strong>des</strong> unités mobiles ou à faible EER (NB : les systèmes mobiles de classe A sont moins efficaces que les systèmes split de<br />

classe D).<br />

• Comparer différents systèmes :<br />

■ choisir la classe énergétique supérieure (obligatoire pour les p<strong>et</strong>its systèmes) ;<br />

■ maximiser l’efficacité du refroidissement (SEER, voir tableau sur les meilleures <strong>technologies</strong> disponibles).<br />

• Envisager les possibilités de free cooling.<br />

5.2 Refroidissement <strong>des</strong> datacentres<br />

moyens à grands<br />

5.2.1 Généralités<br />

Le refroidissement <strong>des</strong> datacentres de taille<br />

moyenne à grande repose traditionnellement sur<br />

la ventilation. Un datacentre standard est conçu<br />

pour refroidir en moyenne 7,5-10 kW/m 2 , soit 1<br />

à 3 kW/rack. Ce chiffre a été porté à 20 kW/m 2<br />

dans les nouveaux centres, mais la densité par<br />

rack reste limitée à 4-5 kW (ne pas oublier que la<br />

capacité maximale <strong>des</strong> systèmes consolidés ou <strong>des</strong><br />

serveurs lames peut dépasser 25 kW/rack).<br />

Les équipements informatiques sont disposés en<br />

rangées, avec <strong>des</strong> entrées d’air situées du côté <strong>des</strong><br />

allées froi<strong>des</strong>. L’air froid est insufflé dans l’allée,<br />

traverse les équipements puis est expulsé vers l’allée<br />

chaude.<br />

Il convient de considérer les caractéristiques <strong>des</strong><br />

flux d’air, qui doivent de préférence aller d’avant<br />

en arrière, d’avant vers le haut ou d’avant/du haut<br />

vers l’arrière (voir source). Si <strong>des</strong> équipements<br />

ayant <strong>des</strong> conditions d’opération ou <strong>des</strong> directions<br />

de flux d’air différentes doivent être installés dans<br />

une même pièce, il faudra leur créer <strong>des</strong> espaces<br />

séparés. Si l’équipement présente <strong>des</strong> exigences<br />

d’environnement différentes, il est préférable de<br />

fournir <strong>des</strong> contrôles séparés afin d’éviter <strong>des</strong> inefficacités<br />

dues à un point de consigne trop bas ou à<br />

un mauvais contrôle du flux [1].<br />

46


5 Refroidissement <strong>et</strong> alimentation <strong>des</strong> datacentres <strong>et</strong> salles serveurs<br />

5.2.2 Contrôle de la température <strong>et</strong> de<br />

l’humidité<br />

Les datacentres doivent être conçus <strong>et</strong> opérés avec<br />

la plus grande efficacité possible compte tenu <strong>des</strong><br />

données climatiques (température au thermomètre<br />

sec 5 ). La température recommandée est comprise<br />

entre 18 <strong>et</strong> 27 °C, pour une humidité relative


5.2.3 Efficacité <strong>des</strong> composants (compresseurs,<br />

ventilateurs, centrales de traitement<br />

d’air)<br />

Les différents types d’unités de refroidissement se<br />

distinguent par leur coefficient d’efficacité énergétique<br />

(EER) 6 : celui-ci est généralement d’environ<br />

3,5 pour les systèmes à eau <strong>et</strong> 2,5 pour les systèmes<br />

à air. Le coefficient d’efficacité énergétique<br />

nominal (« EERrated ») est égal au rapport entre<br />

la puissance réfrigérante déclarée [kW] <strong>et</strong> la puissance<br />

électrique consommée nominale [kW] d’une<br />

unité produisant du froid dans <strong>des</strong> conditions nominales.<br />

Eurovent fournit <strong>des</strong> données perm<strong>et</strong>tant<br />

de comparer l’efficacité caractéristique de plusieurs<br />

systèmes <strong>et</strong> composants de refroidissement<br />

<strong>et</strong> ventilation (www.eurovent-certification.com).<br />

Les compresseurs à eau sont préférables à ceux à<br />

air <strong>et</strong> à détente directe du fait de leur plus grande<br />

efficacité thermodynamique. Il faudra évaluer la<br />

possibilité d’abaisser la température de condensation/augmenter<br />

la température d’évaporation.<br />

Réduire le delta-T entre ces températures perm<strong>et</strong><br />

de réduire le travail du cycle de refroidissement <strong>et</strong><br />

donc d’améliorer l’efficacité. Ces températures dépendent<br />

de la température de l’air d’entrée exigée<br />

(voir 5.2.2).<br />

L’efficacité <strong>des</strong> ventilateurs dépend de celle de leur<br />

moteur. Les ventilateurs à vitesse fixe consomment<br />

plus <strong>et</strong> rendent difficile la gestion de la température<br />

au sol. Les ventilateurs à vitesse variable sont<br />

particulièrement efficaces en cas de forte redondance<br />

du système de refroidissement ou de fortes<br />

variations de la charge. Les ventilateurs peuvent<br />

être contrôlés par la température de l’air de r<strong>et</strong>our<br />

ou la pression de l’air froid.<br />

6) Coefficient d’efficacité énergétique : refroidissement / consommation électrique pour un<br />

point d’opération (température intérieure <strong>et</strong> extérieure, hygrométrie) donné.<br />

5.2.4 Free cooling<br />

Le free cooling perm<strong>et</strong> de bénéficier d’un refroidissement<br />

« gratuit » quand la température de<br />

l’air extérieur ou de l’eau est inférieure à celle<br />

exigée à l’intérieur. Plus la température extérieure<br />

moyenne est basse sur l’année, plus grands sont<br />

le potentiel de free cooling <strong>et</strong> son niveau d’efficacité.<br />

Des économiseurs à eau ou air peuvent<br />

apporter un refroidissement supplémentaire. L’efficacité<br />

énergétique <strong>et</strong> le r<strong>et</strong>our sur investissement<br />

dépendent <strong>des</strong> conditions climatiques. Le refroidissement<br />

peut passer en free cooling intégral<br />

si l’écart entre la température de r<strong>et</strong>our de l’eau<br />

de refroidissement <strong>et</strong> la température ambiante<br />

est supérieur à environ 11 K. Plus la température<br />

d’entrée est élevée <strong>et</strong> plus les économies d’énergie<br />

seront importantes. Choisir une température<br />

ambiante plus élevée pour son système de refroidissement<br />

perm<strong>et</strong> de recourir au free cooling plus<br />

longtemps dans l’année. L’implémentation du free<br />

cooling exige une étude de faisabilité <strong>et</strong> une évaluation<br />

économique. On pourra se reporter à l’outil<br />

d’évaluation conçu par The Green Grid.<br />

Pour <strong>des</strong> informations plus spécifiques sur le free<br />

cooling, se reporter aux suggestions de lecture.<br />

Transformateur<br />

réseau public<br />

Transformateurs surdimensionnés<br />

Inefficace, pertes importantes<br />

Générateur de réserve<br />

Distribution électrique<br />

Onduleurs<br />

(UPS)<br />

Faible capacité<br />

Topologie inefficace<br />

Faible facteur de puissance<br />

d’entrée<br />

Fort facteur de courant<br />

d’entrée<br />

Unités de distribution<br />

d’alimentation<br />

(PDU)<br />

Transformateurs inefficaces<br />

Utilisation excessive<br />

Charge informatique<br />

Faible facteur de puissance<br />

Courant élevé<br />

Taux de distorsion harmonique<br />

Faible utilisation<br />

Autres charges (refroidissement, éclairage, <strong>et</strong>c.)<br />

Surdimensionné<br />

Redondance excessive<br />

Charge thermique excessive<br />

Pertes de charge dues aux<br />

câbles (typ.)<br />

Éclairage<br />

Espace au sol non utilisé<br />

Absence de contrôle de<br />

l’éclairage<br />

Refroidissement<br />

Hautes températures dans la<br />

zone serveur<br />

Fig. 5.3: Composants de l’infrastructure électrique d’un datacentre avec leurs sources d’inefficacité (ASHRAE: Save Energy Now Presentation<br />

Series, 2009).<br />

48


5 Refroidissement <strong>et</strong> alimentation <strong>des</strong> datacentres <strong>et</strong> salles serveurs<br />

5.2.5 Refroidissement au niveau du rack/de<br />

la rangée<br />

Avec <strong>des</strong> densités énergétiques excédant 25 kW<br />

par rack sur les équipements modernes, le refroidissement<br />

traditionnel par climatiseurs ne suffit<br />

plus à éviter la formation de zones chau<strong>des</strong> (voir<br />

sources).<br />

5.3 Alimentation <strong>et</strong> onduleurs<br />

dans les datacentres<br />

Le système d’alimentation électrique d’un datacentre<br />

a pour tâche essentielle de transformer le<br />

courant alternatif (CA) en courant continu (CC).<br />

Les pertes dues à c<strong>et</strong>te transformation varient en<br />

fonction du degré de charge. L’efficacité la plus<br />

importante est généralement atteinte entre 80 <strong>et</strong><br />

90 % de la charge totale ; elle décroît sensiblement<br />

en-deçà de 50 %.<br />

La Figure 5.3 illustre le schéma électrique d’un datacentre.<br />

Les sources traditionnelles d’inefficacité<br />

sont indiquées pour chaque composant.<br />

Les onduleurs (UPS) sont souvent synonymes<br />

d’importantes économies potentielles d’énergie.<br />

L’UPS est opéré en continu pour fournir une alimentation<br />

de secours <strong>et</strong> un conditionnement de<br />

puissance pour les équipements informatiques <strong>et</strong><br />

certains éléments d’infrastructure.<br />

Au-delà de sa fonction première — assurer l’alimentation<br />

à court terme en cas de défaillance du<br />

réseau — l’UPS fournit aussi différentes options<br />

pour remédier aux problèmes de puissance. On<br />

distingue trois gran<strong>des</strong> topologies disponibles en<br />

fonction de l’application souhaitée :<br />

• Attente passive : ce mode dépendant de la<br />

puissance <strong>et</strong> de la fréquence (VFD) ne protège<br />

que <strong>des</strong> défaillances d’alimentation (coupures<br />

de courant, variations de tension). En situation<br />

normale, l’UPS n’a aucune interaction avec le<br />

réseau. Lorsque la tension alternative du réseau<br />

d’entrée est hors <strong>des</strong> tolérances spécifiées,<br />

l’onduleur <strong>et</strong> la batterie prennent le relais pour<br />

assurer la permanence de l’alimentation de la<br />

charge. C<strong>et</strong>te topologie est surtout répandue<br />

dans les applications à faible puissance.<br />

• Interaction avec le réseau : ce mode indépendant<br />

de la tension (VI) protège la charge comme<br />

l’attente passive, mais régule la fréquence à un<br />

niveau optimal. Il assure notamment une protection<br />

contre les variations de tension d’entrée<br />

(surtensions, sous-tensions) à long terme. C<strong>et</strong>te<br />

topologie est rarement utilisée au-delà de 5000<br />

VA [7].<br />

• Double conversion : ce mode indépendant de<br />

la tension <strong>et</strong> de la fréquence (VFI) protège la<br />

charge <strong>des</strong> variations indésirables de la tension<br />

<strong>et</strong> de la fréquence sans entamer les réserves<br />

d’énergie stockée. Il assure une alimentation<br />

continue de la puissance totale en régulant<br />

l’électricité avant qu’elle n’atteigne la charge.<br />

C<strong>et</strong>te topologie est rare pour les charges inférieures<br />

à 750 VA.<br />

Chacune de ces topologies présente ses avantages<br />

<strong>et</strong> inconvénients. Sur les puissances comprises<br />

entre 750 <strong>et</strong> 5000 VA, le mode interactif<br />

tend à combiner longévité <strong>et</strong> fiabilité accrues avec<br />

un coût total de possession réduit, mais le mode<br />

double conversion est moins encombrant <strong>et</strong> peut<br />

réguler la fréquence de sortie. Les onduleurs offrent<br />

aussi plusieurs mécanismes de stockage<br />

d’énergie pour assurer une alimentation continue<br />

en cas de coupure :<br />

• batteries d’accumulateurs, qui stockent <strong>et</strong> libèrent<br />

l’énergie électrique par conversion de<br />

l’énergie chimique ;<br />

• volant d’inertie pour un stockage à court terme,<br />

sous forme d’énergie mécanique.<br />

49


Tab. 5.2: Efficacité caractéristique <strong>des</strong> différentes topologies d’onduleurs<br />

Topologie Efficacité à 25%<br />

de charge<br />

Efficacité à 50%<br />

de charge<br />

Efficacité à 75%<br />

de charge<br />

Efficacité à<br />

100% de charge<br />

Double conversion 81–93% 85–94% 86–95% 86–95%<br />

Interaction avec le<br />

réseau<br />

Tab. 5.3: Efficacité moyenne minimum exigée pour les onduleurs à CA de sortie proposée<br />

par EnergyStar (P = puissance réelle en watts (W), ln = logarithme népérien)<br />

Efficacité moyenne minimum (EffAVG_MIN)<br />

Classe d’onduleur<br />

Puissance de<br />

sortie<br />

n.a. 97–98% 98% 98%<br />

Dépendance au courant d’entrée<br />

(selon méthodologie ENERGY STAR)<br />

VFD VI VFI<br />

Datacentre P > 10 kW 0,97 0,96 0,0058 x ln (P) + 0,86<br />

Deux options existent pour délivrer l’énergie à la<br />

charge :<br />

• UPS statique : pas de pièces mobiles (en dehors<br />

<strong>des</strong> ventilateurs de refroidissement). Le CA est<br />

converti en CC (redresseur pour le stockage au<br />

niveau <strong>des</strong> batteries pour assurer la continuité)<br />

puis à nouveau en CA pour alimenter les serveurs.<br />

• UPS dynamique : le courant est transféré via un<br />

moteur/générateur <strong>et</strong> <strong>des</strong>tiné à <strong>des</strong> applications<br />

devant traverser un court épisode d’anomalie<br />

électrique (coupure, baisse de tension, <strong>et</strong>c.).<br />

Les pertes d’énergie <strong>des</strong> onduleurs sont dues à la<br />

conversion du courant électrique (au niveau du<br />

chargeur <strong>et</strong> de l’onduleur), de la charge de la batterie<br />

ou du système d’inertie (volant). Ces pertes<br />

— <strong>et</strong> la chaleur qui en résulte — sont plus importantes<br />

en mode double conversion (redresseur,<br />

onduleur, filtre <strong>et</strong> interconnexion) qu’en mode interaction<br />

<strong>et</strong> attente passive (filtre, transformateur<br />

<strong>et</strong> interconnexion). Les UPS à sortie en CC (ou<br />

redresseurs) <strong>et</strong> les UPS à sortie CA/CC combinée<br />

peuvent servir pour certaines applications <strong>et</strong> éviter<br />

les pertes au niveau de l’onduleur <strong>et</strong> du redresseur.<br />

RECOMMANDATIONS DE BONNES PRATIQUES<br />

Critères pour les nouvelles installations<br />

• Bien évaluer ses besoins <strong>et</strong> la taille <strong>des</strong> onduleurs (UPS multiples ou modulaires, solutions<br />

évolutives) : autonomie, coût, taille, nombre de sorties, <strong>et</strong>c.<br />

• Analyser la technologie de l’onduleur <strong>et</strong> son efficacité. Prendre en compte l’efficacité à charge<br />

partielle.<br />

• Sélectionner la bonne topologie.<br />

• Sélectionner <strong>des</strong> onduleurs conformes au « Code of Conduct » européen ou au programme<br />

Energy Star.<br />

Critère pour l’optimisation<br />

• Analyser la technologie <strong>et</strong> son efficacité.<br />

• Évaluer les options <strong>et</strong> les avantages du remplacement <strong>des</strong> vieux équipements.<br />

• Évaluer les coûts <strong>et</strong> avantages de la redondance.<br />

50


5 Refroidissement <strong>et</strong> alimentation <strong>des</strong> datacentres <strong>et</strong> salles serveurs<br />

La plupart <strong>des</strong> fabricants d’onduleurs mentionnent<br />

une efficacité énergétique pour une charge<br />

de 100 %. Or l’efficacité baisse de façon significative<br />

en conditions de charge partielle. La plupart<br />

<strong>des</strong> onduleurs tournent à 80 % <strong>et</strong> en cas de redondance,<br />

la charge peut chuter à 50 % <strong>et</strong> moins.<br />

Dans ce cas, les onduleurs modernes ou anciens<br />

sont moins efficaces énergétiquement, avec une<br />

chute significative pour les charges inférieures à<br />

20 %. La bonne pratique consiste à adapter les<br />

onduleurs au plus près <strong>des</strong> charges <strong>des</strong> datacentres.<br />

Des solutions évolutives perm<strong>et</strong>tent un<br />

dimensionnement efficace de leur capacité.<br />

Le « Code de Conduite » européen (nouvelle édition<br />

2011) définit <strong>des</strong> seuils planchers d’efficacité<br />

énergétique pour les onduleurs, tout comme le<br />

programme Energy Star (draft 2011). De nouvelles<br />

valeurs pour les onduleurs à sortie CA <strong>et</strong> CC sont<br />

en cours d’élaboration (voir Tableau 5.3). Energy<br />

Star envisage aussi de faire figurer <strong>des</strong> exigences<br />

pour les onduleurs multi-mo<strong>des</strong>, pouvant alterner<br />

leur fonctionnement entre les différentes topologies<br />

présentées (VI, VFI, VFD). Ces onduleurs peuvent<br />

adopter un mode plus efficace, mais moins<br />

protecteur, puis passer en mode moins efficace<br />

mais plus protecteur quand la situation l’exige,<br />

d’où un important potentiel d’économie d’énergie.<br />

Pour aller plus loin<br />

ASHRAE (2011) : Thermal Guidelines for Data<br />

Processing Environments – Expanded Data centre<br />

Classes and Usage Guidance – ASHRAE, 2011,<br />

online available at: http://tc99.ashra<strong>et</strong>cs.<br />

org/documents/ASHRAE%20Whitepaper%20-%20<br />

2011%20Thermal%20Guidelines%20for%20Data%20<br />

Processing%20Environments.pdf<br />

EU Code of conduct for data centres (2009) :<br />

Full list of identified best practice options for data<br />

centre operators as referenced in the EU Code of<br />

Conduct:<br />

http://re.jrc.ec.europa.eu/energyefficiency/pdf/CoC/<br />

Best%20Practices%20v3.0.1.pdf<br />

The Green Grid (2011) : Evaluation tool for free<br />

cooling.<br />

http://cooling.thegreengrid.org/europe/WEB_APP/<br />

calc_index_EU.html<br />

ENERGY STAR (2011) : UPS efficiency<br />

http://www.energystar.gov/index.cfmc=new_specs.<br />

uninterruptible_power_supplies<br />

The Green Grid (2011) : Evaluation tool for<br />

power supply systems<br />

http://estimator.thegreengrid.org/pcee<br />

High Performance Buildings : Data centres<br />

Uninterruptible Power Supplies (UPS)<br />

http://hightech.lbl.gov/documents/UPS/Final_UPS_<br />

Report.pdf<br />

EU CODE of CONDUCT (2011) : EU code of<br />

conduct on Energy Efficiency and Quality of AC<br />

Uninterruptible Power Systems (UPS):<br />

http://re.jrc.ec.europa.eu/energyefficiency/html/<br />

standby_initiative.htm<br />

Sources<br />

[1] ASHRAE : Save Energy Now Presentation<br />

Series, 2009.<br />

[2] Niemann, J. <strong>et</strong> al. (2010) : Hot-Aisle vs.<br />

Cold-Aisle Containment for Data centres; APC by<br />

Schneider Electric White Paper 135, Revision 1.<br />

[3] Rasmussen, N. (2010) : An improved architecture<br />

for High-efficiency High-density data centres;<br />

APC by Schneider Electric White Paper 126,<br />

Revision 1.<br />

[4] Blough, B. (2011) : Qualitative analysis of<br />

cooling architectures for data centres; The Green<br />

Grid White Paper #30.<br />

[5] Bouley, D. and Brey, T. (2009) : Fundamentals<br />

of data centre power and cooling efficiency<br />

zones; The Green Grid White Paper #21.<br />

[6] Rasmussen, N. (2011) : Calculating Total<br />

Cooling Requirements for Data centres; APC by<br />

Schneider Electric White Paper 25, Revision 3.<br />

[7] ENERGY STAR Uninterruptible Power<br />

Supply Specification Framework (2010) :<br />

Available at:<br />

www.energystar.gov/ia/partners/prod_development/<br />

new_specs/downloads/uninterruptible_power_supplies/<br />

UPS_Framework_Document.pdf<br />

[8] Ton, M. and Fortenbury B. (2008) : High<br />

Performance Buildings: Data centres - Uninterruptible<br />

Power Supplies. Available at<br />

http://hightech.lbl.gov/documents/UPS/Final_UPS_<br />

Report.pdf<br />

[9] Samstad, J. and Hoff M. : Technical Comparison<br />

of On-line vs. Line-interactive UPS <strong>des</strong>igns;<br />

APC White Paper 79. Available at<br />

http://www.apcdistributors.com/white-papers/Power/<br />

WP-79%20Technical%20Comparison%20of%20Online%20vs.%20Line-interactive%20UPS%20<strong>des</strong>igns.pdf<br />

51


floorfour Agentur für Kommunikation<br />

Partenaires<br />

Soutenu par<br />

Contact : Agence autrichienne de l’Energie | Dr. Bernd Schäppi | Mariahilferstrasse 136 | A-1150 Vienna<br />

Tel +43 1 586 15 24 | bernd.schaeppi@energyagency.at | www.efficient-datacenters.eu<br />

Contact France : BIO Intelligence Service | Shailendra Mudgal | 20-22 Villa Deshayes | 75014 Paris<br />

Tel +33 1 53 90 11 80 | sm@biois.com

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!