Efficacité énergétique des technologies et ... - PrimeEnergyIT
Efficacité énergétique des technologies et ... - PrimeEnergyIT
Efficacité énergétique des technologies et ... - PrimeEnergyIT
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Efficacité énergétique<br />
<strong>des</strong> <strong>technologies</strong> <strong>et</strong><br />
infrastructures dans<br />
les datacentres <strong>et</strong><br />
salles serveurs
Mentions légales<br />
Direction éditoriale : consortium proj<strong>et</strong> <strong>PrimeEnergyIT</strong>, juill<strong>et</strong> 2011<br />
Coordination proj<strong>et</strong> : Dr. Bernd Schäppi, Agence autrichienne de l’Énergie (Vienne)<br />
Version française du document : BIO Intelligence Service (Traducteur - François-Xavier Durandy)<br />
Reproduction partielle autorisée, sous réserve de mention exhaustive de la source.<br />
Document imprimé sur papier blanchi sans chlore.<br />
Le contenu de c<strong>et</strong>te publication relève de la seule responsabilité de ses auteurs <strong>et</strong> ne prétend pas<br />
refléter la position de l’Union européenne.<br />
L’AECI <strong>et</strong> la Commission européenne ne sauraient être tenues pour responsables de l’utilisation<br />
pouvant être faite <strong>des</strong> informations contenues dans le présent document.
Des <strong>technologies</strong> efficaces pour réduire la consommation<br />
énergétique <strong>et</strong> les coûts <strong>des</strong> datacentres <strong>et</strong> salles serveurs<br />
La consommation énergétique <strong>des</strong> datacentres <strong>et</strong> salles serveurs a fortement progressé au cours <strong>des</strong> dix<br />
dernières années. La montée en puissance <strong>des</strong> matériels <strong>et</strong> la complexité accrue <strong>des</strong> services informatiques<br />
ont entraîné une hausse de la demande en énergie. Les coûts liés aux infrastructures <strong>et</strong> à l’énergie dans les<br />
datacentres sont ainsi devenus un facteur essentiel de la gestion de site <strong>et</strong> de l’infogérance. Un ensemble<br />
de <strong>technologies</strong> ont donc été développées pour améliorer l’efficacité énergétique <strong>et</strong> de nouvelles options<br />
de matériels <strong>et</strong> de gestion <strong>des</strong> systèmes d’information soutiennent les stratégies d’économies d’énergie.<br />
Le potentiel d’économie <strong>des</strong> datacentres <strong>et</strong> salles serveurs est généralement élevé, souvent supérieur à<br />
50 %, en fonction <strong>des</strong> <strong>technologies</strong> <strong>et</strong> <strong>des</strong> infrastructures. Les mesures d’économies d’énergie ont jusqu’à<br />
présent surtout porté sur les solutions d’alimentation <strong>et</strong> de refroidissement, mais l’efficacité énergétique<br />
<strong>des</strong> matériels fait désormais partie <strong>des</strong> pistes à l’étude. Des travaux récents montrent que les mesures<br />
d’optimisation entraînent d’ores <strong>et</strong> déjà une réduction significative de la demande en énergie par rapport<br />
à un scénario de statu quo [Koomey 2011]. Le potentiel demeure pourtant élevé <strong>et</strong> les <strong>technologies</strong> nouvelles<br />
perm<strong>et</strong>tent un déploiement encore plus efficace <strong>des</strong> mesures d’économies d’énergie.<br />
C<strong>et</strong>te brochure présente un aperçu succinct <strong>des</strong> <strong>technologies</strong> actuelles (matériel informatique <strong>et</strong> infrastructure)<br />
en faveur de l’efficacité énergétique. Elle couvre l’ensemble <strong>des</strong> équipements informatiques essentiels<br />
<strong>des</strong> datacentres : serveurs, stockage <strong>et</strong> réseaux. Les stratégies pour une plus grande efficacité<br />
énergétique englobent la conception <strong>des</strong> systèmes, la gestion de l’énergie à différents niveaux (du matériel<br />
informatique au datacentre dans son ensemble) ainsi que les mesures de consolidation <strong>et</strong> de virtualisation.<br />
Des recommandations de bonnes pratiques m<strong>et</strong>tent en avant les choix les plus intéressants à envisager<br />
dans la gestion <strong>et</strong> les achats <strong>des</strong> matériels. Des suggestions de lecture sont également indiquées. La brochure<br />
constitue ainsi une source d’informations de base pour aider les gestionnaires en <strong>technologies</strong> <strong>et</strong><br />
infrastructures à optimiser l’efficacité énergétique <strong>et</strong> la rentabilité <strong>des</strong> datacentres.<br />
C<strong>et</strong>te brochure s’inscrit dans le proj<strong>et</strong> international<br />
<strong>PrimeEnergyIT</strong> (www.efficient-datacenters.eu), mené dans le<br />
cadre du programme de l’UE « Intelligent Energy Europe ».<br />
1) Koomey, J. (2011): Growth in Data center electricity use 2005 to 2010, Jonathan Koomey, Analytics Press, Oakland,<br />
CA, August 1, 2011<br />
3
Table <strong>des</strong> matières<br />
1 Suivi de la consommation d’énergie dans les datacentres <strong>et</strong> salles serveurs 6<br />
1.1 Concepts de monitoring 6<br />
1.2 Appareils de mesure 9<br />
2 Équipements de serveur 10<br />
2.1 Efficacité énergétique <strong>et</strong> gestion de l’énergie au niveau du serveur <strong>et</strong> de ses composants 10<br />
2.1.1 Efficacité du processeur 12<br />
2.1.2 Efficacité de l’alimentation électrique 13<br />
2.2 Gestion de l’énergie au niveau du rack <strong>et</strong> du datacentre 14<br />
2.2.1 Gestion de la capacité <strong>et</strong> de l’énergie 14<br />
2.2.2 Power capping 16<br />
2.3 Options de gestion de l’énergie spécifiques pour serveurs lames 16<br />
2.3.1 Châssis <strong>et</strong> composants <strong>des</strong> serveurs lames 17<br />
2.3.2 Problèmes d’alimentation <strong>et</strong> de refroidissement 19<br />
2.4 Virtualisation <strong>des</strong> serveurs 21<br />
2.4.1 Potentiel d’économie d’énergie de la virtualisation 22<br />
2.4.2 Exigences <strong>et</strong> outils de planification de la virtualisation 23<br />
2.4.3 Gestion de l’énergie dans les environnements virtualisés : migration vers serveur virtuel 24<br />
2.4.4 Refroidissement <strong>et</strong> infrastructures <strong>des</strong> systèmes virtualisés 25<br />
3 Équipements de stockage de données 28<br />
3.1 Appareils de stockage 28<br />
3.1.1 Systèmes à ban<strong>des</strong> 28<br />
3.1.2 Disques durs (DD) 29<br />
3.1.3 Disques SSD 31<br />
3.1.4 Disques durs hybri<strong>des</strong> (HHD) 31<br />
3.2 Éléments de stockage 32<br />
3.2.1 Disques de grande capacité <strong>et</strong> miniaturisation 32<br />
3.2.2 Baies de disques de type MAID 32<br />
3.2.3 Niveaux RAID efficaces 32<br />
3.2.4 Tiering horizontal, virtualisation du stockage <strong>et</strong> allocation granulaire de capacité 33<br />
3.2.5 Consolidation au niveau du stockage <strong>et</strong> de la matrice 34<br />
3.2.6 Déduplication de données 34<br />
4
4 Équipements de réseau 36<br />
4.1 Cadre technique <strong>et</strong> opérationnel 36<br />
4.1.1 Schéma fonctionnel 36<br />
4.1.2 Attributs du réseau 37<br />
4.1.3 Équilibrer la performance <strong>et</strong> la consommation énergétique 37<br />
4.2 Amélioration de l’efficacité énergétique 38<br />
4.2.1 Fusionner les classes de trafic (consolidation E/S) 38<br />
4.2.2 Consolidation du réseau 40<br />
4.2.3 Virtualisation du réseau 41<br />
4.2.4 Sélection <strong>des</strong> composants <strong>et</strong> équipements 42<br />
4.2.5 Commutation floor-level 42<br />
5 Refroidissement <strong>et</strong> alimentation <strong>des</strong> datacentres <strong>et</strong> salles serveurs 44<br />
5.1 Refroidissement <strong>des</strong> salles serveurs 44<br />
5.1.1 Climatiseurs « split » <strong>et</strong> mobiles 44<br />
5.1.2 Mesures d’optimisation de l’efficacité énergétique 45<br />
5.2 Refroidissement <strong>des</strong> datacentres moyens à grands 46<br />
5.2.1 Généralités 46<br />
5.2.2 Contrôle de la température <strong>et</strong> de l’humidité 47<br />
5.2.3 Efficacité <strong>des</strong> composants (compresseurs, ventilateurs, centrales de traitement d’air) 48<br />
5.2.4 Free cooling 48<br />
5.2.5 Refroidissement au niveau du rack/de la rangée 49<br />
5.3 Alimentation <strong>et</strong> onduleurs dans les datacentres 49<br />
5
1 Suivi de la consommation d’énergie dans<br />
les datacentres <strong>et</strong> salles serveurs<br />
Carlos Patrao, Université de Coimbra<br />
1.1 Concepts de suivi<br />
On peut distinguer trois grands types de suivi :<br />
Le suivi de la consommation d’énergie dans les<br />
datacentres <strong>et</strong> salles serveurs est un élément<br />
essentiel pour évaluer le potentiel d’économie<br />
d’énergie <strong>et</strong> l’efficacité <strong>des</strong> mesures d’efficacité<br />
énergétique. Ce monitoring doit être conçu de façon<br />
à garantir la collecte de données pertinentes.<br />
On tiendra compte <strong>des</strong> aspects suivants [1] :<br />
• Niveau requis de précision <strong>et</strong> de résolution <strong>des</strong><br />
données ;<br />
• Répartition de la collecte de données, capacité<br />
à recueillir <strong>des</strong> données à partir de tous les appareils<br />
souhaités ;<br />
• Facilité d’utilisation <strong>et</strong> d’intégration <strong>des</strong> données<br />
entre appareils <strong>et</strong> échelles de temps ;<br />
• Evolutivité pour un déploiement de masse <strong>et</strong><br />
capacité multi-sites ;<br />
• Adaptabilité aux nouveaux besoins de mesure ;<br />
• Options d’analyse <strong>des</strong> données <strong>et</strong> intégration<br />
avec les systèmes de contrôle ;<br />
• Capacité à détecter les problèmes <strong>et</strong> notifier les<br />
opérateurs <strong>des</strong> datacentres ;<br />
• Montant de l’investissement <strong>et</strong> r<strong>et</strong>our.<br />
Charge du site<br />
Suivi minimum – Reposant sur <strong>des</strong> mesures<br />
réalisées ponctuellement <strong>et</strong> périodiquement avec<br />
un équipement portable, ce suivi se prête surtout<br />
aux sites de très p<strong>et</strong>ite taille. Certaines données<br />
(consommation, <strong>et</strong>c.) pourront être tirées de la<br />
documentation du fabricant. C<strong>et</strong>te approche ne<br />
nécessite pas d’investissement dans <strong>des</strong> équipements<br />
<strong>et</strong> infrastructures de mesure installés de<br />
façon permanente.<br />
Suivi avancé – Les données sont communiquées<br />
en temps réel grâce à <strong>des</strong> équipements installés<br />
de façon permanente, avec le soutien éventuel<br />
d’instruments en ligne. De légères modifications<br />
devront sans doute être apportées aux infrastructures.<br />
Suivi de pointe – Les données sont collectées<br />
en temps réel grâce à <strong>des</strong> systèmes d’enregistrement<br />
automatisé ou permanent, avec le soutien<br />
de logiciels en ligne dotés de fortes capacités<br />
d’analyse. Ce suivi impose une modification <strong>des</strong><br />
infrastructures <strong>et</strong> le soutien d’un personnel technique<br />
expert.<br />
Le système de suivi doit disposer d’un nombre<br />
adéquat de « nœuds d’information » (ou « points<br />
d’auscultation ») pour fournir les informations nécessaires<br />
à une analyse exhaustive de la consommation<br />
d’énergie. Sur les sites de grande taille, la<br />
sélection de ces « nœuds » doit commencer par<br />
les sous-systèmes les plus représentatifs en termes<br />
de consommation (cf. Figure 1.1), qui pourront<br />
faire figure de « points d’auscultation ».<br />
Charge informatique<br />
Alimentation électrique<br />
Équipements informatiques<br />
Appareillage électrique<br />
Services<br />
Consommation totale<br />
du site<br />
Générateurs<br />
Onduleurs<br />
Consommation <strong>des</strong><br />
équipements informatiques<br />
Stockage<br />
Équipements télécoms<br />
<strong>et</strong>c.<br />
<strong>et</strong>c.<br />
Climatiseurs<br />
Compresseurs<br />
Free cooling<br />
<strong>et</strong>c.<br />
Fig. 1.1 Schéma simplifié <strong>des</strong> principaux sous-systèmes d’un datacentre [Source: ASHRAE [2]].<br />
6
Plusieurs outils logiciels perm<strong>et</strong>tent d’assurer la<br />
collecte <strong>des</strong> données, leur traitement <strong>et</strong> leur évaluation.<br />
Le programme « Save EnergyNow » du<br />
ministère américain de l’Énergie a ainsi mis au<br />
point une suite logicielle baptisée « DC Pro »,<br />
comprenant un processus d’évaluation, <strong>des</strong> outils<br />
de benchmarking <strong>et</strong> de suivi de la performance<br />
ainsi que <strong>des</strong> recommandations pour les mesures.<br />
C<strong>et</strong>te suite est disponible en téléchargement gratuit.<br />
http://www1.eere.energy.gov/industry/datacenters/<br />
software.html<br />
AUTRES EXEMPLES D’OUTILS LOGICIELS UTILES :<br />
• Consommation d’énergie :<br />
http://estimator.thegreengrid.org/puee<br />
• Reporting du PUE :<br />
http://www.thegreengrid.org/en/Global/Content/Tools/PUEReporting<br />
• Mesure de l’évolutivité du PUE <strong>et</strong> analyse<br />
statistique :<br />
http://www.thegreengrid.org/library-and-tools.aspx<br />
category=M<strong>et</strong>ricsAndMeasurements&range=<br />
Entire%20Archive&type=Tool&lang=en&paging=All#<br />
TB_inline&inlineId=sign_in<br />
• Mesure du PUE <strong>et</strong> du DCiE (Data Center infrastructure<br />
Efficiency) :<br />
http://www.42u.com/measurement/pue-dcie.htm<br />
RECOMMANDATIONS DE BONNES PRATIQUES<br />
L’efficacité du système de suivi de la consommation d’énergie suppose que sa conception<br />
s’appuie sur une bonne compréhension <strong>des</strong> objectifs principaux, notamment :<br />
• Évaluer la consommation d’énergie totale <strong>des</strong> équipements informatiques <strong>et</strong> <strong>des</strong><br />
infrastructures ;<br />
• Analyser l’évolution de la consommation dans le temps ;<br />
• Comprendre la demande d’énergie instantanée <strong>des</strong> principaux équipements du site ;<br />
• Contrôler la facturation ;<br />
• Calculer les indices <strong>et</strong> indicateurs d’efficacité énergétique.<br />
Les logiciels/matériels mis en œuvre pour le suivi de la consommation énergétique devront<br />
offrir les fonctionnalités suivantes (source : ASHRAE) :<br />
• Fiabilité de la collecte de données <strong>et</strong> du stockage en fonction du taux <strong>et</strong> du niveau de<br />
précision souhaités ;<br />
• Normalisation <strong>des</strong> données issues de différents appareils, interfaces <strong>et</strong> protocoles ;<br />
• Sauvegarde <strong>des</strong> données sur de longues pério<strong>des</strong> de relevé ;<br />
• Analyse <strong>et</strong> affichage <strong>des</strong> données sous forme de tableaux <strong>et</strong> graphiques ;<br />
• Architecture extensible pour accompagner l’expansion du datacentre.<br />
Les principaux aspects à prendre au compte au moment du choix <strong>des</strong> appareils pour le<br />
système de suivi sont notamment la plage de mesure de l’instrumentation, sa résolution<br />
<strong>et</strong> sa précision.<br />
7
Tab. 1.1 Exemples d’appareils de mesure de la consommation énergétique<br />
Désignation<br />
Illustration Description Type de suivi<br />
Appareils de mesure<br />
portables<br />
Les appareils portables couvrent un vaste éventail de produits, <strong>des</strong><br />
multimètres monophasés jusqu’aux appareils d’analyse triphasés<br />
les plus avancés, avec fonctions d’enregistrement <strong>et</strong> de déclenchement<br />
programmé. Ils comportent généralement un écran intégré qui<br />
perm<strong>et</strong> à l’utilisateur de consulter les données mesurées ou enregistrées.<br />
Minimum <strong>et</strong> avancé<br />
Source: Chauvin Arnoux<br />
Appareils de tableau<br />
Source: Chauvin Arnoux<br />
Les appareils de tableau sont généralement installés de façon<br />
permanente au niveau de l’armoire électrique mesurant les onduleurs,<br />
générateurs <strong>et</strong> autres appareils. Ils possèdent un écran qui<br />
affiche les mesures en temps réel <strong>et</strong> les variables cumulées comme<br />
la consommation totale d’énergie. Ils peuvent être installés pour<br />
mesurer la consommation globale ou individuelle <strong>des</strong> différents<br />
appareils.<br />
Suivi de pointe <strong>et</strong><br />
bonnes pratiques<br />
Compteurs<br />
Source: Itron<br />
Les compteurs sont principalement utilisés par les compagnies<br />
d’électricité <strong>et</strong> les propriétaires adressant <strong>des</strong> factures à leurs clients,<br />
locataires, <strong>et</strong>c. Rarement affectés au suivi <strong>des</strong> datacentres, ils fournissent<br />
toutefois <strong>des</strong> données sur la consommation totale du site. Le<br />
fournisseur pourra parfois fournir l’accès au port de communication<br />
numérique, perm<strong>et</strong>tant un relevé <strong>et</strong> une sauvegarde dans une base<br />
de données pour une analyse future (par ex. toutes les 15 minutes).<br />
Compatibles avec<br />
l’ensemble <strong>des</strong><br />
approches<br />
Unités de<br />
distribution<br />
d’alimentation<br />
intelligentes<br />
Source: Raritan<br />
Les unités de distribution d’alimentation (PDU) intelligentes ou PDU<br />
pour rack avec compteur assurent une fonction de mesure active<br />
pour optimiser l’alimentation <strong>et</strong> protéger les circuits. Ils fournissent<br />
<strong>des</strong> données d’utilisation de l’énergie perm<strong>et</strong>tant aux gestionnaires<br />
de faire <strong>des</strong> choix informés sur la répartition de la charge <strong>et</strong> la micromisation<br />
<strong>des</strong> environnements informatiques pour réduire le coût<br />
total de possession. Les PDU peuvent être équipées d’un suivi distant<br />
en temps réel de l’énergie au niveau de l’unité ou <strong>des</strong> différentes<br />
sorties : courant, tension, puissance, facteur de puissance <strong>et</strong><br />
consommation (kWh) avec une marge d’erreur de ±1 % (ISO/IEC)<br />
compatible avec la facturation. L’accès <strong>et</strong> la configuration se font via<br />
une interface sécurisée de type web, SNMP ou Teln<strong>et</strong>.<br />
Compatibles avec<br />
l’ensemble <strong>des</strong><br />
approches<br />
Fonctions de mesure<br />
intégrées au serveur<br />
Fonction de mesure de l’alimentation électrique intégrée au serveur<br />
Minimum <strong>et</strong> avancé<br />
Transducteurs<br />
Les transducteurs sont généralement <strong>des</strong> équipements dépourvus<br />
d’écran <strong>et</strong> connectés de façon permanente à l’armoire électrique, à<br />
l’instar <strong>des</strong> appareils de tableau. Ce type d’appareils sert souvent<br />
aux systèmes de suivi à obtenir <strong>des</strong> mesures issues de divers points<br />
du datacentre.<br />
Compatible avec<br />
l’ensemble <strong>des</strong><br />
approches<br />
Source: Chauvin Arnoux<br />
8
1 Suivi de la consommation d’énergie dans les salles serveurs <strong>et</strong> datacentres<br />
1.2 Appareils de mesure<br />
Un grand nombre d’appareils de mesure de tous<br />
types perm<strong>et</strong>tent de mesurer les variables clés<br />
telles que la consommation d’énergie, la température,<br />
le débit <strong>et</strong> l’humidité.<br />
Quelques exemples d’appareils de mesure de<br />
l’énergie sont présentés dans le Tableau 1.1 (cicontre,<br />
page 8). Pour tout complément d’information,<br />
veuillez vous référer aux sources indiquées<br />
ci-après ou consulter le « Technology Assessment<br />
Report » sur le site web de <strong>PrimeEnergyIT</strong>.<br />
Pour aller plus loin<br />
ASHRAE (2010) : Real-Time Energy Consumption<br />
Measurements in Data Centres, ASHRAE –<br />
American Soci<strong>et</strong>y of Heating, Refrigerating and<br />
Air- Conditioning Engineers, 2010.<br />
ISBN: 978-1-933742-73-1<br />
Stanley, J. and Koomey, J. (2009) : The Science<br />
of Measurement: Improving Data Centre<br />
Performance with Continuous Monitoring and<br />
Measurement of Site Infrastructure, Stanley John<br />
and Koomey Jonathan, October 2009<br />
www.analyticspress.com/scienceofmeasurement.html<br />
Ton, M. <strong>et</strong> al. (2008) : DC Power for Improved<br />
Data Centre Efficiency,Ton, My, Fortenbery, Brian<br />
and Tschudi, William, Ecos Consulting, EPRI, Lawrence<br />
Berkeley National Laboratory, March 2008<br />
http://hightech.lbl.gov/documents/data_centres/<br />
dcdemofinalreport.pdf<br />
The Green Grid (2008) : Green Grid Data Centre<br />
Power Efficiency M<strong>et</strong>rics. White Paper 6, The<br />
Green Grid, White Paper 6. December 30, 2008<br />
http://www.thegreengrid.org/Global/Content/white-<br />
papers/The-Green-Grid-Data-Centre-Power-Efficiency-<br />
M<strong>et</strong>rics-PUE-and-DCiE<br />
Rasmussen N. (2009) : D<strong>et</strong>ermining Total Cost<br />
of Ownership for Data Centre and N<strong>et</strong>work Room<br />
Infrastructure, Neil Rasmussen, APC by Schneider<br />
Electric, White paper #6 – Revision 4<br />
http://www.apcmedia.com/salestools/CMRP-5T9PQG_<br />
R4_EN.pdf<br />
Rasmussen N. (2010) : Avoiding Costs From<br />
Oversizing Data Centre and N<strong>et</strong>work Room Infrastructure,<br />
Neil Rasmussen, APC by Schneider Electric,<br />
2010. White paper #37 – Revision 6<br />
http://www.apcmedia.com/salestools/SADE-5TNNEP_<br />
R6_EN.pdf<br />
Schneider Electric (2011) : E-learning website<br />
(Energy University) that provi<strong>des</strong> the latest information<br />
and training on Energy Efficiency concepts<br />
and best practice<br />
www.myenergyuniversity.com<br />
Webinar : “The Data Centre in Real Time: Monitoring<br />
Tools Overview & Demon“<br />
http://www.42u.com/webinars/Real-Time-<br />
Measurement-Webinar/playback.htm<br />
Sources<br />
[1] Stanley, J. and Koomey, J. (2009) : The<br />
Science of Measurement: Improving Data Centre<br />
Performance with Continuous Monitoring and<br />
Measurement of Site Infrastructure. October 2009.<br />
[2] ASHRAE (2010) : Real-Time Energy<br />
Con sump tion Measurements in Data Centres:<br />
ASHRAE- American Soci<strong>et</strong>y of Heating, Refrigerating<br />
and Air-Conditioning Engineers, 2010.<br />
ISBN: 978-1-933742-73-1.<br />
9
2 Équipements de serveurs<br />
,<br />
Bernd Schäppi, Thomas Bogner, Hellmut Teschner, Agence autrichienne de l’Énergie<br />
Les équipements de serveurs représentent environ 30-40 % de la<br />
consommation d’énergie totale <strong>des</strong> datacentres <strong>et</strong> salles serveurs. Ils<br />
constituent donc l’une <strong>des</strong> cibles prioritaires pour la mise en œuvre de<br />
mesures d’économies d’énergie. Les équipements les plus courants<br />
englobent les serveurs de type rack, lame, mais aussi pié<strong>des</strong>tal <strong>et</strong><br />
multinœuds.<br />
Le potentiel d’économie d’énergie est élevé : il peut atteindre 20 à 60 %,<br />
voire plus, en fonction du type de système <strong>et</strong> <strong>des</strong> mesures déployées. Les<br />
approches fondamentales pour optimiser l’efficacité énergétique reposent<br />
sur la sélection de matériels efficaces, la conception <strong>des</strong> systèmes, la gestion<br />
de l’énergie à tous les niveaux (du composant hardware jusqu’au système<br />
dans sa globalité) ainsi, bien sûr, que la consolidation <strong>et</strong> la virtualisation.<br />
Ce chapitre est consacré aux <strong>technologies</strong> <strong>et</strong> options d’économies d’énergie, du niveau<br />
du composant jusqu’à celui du système. Les problèmes d’efficacité énergétique <strong>et</strong> les<br />
améliorations possibles sont traités du niveau du serveur jusqu’à celui du rack <strong>et</strong> du<br />
datacentre. La technologie <strong>des</strong> serveurs lames <strong>et</strong> la virtualisation en tant que stratégie<br />
d’efficacité font l’obj<strong>et</strong> de deux sous-parties spécifiques. Les recommandations de<br />
bonnes pratiques sont récapitulées sous forme d’encadrés.<br />
Tab. 2.1 Critères Energy Star en mode inactif<br />
Catégorie<br />
Nombre de processeurs<br />
installés<br />
Serveur géré<br />
Consommation<br />
plafond en mode<br />
inactif (W)<br />
A 1 Non 55<br />
B 1 Oui 65<br />
C 2 Non 100<br />
D 2 Oui 150<br />
Tab. 2.2 Concept de l’outil d’évaluation SERT<br />
Résultat benchmark<br />
système<br />
Serveur<br />
Processeur Résultat benchmark<br />
Mémoire Résultat benchmark<br />
2.1 Efficacité énergétique <strong>et</strong><br />
gestion de l’énergie au niveau<br />
du serveur <strong>et</strong> <strong>des</strong> composants<br />
L’efficacité énergétique <strong>des</strong> serveurs s’est fortement<br />
améliorée ces dernières années, essentiellement<br />
du fait du développement d’une gestion<br />
d’énergie efficace pour les composants matériels.<br />
À ce jour, l’efficacité <strong>des</strong> serveurs est évaluée <strong>et</strong><br />
déclarée sur la base <strong>des</strong> critères Energy Star <strong>et</strong> du<br />
benchmark SPECpower (SPEC : Standard Performance<br />
Evaluation Corporation).<br />
Le cahier <strong>des</strong> charges actuel du label Energy Star<br />
pour les serveurs d’entreprise [1] définit <strong>des</strong> critères<br />
d’efficacité énergétique pour les serveurs de<br />
type rack <strong>et</strong> pié<strong>des</strong>tal contenant jusqu’à 4 sock<strong>et</strong>s.<br />
Il définit <strong>des</strong> seuils plafonds de consommation<br />
électrique en mode inactif pour les serveurs à<br />
1 ou 2 sock<strong>et</strong>(s) ainsi que <strong>des</strong> critères d’efficacité<br />
de l’alimentation <strong>et</strong> <strong>des</strong> fonctions de gestion de<br />
l’énergie (voir Tableaux 2.1 <strong>et</strong> 2.4). Les critères du<br />
mode inactif sont surtout utiles comme indicateurs<br />
pour <strong>des</strong> conditions de charge moyenne basse <strong>et</strong><br />
de quasi-inactivité. Ces basses charges (
SPECpower_ssj2008 [2] a été le premier benchmark<br />
standard perm<strong>et</strong>tant l’évaluation de l’effi-<br />
fig 2.1<br />
cacité énergétique de serveurs de type volume. Il<br />
porte essentiellement sur l’efficacité liée au processeur<br />
<strong>et</strong> fournit donc une bonne indication pour<br />
les charges importantes au niveau du processeur.<br />
Mais ce benchmark n’est publié par les fabricants<br />
que pour certains matériels. La Figure 2.1 montre<br />
un exemple de résultats SPECpower pour un serveur<br />
de type volume. Ce graphique type nous renseigne<br />
sur la performance moyenne par watt <strong>et</strong> ce,<br />
pour dix niveaux de charge gradués. Il perm<strong>et</strong> de<br />
comparer les serveurs du mode inactif jusqu’à une<br />
charge 100 %. Dans la perspective d’un achat, il<br />
conviendrait d’exiger du fournisseur l’information<br />
complète SPECpower. Il faut en outre tenir compte<br />
du fait que les produits sont souvent testés avec<br />
<strong>des</strong> configurations réduites.<br />
Axe <strong>des</strong> charges<br />
(de inactif à<br />
100 % par<br />
tranche de 10 %)<br />
Targ<strong>et</strong> Load<br />
100%<br />
90%<br />
80%<br />
70%<br />
60%<br />
50%<br />
40%<br />
30%<br />
20%<br />
10%<br />
Active<br />
Idle<br />
Axe de la performance<br />
Performance to Power Ratio<br />
0 1,000 2,000 3,000 4,000<br />
3,197 overall ssj_ops/watt<br />
4,020<br />
4,073<br />
4,003<br />
3,853<br />
3,653<br />
3,285<br />
2,829<br />
2,305<br />
1,681<br />
955<br />
Score benchmark global (La<br />
valeur SPECpower_ssj2008<br />
est égale à la somme <strong>des</strong><br />
scores ssj_ops pour toutes<br />
les charges cibles divisée par<br />
la somme <strong>des</strong> moyennes de<br />
consommation (en watts)<br />
pour ces charges, y compris<br />
l’intervalle de mesure en<br />
mode active idle)<br />
Barres indiquant la performance<br />
Courbe de consommation<br />
d’énergie<br />
0 25 50 75 100 125 150 175 200 225<br />
Average Active Power (W)<br />
Axe de la consommation<br />
d’énergie<br />
Fig. 2.1 Diagramme SPECpower <strong>et</strong> principales données<br />
Recommandations de bonnes pratiques<br />
Critères <strong>et</strong> benchmarks pour la sélection de matériels<br />
efficaces<br />
• Ach<strong>et</strong>er en fonction <strong>des</strong> critères d’efficacité Energy Star si disponibles.<br />
Pour les serveurs opérant à faible charge, les critères<br />
Energy Star Vers. 1 en mode inactif peuvent raisonnablement<br />
faire office d’indicateurs. Les critères d’alimentation sont valables<br />
pour tout type d’équipement.<br />
• Exiger du fabricant les résultats du benchmark SPECpower_<br />
ssj2008 (<strong>et</strong> SPEC-SERT dès sa sortie). Pour SPECpower, tenir<br />
compte <strong>des</strong> points suivants :<br />
■ Ce benchmark ciblé CPU est surtout représentatif <strong>des</strong><br />
charges intenses au niveau du processeur ;<br />
■ Vérifier la configuration dans laquelle le serveur a été testé,<br />
celle-ci pouvant être assez réduite ;<br />
■ Pour bien interpréter les résultats, ne pas se contenter de<br />
la valeur globale (opérations par watt), mais tenir compte<br />
aussi du détail du benchmark.<br />
11
2.1.1 Efficacité du processeur<br />
Le processeur (CPU) est l’élément le plus énergivore<br />
du serveur. Un modèle de CPU efficace avec<br />
gestion d’énergie efficace peut donc jouer un rôle<br />
important dans l’efficacité globale.<br />
La consommation du processeur dépend de la<br />
tension <strong>et</strong> de la fréquence d’horloge. La gestion<br />
d’énergie au niveau du CPU ou du cœur repose<br />
donc sur l’adaptation dynamique de la tension <strong>et</strong><br />
de la fréquence (DVFS) ou le fait d’éteindre <strong>des</strong><br />
cœurs. La consommation du CPU est souvent<br />
comparée en termes d’enveloppe thermique (thermal<br />
<strong>des</strong>ign power, TDP), qui indique la puissance<br />
maximale que le système de refroidissement d’un<br />
serveur doit pouvoir traiter. Or le TDP n’est qu’une<br />
mesure partielle, car l’efficacité globale dépend<br />
aussi fortement de la gestion d’énergie. Les fabricants<br />
proposent <strong>des</strong> CPU conçus spécialement<br />
pour une faible consommation <strong>et</strong> perm<strong>et</strong>tant une<br />
économie d’énergie substantielle si les critères de<br />
performance spécifiques sont remplis.<br />
L’efficacité énergétique d’un CPU est étroitement<br />
liée à la réussite de la mise en œuvre de la gestion<br />
d’énergie. Les grands systèmes d’exploitation<br />
supportent c<strong>et</strong>te gestion sur la base de la norme<br />
ACPI (advanced configuration and power interface)<br />
pour les états de performance du processeur<br />
<strong>et</strong> de consommation (P-states) <strong>et</strong> les états de gestion<br />
thermique (C-states). Les nouveaux contrôles<br />
système <strong>et</strong> composants que perm<strong>et</strong> la version 3 de<br />
l’ACPI assurent une gestion de l’énergie optimisée<br />
<strong>et</strong> par là un ajustement affiné de l’alimentation <strong>et</strong><br />
de la performance en fonction de la demande. De<br />
nombreux modèles de serveurs récents possèdent<br />
<strong>des</strong> mo<strong>des</strong> préconfigurés, par ex. :<br />
■ « Haute performance » (pour <strong>des</strong> serveurs très<br />
fortement sollicités <strong>et</strong> devant assurer une performance<br />
maximale quel que soit le coût de<br />
l’énergie) ;<br />
■ « Économie d’énergie » / « consommation minimum<br />
» (ce mode peut entraîner une économie<br />
d’énergie supplémentaire pour les serveurs<br />
peu sollicités <strong>et</strong> ayant une capacité supérieure à<br />
leurs besoins réels) ;<br />
■ « Équilibre consommation/performance ».<br />
La Figure 2.2 montre les eff<strong>et</strong>s positifs de la<br />
gestion d’énergie <strong>des</strong> processeurs modernes à<br />
travers les résultats de benchmark (SPECpower)<br />
pour la famille de produits serveurs HP ProLiant<br />
DL 380 : le ratio puissance en mode inactif/puissance<br />
pleine charge a été fortement réduit entre<br />
les générations 5 <strong>et</strong> 7 de ce modèle. Sur le DL 380<br />
G5, la puissance en mode inactif (charge zéro)<br />
était inférieure de 33 % (170 watts) à celle en<br />
pleine charge (253 W). Sur le G7, la différence<br />
est d’environ 75 %. La nouvelle technologie est<br />
donc beaucoup plus efficace à basse charge ou en<br />
mode inactif, grâce à une gestion d’énergie intelligente<br />
au niveau du CPU. Dans le même temps,<br />
la performance de calcul de ce modèle a été plus<br />
que triplée.<br />
Pour sélectionner un matériel dans la perspective<br />
d’un achat, il est essentiel de vérifier les critères<br />
de performance concr<strong>et</strong>s que devront remplir ses<br />
composants. Différents types de charges entraînent<br />
différentes exigences de performance, dont<br />
Targ<strong>et</strong> Load<br />
100%<br />
90%<br />
80%<br />
70%<br />
60%<br />
50%<br />
40%<br />
30%<br />
20%<br />
10%<br />
Active<br />
Idle<br />
G7 (3.07 GHz, Intel Xeon X5675) G5 (2.66GHz, Intel Xeon L5430)<br />
Performance Performance to Power Ratio to Power Ratio<br />
Performance Performance to Power Ratio to Power Ratio<br />
0 1,0000 2,000 1,000 3,000 2,000 4,000 3,000 4,000<br />
0 250 0 500250 750500 1,000750 1,250 1,000 1,250<br />
3,197 overall ssj_ops/watt 3,197 overall ssj_ops/watt<br />
734 overall ssj_ops/watt 734 overall ssj_ops/watt<br />
4,020 100% 4,020<br />
100% 1,214 100% 1,214<br />
4,073 90% 4,073<br />
90% 1,135 90% 1,135<br />
4,003 80% 4,003<br />
80% 1,049 80% 1,049<br />
3,853 70% 3,853<br />
70% 95170%<br />
951<br />
3,653 60% 3,653<br />
60% 85460%<br />
854<br />
3,285 50% 3,285<br />
50% 73850%<br />
738<br />
2,829 40% 2,829<br />
40% 62040%<br />
620<br />
2,305 30% 2,305<br />
30% 48430%<br />
484<br />
1,681 20% 1,681<br />
20% 33520%<br />
335<br />
95510%<br />
955<br />
10% 17510%<br />
175<br />
Targ<strong>et</strong> Load<br />
Active<br />
Idle<br />
Targ<strong>et</strong> Load<br />
Active<br />
Idle<br />
Targ<strong>et</strong> Load<br />
Active<br />
Idle<br />
0 25 50 075 251005012575150100 175125 200150 225175 200 225<br />
Average Active Average Power Active (W) Power (W)<br />
0 50 0 100 50 150 100 200 150 250 200 250<br />
Average Active Average Power Active (W) Power (W)<br />
Fig. 2.2 Exemple de benchmark SPECpower pour deux générations de serveur (serveurs HP G5 <strong>et</strong> G7) [SPEC (2010, www.spec.org)]<br />
12
2 Équipements de serveurs<br />
il faut tenir compte pour une configuration matérielle<br />
efficace. Le Tableau 2.3 fournit une indication<br />
approximative <strong>des</strong> exigences de performance<br />
pour différentes charges de travail.<br />
2.1.2 Efficacité de l’alimentation électrique<br />
Le label Energy Star pour serveurs [1] définit <strong>des</strong><br />
critères d’efficacité de l’alimentation électrique<br />
pour <strong>des</strong> charges de 10, 20, 50 <strong>et</strong> 100 %. La certification<br />
80 PLUS possède ses propres critères<br />
d’efficacité pour l’alimentation <strong>des</strong> serveurs, mais<br />
pas à une charge de 10 %. En pratique <strong>et</strong> dans la<br />
perspective d’un achat, il est recommandé de privilégier<br />
une alimentation remplissant au moins le<br />
niveau 80 PLUS « Or », qui correspond à une efficacité<br />
de 88 % à 20 % de charge <strong>et</strong> 92 % à 50 %.<br />
Les serveurs racks standards qui fonctionnent<br />
couramment à faible charge sont souvent équipés<br />
d’une alimentation électrique redondante <strong>et</strong> surprovisionnée.<br />
Ceci entraîne une perte d’énergie<br />
Tab. 2.3 Critères de performance de différentes applications serveur [5]<br />
Catégorie CPU RAM Disques<br />
durs<br />
Fichiers/impression 0 + ++ +<br />
Messagerie + + ++ 0<br />
Virtualisation ++ +++ ++ ++<br />
Web + + 0 +<br />
Base de données ++ ++ +++ +<br />
Application ++ ++ 0 +<br />
Terminal ++ ++ + +<br />
substantielle due au point d’opération très bas<br />
de l’équipement. Optimiser l’alimentation électrique<br />
est donc un point essentiel. C’est ce que<br />
perm<strong>et</strong>tent notamment les outils de configuration<br />
d’énergie en ligne proposés par les fabricants <strong>et</strong><br />
les outils d’évaluation du power capping.<br />
Certains serveurs (HP ProLiant G6 <strong>et</strong> G7 par ex.)<br />
possèdent <strong>des</strong> fonctions spécifiques pour pallier<br />
E/S<br />
les pertes inutiles <strong>des</strong> alimentations redondantes.<br />
Ces matériels proposent un mode d’opération perm<strong>et</strong>tant<br />
de n’utiliser qu’une seule alimentation en<br />
deçà d’un seuil de charge prédéfini. La seconde<br />
alimentation demeure en mode veille, ce qui perm<strong>et</strong><br />
d’avoir une redondance complète en cas de<br />
coupure de courant ou de défaillance du circuit.<br />
Tab. 2.4 Critères d’efficacité pour l’alimentation électrique selon le label Energy Star <strong>et</strong> la certification 80 PLUS [1, 3]<br />
Type d’alimentation<br />
Puissance nominale<br />
de sortie<br />
Charge<br />
10 %<br />
Charge<br />
20 %<br />
Charge<br />
50 %<br />
Charge<br />
100 %<br />
Energy Star 1 Sorties multiples (CA-CC & CC-CC) Toutes puissances N/A 82 % 85 % 82 %<br />
Sortie unique (CA-CC & CC-CC) ≤ 500 W 70 % 82 % 89 % 85 %<br />
>500–1 000 W 75 % 85 % 89 % 85 %<br />
> 1 000 W 80 % 88 % 92 % 88 %<br />
Energy Star 2 (en préparation)<br />
Sorties multiples (CA-CC & CC-CC) Toutes puissances N/A 85 % 88 % 85 %<br />
Sortie unique (CA-CC & CC-CC) Toutes puissances 80 % 88 % 92 % 88 %<br />
80 PLUS Bronze Toutes puissances N/A 81 % 85 % 81 %<br />
Argent Toutes puissances N/A 85 % 89 % 85 %<br />
Or Toutes puissances N/A 88 % 92 % 88 %<br />
Platine Toutes puissances N/A 90 % 94 % 91 %<br />
13
2.2 Gestion de l’alimentation<br />
au niveau du rack <strong>et</strong> du datacentre<br />
Au-delà <strong>des</strong> composants matériels <strong>et</strong> <strong>des</strong> unités<br />
de serveur, la gestion de l’énergie au niveau du<br />
système est un autre élément important pour optimiser<br />
l’efficacité globale.<br />
Comme expliqué précédemment, la majorité <strong>des</strong><br />
serveurs restent utilisés à un niveau de charge mo<strong>des</strong>te.<br />
Il existe donc un important potentiel d’économie<br />
d’énergie par la consolidation matérielle<br />
(voir chapitre suivant) ou la gestion de l’énergie<br />
au niveau du système. Comme pour le niveau<br />
composant, il s’agit d’ajuster la performance <strong>et</strong><br />
la consommation en fonction de la demande en<br />
temps réel <strong>et</strong> de couper ou brider les ressources<br />
non utilisées. Le Tableau 2.5 résume les diverses<br />
approches de la gestion de l’énergie à différents<br />
niveaux [7]. Certaines de ces options sont traitées<br />
dans les pages suivantes.<br />
2.2.1 Gestion de la capacité <strong>et</strong> de l’énergie<br />
Les logiciels de gestion de serveur fournissent<br />
<strong>des</strong> outils essentiels pour sécuriser les opérations<br />
mais aussi gérer l’énergie de façon globale. Ces<br />
outils peuvent contribuer efficacement à réduire<br />
la consommation en facilitant la mise en œuvre<br />
de principes d’économie à tous les niveaux du<br />
système <strong>et</strong> en fournissant <strong>des</strong> fonctions capables<br />
de favoriser fortement l’efficacité. Ces principales<br />
fonctions sont :<br />
• Provisionnement<br />
• Monitoring<br />
• Déploiement<br />
• Gestion de configuration<br />
• Contrôle <strong>des</strong> mises à jour<br />
• Gestion de l’énergie<br />
• Gestion de la charge<br />
Les principaux fournisseurs proposent tous <strong>des</strong><br />
outils puissants de gestion de serveur. Les solutions<br />
IBM (Systems Director) <strong>et</strong> HP (Systems<br />
Insight Manager avec Insight Dynamics) sont<br />
particulièrement complètes puisqu’elles sont capables<br />
d’intégrer les systèmes de parties tierces.<br />
Fujitsu (Server View Site) propose <strong>des</strong> produits<br />
aux fonctionnalités de base pouvant être intégrés<br />
dans les consoles d’autres fabricants. Dell fait appel<br />
à la suite Altiris Total Management. Sun <strong>et</strong><br />
Acer fournissent <strong>des</strong> consoles pour leurs propres<br />
environnements.<br />
Suites de gestion de l’énergie (par ex. IBM<br />
Energy Manager)<br />
Ce type d’outil perm<strong>et</strong>, entre autres, le suivi <strong>et</strong> la<br />
collecte de données de consommation, la gestion<br />
de l’énergie (configuration d’options d’économie<br />
d’énergie <strong>et</strong> power caps) <strong>et</strong> l’automation de<br />
certaines tâches liées à l’énergie : configuration<br />
d’appareils de mesure tels que PDU <strong>et</strong> capteurs,<br />
définition de seuils, création <strong>et</strong> configuration de<br />
principes, calcul <strong>des</strong> coûts, <strong>et</strong>c. Pour en savoir plus<br />
sur les suites de gestion de l’énergie, voir plus bas.<br />
Tab. 2.5. Options de gestion de l’énergie du niveau composant au niveau datacentre [7]<br />
Niveau composant Niveau système Niveau rack Niveau datacentre<br />
• Processeur (package/core C-states, • S-states<br />
P-states, T-states, étrangleur • Gestion de l’énergie sur plateforme<br />
thermique)<br />
• Planificateurs de charge de travail<br />
• Autres composants (D-states, L- • Contrôle de vitesse <strong>des</strong> ventilateurs<br />
states)<br />
• Gestion système ou nœud<br />
• Équilibrage application/charge<br />
• Gestion de châssis<br />
• Équilibrage application/charge<br />
• Suivis de sites <strong>et</strong> d’équipements<br />
• Déduplication <strong>des</strong> données, <strong>et</strong>c..<br />
• Gestion multi-racks, consolidation<br />
dynamique<br />
14
2 Équipements de serveurs<br />
Outils de gestion de la capacité<br />
(e.g. HP Capacity Planner)<br />
Les outils de gestion de la capacité sont utilisés,<br />
entre autres, pour accroître l’utilisation <strong>des</strong><br />
serveurs, réduire la consommation d’énergie <strong>et</strong><br />
améliorer les performances <strong>des</strong> applications. Ils<br />
perm<strong>et</strong>tent de recueillir <strong>des</strong> données d’utilisation<br />
pour les cœurs de processeur, la mémoire, le réseau,<br />
les E/S disque <strong>et</strong> l’énergie. Ils perm<strong>et</strong>tent par<br />
ailleurs la planification <strong>des</strong> charges ou les modifications<br />
du système <strong>et</strong> l’évaluation de l’impact sur<br />
l’utilisation <strong>des</strong> ressources. Ils évaluent enfin les<br />
tendances pour prévoir l’évolution <strong>des</strong> besoins.<br />
Pour en savoir plus sur les outils de gestion de la<br />
capacité, voir plus bas.<br />
L’outil HP, par ex., fait appel aux journaux d’utilisation<br />
pour apporter une aide à la décision en<br />
évaluant la demande en ressources <strong>des</strong> applications<br />
candidates à la consolidation. La Figure 2.3<br />
montre un exemple de comparaison d’utilisation<br />
de deux systèmes. On voit que les pics de performance<br />
interviennent à <strong>des</strong> moments différents :<br />
une consolidation matérielle ne provoquerait<br />
donc qu’un accroissement mo<strong>des</strong>te de la charge<br />
moyenne.<br />
3,0<br />
2,5<br />
Nombre de coeurs<br />
2,0<br />
1,5<br />
1,0<br />
Pic d’utilisation du système<br />
Pic d’utilisation du système 1<br />
2<br />
0,5<br />
0,0<br />
21 fév. 28 fév. 6 mars<br />
Temps<br />
13 mars<br />
Système 1<br />
Système 2<br />
Allocation<br />
Fig. 2.3 Comparaison de l’utilisation du CPU de deux systèmes (voir HP Capacity Planner)<br />
15
2.2.2 Power capping<br />
Le terme power capping désigne l’allocation<br />
active d’un budg<strong>et</strong> énergie à un serveur. Les gestionnaires<br />
informatiques peuvent définir un power<br />
cap pour leurs serveurs en fonction <strong>des</strong> besoins<br />
réels. Le dynamic power capping réduit la demande<br />
maximum du système <strong>et</strong> optimise ainsi le<br />
provisionnement au-delà du niveau généralement<br />
supporté par les configurateurs <strong>des</strong> fabricants.<br />
Les économies réalisées en pratique dépendent de<br />
la valeur du cap. Celui-ci doit être fixé de façon à<br />
limiter les pics d’alimentation mais sans affecter<br />
de façon perceptible les performances de calcul<br />
RECOMMANDATIONS DE BONNES PRATIQUES<br />
Planification <strong>et</strong> gestion d’un datacentre efficace<br />
du système. Un capping optimisé exige donc une<br />
évaluation <strong>des</strong> tendances de la charge <strong>et</strong> de la<br />
consommation. Pour les charges relativement uniformes,<br />
le cap pourra être fixé au niveau moyen<br />
sans affecter sensiblement la performance. D’une<br />
façon générale, le cap ne doit jamais être situé en<br />
deçà de la valeur médiane entre plancher <strong>et</strong> plafond<br />
de consommation du serveur. Certains outils<br />
de gestion perm<strong>et</strong>tent un capping dynamique en<br />
définissant différentes valeurs sur différentes pério<strong>des</strong>,<br />
en fonction de la charge, du coût de l’énergie,<br />
<strong>et</strong>c.<br />
• Utiliser les outils de gestion de serveur pour la planification de la capacité, le suivi de la charge <strong>et</strong><br />
de la puissance <strong>et</strong> la gestion spécifique de l’énergie. Un <strong>des</strong>criptif détaillé <strong>et</strong> <strong>des</strong> recommandations<br />
sur l’utilisation de la fonction gestion de l’énergie sont fournis avec la documentation technique<br />
<strong>des</strong> suites de gestion de serveur.<br />
• Équilibrer les applications <strong>et</strong> les charges pour optimiser l’utilisation <strong>des</strong> ressources matérielles.<br />
• Utiliser le power capping pour maintenir la demande au niveau souhaité sur l’ensemble du système.<br />
• Profiter <strong>des</strong> niveaux de résilience optimisés <strong>des</strong> matériels. Évaluer le niveau réellement justifié au<br />
vu de l’impact prévu <strong>des</strong> incidents de service sur l’activité pour chaque service déployé.<br />
• Désaffecter les services <strong>et</strong> supprimer entièrement les matériels non utilisés. Évaluer la possibilité<br />
de désaffecter <strong>des</strong> services à faible valeur pour l’activité en identifiant ceux pour lesquels le coût<br />
financier <strong>et</strong> environnemental n’est pas justifié.<br />
2.3 Options de gestion de<br />
l’énergie spécifiques pour serveurs<br />
lames<br />
La technologie <strong>des</strong> serveurs lames est déployée à<br />
la fois dans les datacentres <strong>et</strong> les salles serveurs.<br />
Ce segment du marché est celui qui connaît la<br />
croissance la plus rapide de ces dernières années.<br />
Il est donc important de rendre c<strong>et</strong>te technologie<br />
aussi efficace que possible.<br />
Les châssis à lames (voir Figure 2.4.) rassemblent<br />
généralement 7, 14 (ou plus) modules de serveurs<br />
lames, au moins un module de gestion ainsi que<br />
<strong>des</strong> interfaces KVM. Ils supportent <strong>des</strong> modules<br />
serveur, stockage <strong>et</strong> réseau <strong>et</strong> peuvent être optimisés<br />
pour <strong>des</strong> applications <strong>et</strong> types d’utilisateur<br />
spécifiques. Par rapport aux serveurs racks standard,<br />
c<strong>et</strong>te technologie perm<strong>et</strong> de réduire certains<br />
composants matériels comme l’alimentation<br />
électrique, les E/S réseau <strong>et</strong> la câblerie, qui sont<br />
partagés par plusieurs serveurs dans un coffr<strong>et</strong><br />
commun.<br />
Les principaux avantages de ces systèmes sont les<br />
suivants :<br />
• Forte densité de calcul <strong>et</strong> faible encombrement ;<br />
• Réduction du temps de maintenance <strong>et</strong> de mise<br />
à niveau grâce au remplacement à chaud <strong>des</strong><br />
modules <strong>et</strong> aux fonctions de gestion intégrées ;<br />
• Efficacité énergétique légèrement supérieure à<br />
celle <strong>des</strong> racks si la gestion de l’énergie <strong>et</strong> le<br />
refroidissement sont optimisés.<br />
Fig. 2.4 Châssis à lames<br />
Fig. 2.5 Serveur lame à deux nœuds<br />
16
2 Équipements de serveurs<br />
L’utilisation de fortes densités de lames entraîne<br />
toutefois une demande élevée en infrastructure <strong>et</strong><br />
refroidissement. Une forte densité de calcul accroît<br />
la puissance jusqu’à 10-25 kW/rack. Les solutions<br />
de refroidissement standard <strong>des</strong> datacentres <strong>et</strong><br />
salles serveurs sont donc souvent insuffisantes <strong>et</strong><br />
il faut m<strong>et</strong>tre en place une solution de refroidissement<br />
spécifique. L’efficacité énergétique d’un<br />
serveur lame est donc fortement dépendante de<br />
la conception d’ensemble du système.<br />
Les concepts à deux nœuds ou multi-nœuds reposent<br />
en partie sur la même philosophie. Le modèle<br />
multi-nœuds consiste à combiner un nombre<br />
fixe d’unités de serveur (souvent 2 ou 4) sur un<br />
châssis unique monté en rack. À l’instar <strong>des</strong> lames,<br />
ces serveurs partagent l’alimentation <strong>et</strong> les ventilateurs,<br />
mais leur capacité d’expansion est limitée.<br />
fig 3.7<br />
C<strong>et</strong>te technologie perm<strong>et</strong> de m<strong>et</strong>tre en œuvre de<br />
hautes densités de calcul à un coût relativement<br />
réduit <strong>et</strong> correspond souvent aux besoins <strong>des</strong> p<strong>et</strong>ites<br />
<strong>et</strong> moyennes entreprises. Il existe toutefois<br />
<strong>des</strong> serveurs à deux nœuds hautes performances<br />
disponibles par exemple pour les systèmes à lames<br />
<strong>et</strong> qui combinent deux nœuds sur une seule lame.<br />
Les principaux avantages <strong>des</strong> systèmes à plusieurs<br />
nœuds standards sont les suivants :<br />
• Coût <strong>et</strong> encombrement inférieurs à ceux d’un<br />
serveur rack standard ;<br />
• Consommation d’énergie légèrement inférieure<br />
du fait du partage de l’alimentation <strong>et</strong> <strong>des</strong> ventilateurs.<br />
2.3.1 Châssis <strong>et</strong> composants <strong>des</strong> serveurs<br />
lames<br />
Les alimentations de grande taille sont souvent<br />
plus efficaces : le nombre réduit d’alimentations<br />
dans les systèmes à lames peut donc accroître<br />
l’efficacité énergétique par rapport aux serveurs<br />
racks. Dans la pratique, toutefois, l’efficacité dépend<br />
aussi du rapport entre demande <strong>et</strong> capacité<br />
d’alimentation. La Figure 2.6 représente la courbe<br />
d’efficacité d’une alimentation labellisée Platine<br />
[80plus 2011] d’une puissance nominale de 2990<br />
W pour un châssis à lame : les valeurs sont comprises<br />
entre 92 <strong>et</strong> 95 % en fonction de la charge.<br />
Pour être efficace, l’alimentation <strong>des</strong> serveurs<br />
lames doit dépasser 90 % d’efficacité entre 20 %<br />
<strong>et</strong> 100 % de charge.<br />
Efficiency (%)<br />
100%<br />
90%<br />
80%<br />
70%<br />
60%<br />
50%<br />
40%<br />
30%<br />
Sur les serveurs lames <strong>et</strong> multi-nœuds de dernière<br />
génération, certains fabricants fournissent<br />
plusieurs modèles d’alimentation de puissance<br />
nominale différente, perm<strong>et</strong>tant de s’adapter à la<br />
demande réelle. Des configurateurs en ligne proposés<br />
par les fabricants fournissent une aide à la<br />
sélection.<br />
Des alimentations moins nombreuses <strong>et</strong> plus efficaces,<br />
<strong>des</strong> ventilateurs plus efficaces <strong>et</strong> <strong>des</strong> options<br />
avancées de gestion de l’énergie dans le<br />
châssis à lames perm<strong>et</strong>tent en théorie d’accroître<br />
l’efficacité énergétique globale par rapport aux<br />
serveurs racks standard. Dans la pratique, l’effica-<br />
Efficiency of the Power Supply<br />
RECOMMANDATIONS DE BONNES PRATIQUES<br />
Sélectionner la technologie à lame sur <strong>des</strong> critères précis<br />
• Définir <strong>et</strong> évaluer les principales raisons pour la mise en œuvre de la<br />
technologie à lame dans le datacentre (contrainte d’espace par ex.).<br />
• Évaluer les avantages escomptés par rapport à la technologie rack <strong>et</strong><br />
vérifier le caractère réaliste <strong>des</strong> attentes.<br />
• Vérifier si la virtualisation peut être une solution alternative au regard <strong>des</strong><br />
objectifs définis.<br />
• Évaluer le coût total de possession (TCO) <strong>et</strong> l’efficacité énergétique par<br />
rapport à d’autres options (d’après les données fournisseurs).<br />
0% 25% 50% 75% 100% 125%<br />
Loading (% of Rated Output Power)<br />
Fig. 2.6 Efficacité de l’alimentation d’un serveur<br />
lame [3]<br />
17
Serveur lame Dell M610<br />
Serveur rack R610 1U<br />
Targ<strong>et</strong> Load<br />
Performance to Power Ratio<br />
Performance to Power Ratio<br />
0 1,000 2,000 3,000 4,000<br />
0 1,000 2,000 3,000 4,000<br />
3,093 overall ssj_ops/watt 2,938 overall ssj_ops/watt<br />
100%<br />
90%<br />
80%<br />
70%<br />
60%<br />
50%<br />
40%<br />
30%<br />
20%<br />
10%<br />
Active<br />
Idle<br />
3,885<br />
3,911<br />
3,873<br />
3,733<br />
3,502<br />
3,158<br />
2,754<br />
2,255<br />
1,653<br />
940<br />
100%<br />
90%<br />
80%<br />
70%<br />
60%<br />
50%<br />
40%<br />
30%<br />
20%<br />
10%<br />
Active<br />
Idle<br />
3,739<br />
3,725<br />
3,697<br />
3,572<br />
3,337<br />
2,999<br />
2,623<br />
2,125<br />
1,549<br />
868<br />
0 1,000 2,000 3,000 4,000<br />
0 25 50 75 100 125 150 175 200 225 250<br />
Average Active Power (W)<br />
Average Active Power (W)<br />
Targ<strong>et</strong> Load<br />
Fig. 2.7 Comparaison SPECpower_ssj2008 entre un serveur lame (Dell M610) <strong>et</strong> un serveur rack (R610 1U).<br />
Système à 16 lames avec configuration du processeur identique à celle du serveur rack (2 x Intel Xeon 5670, 2.93GHz).<br />
SPEC (2010, www.spec.org)<br />
cité dépend toutefois aussi de la configuration du<br />
châssis <strong>et</strong> de l’utilisation <strong>des</strong> options de gestion de<br />
l’énergie. Un châssis comportant un p<strong>et</strong>it nombre<br />
de lames sera évidemment moins efficace, du fait<br />
du sur-provisionnement de ses capacités de refroidissement,<br />
d’alimentation <strong>et</strong> de réseau.<br />
Pour une comparaison approximative de l’efficacité<br />
entre serveurs lames <strong>et</strong> racks, on peut<br />
prendre l’exemple d’un système à lames entièrement<br />
configuré. La Figure 2.7 reprend les données<br />
publiées par Dell pour le diagramme SPECpower<br />
(SPECpower_ssj2008) de systèmes à lames <strong>et</strong> de<br />
serveurs racks comparables.<br />
À 100 % de charge, la performance maximale<br />
est de 3885 ops/watt pour le système à lames <strong>et</strong><br />
3739 ops/watt pour le serveur rack, soit une différence<br />
de 4 % en faveur du premier. C<strong>et</strong> écart<br />
de performance par watt ou d’efficacité énergétique<br />
atteint environ 8 % dans les basses charges<br />
(10 %) <strong>et</strong> 11 % en mode repos.<br />
Si c<strong>et</strong>te simple comparaison ne doit pas être surinterprétée<br />
(SPECpower n’évalue qu’une partie de<br />
l’efficacité <strong>des</strong> serveurs), elle suggère toutefois que<br />
les systèmes à lames, même entièrement configurés<br />
<strong>et</strong> optimisés pour un test, ne présentent sur<br />
les serveurs racks standard qu’un avantage marginal<br />
en terme d’efficacité énergétique, surtout à<br />
fort niveau de charge. L’écart est plus significatif à<br />
basse charge, ce qui indique une meilleure gestion<br />
globale de l’énergie dans ces conditions.<br />
Les solutions à lames semblent donc ne présenter<br />
qu’un potentiel limité d’amélioration de l’efficacité<br />
énergétique, comparées notamment à la<br />
virtualisation. Comme avec les serveurs racks, il<br />
est possible de combiner les deux approches pour<br />
renforcer l’amélioration de l’efficacité énergétique.<br />
Les problèmes posés par les fortes densités de<br />
chaleur au niveau du rack <strong>et</strong> <strong>des</strong> rangées sont traités<br />
ci-après (2.3.2).<br />
Les châssis lames modernes contiennent <strong>des</strong> matériels<br />
<strong>et</strong> logiciels de gestion qui, associés à <strong>des</strong><br />
contrôleurs d’accès distant au niveau <strong>des</strong> lames,<br />
perm<strong>et</strong>tent un inventaire <strong>et</strong> une gestion de l’alimentation<br />
<strong>des</strong> différentes lames. Des cartes de<br />
gestion spécifiques perm<strong>et</strong>tent un inventaire <strong>des</strong><br />
matériels <strong>et</strong> de la demande en alimentation. Le<br />
contrôleur d’accès distant transm<strong>et</strong> les informations<br />
de budg<strong>et</strong> énergétique à la carte de gestion<br />
du châssis (CMC), laquelle confirme la disponibilité<br />
de l’alimentation au niveau du système à partir<br />
de l’inventaire total du châssis. La CMC peut<br />
définir <strong>des</strong> principes au niveau du système <strong>et</strong> la<br />
18
2 Équipements de serveurs<br />
RECOMMANDATIONS DE<br />
BONNES PRATIQUES<br />
Critères à prendre en compte pour<br />
l’achat d’un serveur lame efficace<br />
consommation en temps réel de chaque module<br />
est suivie de façon à ne pas excéder la valeur allouée.<br />
Les fonctions de base de la gestion d’énergie en<br />
mode automatique restent généralement invisibles<br />
pour l’administrateur système. Mais les priorités<br />
de chaque module peuvent aussi être configurées<br />
manuellement : on pourra par exemple<br />
désigner les lames prioritaires pour passer en<br />
mode économie.<br />
Sur un châssis à lames, le dynamic power capping<br />
peut être utilisé de façon encore plus efficace<br />
que sur un serveur rack standard, sachant que le<br />
power cap peut être spécifié pour de multiples<br />
serveurs. Celui-ci peut être ajusté de façon dynamique<br />
par le module onboard administrator<br />
<strong>et</strong> le processeur de service. Les lames opérant à<br />
charge réduite recevront ainsi un cap moins élevé.<br />
L’intensité de la charge <strong>et</strong> son évolution variant<br />
généralement d’une lame à l’autre, les pics de<br />
consommation peuvent se produire à <strong>des</strong> moments<br />
différents. Le cap global du châssis pourra<br />
donc être fixé à un niveau plus bas que la somme<br />
<strong>des</strong> caps <strong>des</strong> lames pris séparément. HP a calculé<br />
l’économie d’énergie <strong>et</strong> la réduction du TCO pour<br />
un centre à lames dont l’alimentation reposait sur<br />
le power capping : le coût d’alimentation maximum<br />
<strong>et</strong> de provisionnement baissait d’environ 20<br />
% par rapport à un <strong>des</strong>ign sans power capping<br />
[HP2011].<br />
• Définir les charges de travail <strong>et</strong> les niveaux<br />
prévus pour les systèmes à lames.<br />
• Comparer la rentabilité <strong>et</strong> l’efficacité<br />
énergétique entre fabricants.<br />
• Exiger du fournisseur une information produit<br />
sur :<br />
■ Le coût total de possession (TCO) ;<br />
■ L’efficacité énergétique globale (par ex.<br />
SPECpower_ssj2008, SPEC-SERT dès sa<br />
sortie) ;<br />
■ Les composants matériels efficaces<br />
(efficacité <strong>et</strong> optimisation de<br />
l’alimentation) ;<br />
■ Les outils de gestion, surtout pour<br />
l’énergie <strong>et</strong> l’optimisation de la conception<br />
du système.<br />
• Sélectionner l’équipement présentant la plus<br />
haute efficacité énergétique pour le type <strong>et</strong><br />
le niveau de charge prévus <strong>et</strong> les bonnes<br />
options de gestion de l’énergie.<br />
2.3.2 Problèmes d’alimentation <strong>et</strong> de<br />
refroidissement<br />
On a souvent tendance à sous-estimer le défi posé<br />
par la conception d’un système de serveurs lames,<br />
surtout en cas de forte densité. Les principales difficultés<br />
sont :<br />
• Conception <strong>et</strong> capacité du refroidissement pour<br />
faire face aux fortes densités de chaleur ;<br />
• Capacité <strong>et</strong> distribution de l’alimentation (capacité<br />
du PDU local, câblerie, <strong>et</strong>c.).<br />
Les systèmes de refroidissements traditionnels<br />
sont conçus pour une puissance de 2-3 kW/rack,<br />
soit dix fois moins que la puissance d’un rack de<br />
lames entièrement peuplé. Le refroidissement<br />
standard <strong>des</strong> datacentres <strong>et</strong> salles serveurs est<br />
donc souvent insuffisant pour les grands systèmes<br />
à lames <strong>et</strong> doit être modifié dans sa conception<br />
même.<br />
RECOMMANDATIONS DE BONNES PRATIQUES<br />
Utiliser les outils de gestion pour optimiser l’efficacité <strong>des</strong> systèmes lames<br />
• Utiliser les outils de gestion <strong>et</strong> les équipements réseau <strong>et</strong> alimentation intelligents pour effectuer un<br />
suivi de la consommation énergétique <strong>et</strong> de la charge de travail.<br />
• Analyser les options pour équilibrer <strong>et</strong> gérer les charges <strong>et</strong> la consommation au niveau <strong>des</strong> châssis<br />
<strong>et</strong> <strong>des</strong> racks.<br />
• Utiliser les fonctions de capping <strong>et</strong> d’équilibrage de l’énergie du châssis.<br />
• Utiliser les outils de calcul fournis par les fabricants pour estimer approximativement la demande<br />
en énergie/capacité de refroidissement.<br />
• Évaluer la demande réelle en énergie à l’aide <strong>des</strong> outils de gestion disponibles pour un cycle<br />
d’utilisation compl<strong>et</strong> <strong>et</strong> définir <strong>des</strong> caps en fonction <strong>des</strong> pics de charge. Ajuster l’alimentation <strong>et</strong> le<br />
refroidissement en fonction de ces caps.<br />
19
Le Tableau 2.6 récapitule les options traditionnelles<br />
de conception pour différentes densités en<br />
fonction <strong>des</strong> exigences <strong>et</strong> contraintes de l’activité<br />
telles qu’infrastructures <strong>et</strong> capacités de refroidissement.<br />
Selon le niveau de densité de lames,<br />
on pourra envisager les options suivantes pour<br />
la conception du refroidissement [Rasmussen<br />
2010] :<br />
• Répartir la charge thermique <strong>des</strong> châssis à<br />
lames vers les différents racks : c<strong>et</strong>te méthode<br />
n’est possible que si les châssis à lames ne représentent<br />
qu’une très faible partie du système<br />
global.<br />
• Dédier la capacité de refroidissement : la capacité<br />
en excédent est affectée spécifiquement<br />
aux lames. C<strong>et</strong>te méthode n’est possible<br />
qu’avec un pourcentage de lames relativement<br />
bas, sachant qu’on n’utilise que la capacité de<br />
refroidissement existante.<br />
• Installer un refroidissement supplémentaire<br />
pour les racks de lames. La densité de puissance<br />
par rack peut atteindre 10 kW. C<strong>et</strong>te technique<br />
perm<strong>et</strong> d’optimiser l’espace au sol <strong>et</strong> l’efficacité.<br />
• Délimiter/concevoir une zone à forte densité<br />
(jusqu’à 25 kW) au sein du datacentre. C<strong>et</strong>te<br />
technique perm<strong>et</strong> d’optimiser l’efficacité <strong>et</strong><br />
l’utilisation de l’espace.<br />
• Concevoir un centre à forte densité (entièrement<br />
composé de racks de lames à forte densité).<br />
C<strong>et</strong>te solution extrême, plutôt rare, entraîne<br />
dans la plupart <strong>des</strong> cas <strong>des</strong> coûts substantiels <strong>et</strong><br />
une forte sous-utilisation <strong>des</strong> infrastructures.<br />
Les datacentres existants présentent souvent certains<br />
obstacles au déploiement de la technologie<br />
lame du fait de leurs infrastructures. Un système à<br />
faux plancher standard peut par exemple ne pas<br />
perm<strong>et</strong>tre de densité de puissance supérieure à 5<br />
kW par rack. Une bonne spécification de la densité<br />
électrique <strong>et</strong> thermique est donc une condition<br />
majeure à la conception de systèmes efficaces en<br />
termes d’énergie, d’espace <strong>et</strong> de coûts.<br />
Un point essentiel de l’efficacité énergétique au<br />
niveau du système est d’éviter le sur-provisionnement<br />
<strong>des</strong> infrastructures <strong>et</strong> du refroidissement. La<br />
spécification de la densité doit tenir compte de<br />
la variabilité dans l’espace (différentes densités<br />
électriques locales dans les datacentres pour les<br />
racks de lames <strong>et</strong> les racks standard) <strong>et</strong> le temps<br />
(risque d’augmentation à terme). La densité électrique<br />
doit donc être spécifiée au niveau du rack<br />
ou de la rangée. Pour les systèmes de grande<br />
taille, la rangée convient mieux, sachant que le<br />
refroidissement <strong>et</strong> la distribution électrique se<br />
font généralement à ce niveau. Dans la mesure du<br />
possible, il est recommandé de définir les spécifications<br />
pour chaque rack/rangée <strong>et</strong> de les laisser<br />
inchangées pendant les pério<strong>des</strong> d’opération. La<br />
mise en œuvre d’une nouvelle technologie avec<br />
<strong>des</strong> niveaux de densité différents doit donc se faire<br />
sur un rack ou une rangée nouveau/elle. Certaines<br />
solutions alternatives perm<strong>et</strong>tent toutefois de<br />
faire varier la densité sur un rack ou une rangée<br />
installé(e) :<br />
• Ajout à chaud de modules onduleurs ;<br />
• Utilisation de PDU remplaçables à chaud ;<br />
• Ajout de capacité de refroidissement avec appareils<br />
montés en rack.<br />
Tab. 2.6 Configuration <strong>des</strong> systèmes à lames au niveau du rack <strong>et</strong> exigences liées pour le refroidissement [d’après Rasmussen 2010]<br />
Nombre de<br />
châssis/racks<br />
Répartition de la charge<br />
entre racks<br />
Affectation d’un refroidissement<br />
dédié<br />
Refroidissement<br />
supplémentaire<br />
Zone à forte densité<br />
Centre à forte densité<br />
1 Possible dans la plupart Possible dans la plupart Possible dans la plupart Non rentable<br />
Non rentable<br />
<strong>des</strong> DC<br />
<strong>des</strong> DC<br />
<strong>des</strong> DC<br />
2 Peu pratique dans la Possible dans la plupart Possible dans la plupart Non rentable<br />
Non rentable<br />
plupart <strong>des</strong> cas <strong>des</strong> DC<br />
<strong>des</strong> DC<br />
3 Impossible Possible dans la plupart Possible dans la plupart Maximum pour les Non rentable<br />
<strong>des</strong> DC<br />
<strong>des</strong> DC selon solution<br />
r<strong>et</strong>enue<br />
systèmes à faux plancher<br />
à efficacité optimisée<br />
4 Impossible Peu pratique dans la Selon solution r<strong>et</strong>enue Systèmes à balayage d’air Balayage d’air chaud,<br />
plupart <strong>des</strong> cas<br />
chaud<br />
réagencement <strong>des</strong> locaux<br />
5 Impossible Impossible Impossible Systèmes à balayage d’air Balayage d’air chaud,<br />
chaud<br />
réagencement <strong>des</strong> locaux<br />
6 Impossible Impossible Impossible Extrêmement coûteux Extrêmement coûteux<br />
20
2 Équipements de serveurs<br />
Pour définir la densité d’une rangée, il est recommandé<br />
de fixer le ratio pic/moyenne de puissance<br />
à un maximum de 2 dans les configurations standard.<br />
Si un rack donné dépasse le double de la<br />
moyenne, les charges devront être redistribuées<br />
au sein de sa rangée ou vers d’autres rangées.<br />
D’une façon générale, il est évidemment judicieux<br />
de disperser les racks à plus forte densité dans<br />
une rangée donnée. On pourra faire appel aux<br />
systèmes de gestion de l’énergie <strong>et</strong> du refroidissement<br />
pour définir <strong>des</strong> règles de déploiement <strong>des</strong><br />
capacités installées, par exemple perm<strong>et</strong>tre à un<br />
rack de dépasser la puissance moyenne uniquement<br />
si la demande du rack voisin est n<strong>et</strong>tement<br />
inférieure à la moyenne.<br />
L’un <strong>des</strong> principaux défis est de savoir comment<br />
faire face aux évolutions futures <strong>et</strong> aux besoins<br />
d’expansion. Il n’est évidemment pas recommandé<br />
de déployer une infrastructure couvrant<br />
d’emblée la capacité future, ce qui entraînerait<br />
une surcapacité <strong>et</strong> <strong>des</strong> coûts élevés sur une longue<br />
période. Il est généralement préférable de poser<br />
tout le câblage <strong>des</strong>tiné aux futures expansions de<br />
capacité, mais de n’installer les équipements d’alimentation<br />
<strong>et</strong> de refroidissement qu’à mesure de<br />
l’apparition <strong>des</strong> besoins.<br />
2.4 Virtualisation <strong>des</strong> serveurs<br />
La virtualisation <strong>des</strong> serveurs présente un important<br />
potentiel d’économie d’énergie. C<strong>et</strong>te technologie<br />
perm<strong>et</strong> de consolider les charges sur un<br />
matériel physiquement réduit <strong>et</strong> donc de réduire<br />
fortement la demande en électricité <strong>et</strong> refroidissement.<br />
D’une façon générale, la virtualisation<br />
présente plusieurs avantages pour la conception<br />
efficace de systèmes informatiques dans les datacentres<br />
<strong>et</strong> salles serveurs, notamment l’optimisation<br />
<strong>des</strong> tests <strong>et</strong> du développement (provisionnement<br />
rapide <strong>des</strong> serveurs par la réutilisation de<br />
systèmes préconfigurés, favorisant la collaboration<br />
<strong>des</strong> développeurs <strong>et</strong> la standardisation <strong>des</strong> environnements),<br />
la réduction de l’encombrement<br />
grâce au déploiement de machines virtuelles<br />
opérant de façon sécurisée sur <strong>des</strong> matériels mutualisés<br />
(utilisation <strong>des</strong> serveurs accrue de 5-15<br />
% à 60-80 %) <strong>et</strong> la réduction du coût <strong>et</strong> de la<br />
complexité de la continuité de l’activité (haute disponibilité<br />
<strong>et</strong> solutions de reprise après sinistre) en<br />
encapsulant <strong>des</strong> systèmes entiers dans <strong>des</strong> fichiers<br />
uniques pouvant être répliqués <strong>et</strong> restaurés sur<br />
n’importe quel serveur cible.<br />
Les plateformes de virtualisation telles que VM-<br />
Ware, Microsoft Hyper-V <strong>et</strong> Citrix XEN offrent<br />
de nombreuses fonctions : haute disponibilité,<br />
basculement, réallocation automatique (DRS),<br />
équilibrage de charge, sauvegarde automatique,<br />
gestion de l’énergie (DPM), VMotion serveur, stockage<br />
<strong>et</strong> réseau, <strong>et</strong>c.<br />
Les options de base de la virtualisation de serveurs<br />
sont :<br />
• Création de partitions physiques ;<br />
• Virtualisation basée sur un système d’exploitation<br />
hôte ;<br />
• Virtualisation <strong>des</strong> applications (par ex. Microsoft<br />
Termi¬nalserver, Citrix XenApp) ;<br />
• Virtualisation par hyperviseur :<br />
■ VMware ESX<br />
■ Citrix /Open-Source: XENServer 5<br />
■ Microsoft Hyper-V<br />
Le marché étant dominé par un p<strong>et</strong>it nombre de<br />
produits, le chapitre suivant traite <strong>des</strong> plateformes<br />
de virtualisation de type hyperviseur : VMware<br />
ESX/ESXi/Vsphere4, Microsoft Hyper-V <strong>et</strong> Citrix<br />
XEN.<br />
Leaders sur le marché, ces plateformes supportent<br />
la plupart <strong>des</strong> systèmes d’exploitation hôtes les<br />
plus répandus. Elles fournissent <strong>des</strong> consoles de<br />
gestion pour l’administration d’environnements<br />
de serveurs de p<strong>et</strong>ite taille ainsi que l’administration<br />
au niveau du datacentre.<br />
Premier produit lancé sur le marché en 2001,<br />
VMware possède une architecture adaptée aux<br />
systèmes d’exploitation <strong>et</strong> processeurs pré-virtualisation<br />
tels que Intel VT <strong>et</strong> AMD-V. VMware ESX/<br />
VSphere4 possède de puissants outils d’administration<br />
(VMotion - migration à chaud de machines<br />
virtuelles entre serveurs <strong>et</strong> migration du stockage,<br />
sur-provisionnement du stockage, virtualisation<br />
bureau <strong>et</strong> réseau, technologie de sécurité virtuelle)<br />
<strong>et</strong> constitue une plateforme de virtualisation complète<br />
du bureau jusqu’au cloud computing en<br />
passant par le datacentre.<br />
La solution Microsoft Hyper-V Server repose sur<br />
l’hyperviseur de Windows Server. Elle perm<strong>et</strong> un<br />
faible encombrement <strong>et</strong> un minimum d’overhead<br />
<strong>et</strong> se connecte aux environnements existants pour<br />
tirer parti <strong>des</strong> outils <strong>et</strong> process déjà en place pour<br />
le provisionnement, la gestion, l’administration de<br />
correctifs <strong>et</strong> le support. Parmi les principales fonctions<br />
de Microsoft Hyper-V Server 2008 R2, on<br />
peut citer la migration à chaud, le support <strong>des</strong> volumes<br />
partagés de cluster <strong>et</strong> la montée en charge<br />
(processeurs <strong>et</strong> mémoire) sur le système hôte. La<br />
migration à chaud, intégrée à Windows Server<br />
2008® R2 Hyper-V, perm<strong>et</strong> de migrer <strong>des</strong> machines<br />
virtuelles sans interruption de service.<br />
En fonction <strong>des</strong> attentes de l’utilisateur, Citrix<br />
XENServer peut constituer une solution de virtualisation<br />
rentable puisque ses éléments de base<br />
21
(hyperviseur nu, architecture distribuée <strong>et</strong> résiliente,<br />
gestion XENServer <strong>et</strong> outils de conversion)<br />
sont gratuits. Les fonctions avancées de gestion <strong>et</strong><br />
d’automation telles que provisionnement virtuel,<br />
distributed virtual switching, migration à chaud<br />
instantanée, snapshots, récupération, rapports de<br />
performance <strong>et</strong> répartition de charge dynamique<br />
font que la solution XENServer est comparable aux<br />
deux autres produits dans sa version payante.<br />
BMC Software, Eucalyptus Systems, HP, IBM, Intel,<br />
RedHat, Inc. <strong>et</strong> SUSE ont annoncé la formation de<br />
l’Open Virtualization Alliance, qui vise à favoriser<br />
l’adoption de <strong>technologies</strong> de virtualisation open<br />
source, surtout la Kernel-based Virtual Machine<br />
fig 3.9<br />
(KVM). Ce consortium s’ajoute aux groupes gérant<br />
le développement de l’hyperviseur KVM <strong>et</strong><br />
autres capacités associées de gestion, à l’origine<br />
de nombreuses innovations technologiques pour<br />
les clients virtualisant <strong>des</strong> applications sous Linux<br />
ou Windows. Il prévoit d’accélérer l’expansion de<br />
solutions de tierces parties autour de la KVM <strong>et</strong> de<br />
fournir un avis technique ainsi que <strong>des</strong> exemples<br />
de bonnes pratiques.<br />
2.4.1 Potentiel d’économies d’énergie de<br />
la virtualisation<br />
La virtualisation est l’une <strong>des</strong> <strong>technologies</strong> les plus<br />
puissantes pour réduire la demande en énergie<br />
dans les datacentres <strong>et</strong> salles serveurs. La consolidation<br />
<strong>des</strong> matériels, en concentrant la charge<br />
de travail sur un nombre réduit de serveurs physiques,<br />
perm<strong>et</strong> souvent d’économiser 40 à 80 %<br />
d’énergie, voire plus. La technologie actuelle offre<br />
la possibilité de m<strong>et</strong>tre en œuvre une virtualisation<br />
avec un facteur de consolidation d’au moins<br />
10-20, en fonction <strong>des</strong> systèmes <strong>et</strong> <strong>des</strong> exigences<br />
spécifiques.<br />
La Figure 2.8 montre un exemple de consolidation<br />
de serveurs par virtualisation au ministère<br />
allemand de l’Environnement. Ces mesures spécifiques<br />
ont permis d’économiser environ 68 %<br />
d’énergie, avec une réduction <strong>des</strong> matériels à deux<br />
serveurs physiques sous VMware ESX [4].<br />
Power [Watt]<br />
5000<br />
4500<br />
4000<br />
3500<br />
3000<br />
2500<br />
2000<br />
Access Control<br />
Intran<strong>et</strong><br />
Help Desk<br />
IT Controlling<br />
VMware1<br />
SAN-Enclosure<br />
File Server<br />
MS SQL<br />
SPS<br />
SMS<br />
Root DC<br />
Office DC<br />
Office DC<br />
Un autre exemple de virtualisation par IBM [5]<br />
avec serveurs lames montre que les économies<br />
d’énergie pourraient dépasser 90 % si toutes les<br />
mesures appropriées étaient envisagées au niveau<br />
du matériel <strong>et</strong> de l’infrastructure.<br />
Ces exemples montrent bien que la consolidation<br />
par virtualisation est l’une <strong>des</strong> principales options<br />
pour améliorer sensiblement l’efficacité énergétique<br />
<strong>des</strong> datacentres. Toutefois, comme dans les<br />
autres approches purement informatiques, le potentiel<br />
d’économie ne peut être pleinement atteint<br />
que s’il s’accompagne de mesures parallèles sur<br />
l’infrastructure, notamment l’alimentation <strong>et</strong> le<br />
refroidissement.<br />
Inventory Server<br />
Software Packaging<br />
Logging Server<br />
Certificate Server<br />
VMware2<br />
Help Line<br />
Novatime<br />
System Monitoring<br />
Terminal Server<br />
CMF<br />
1500<br />
1000<br />
500<br />
0<br />
Old<br />
Exchange<br />
Exchange<br />
Exchange FE<br />
Conference Proxy<br />
4 Rack Monitor<br />
4 Rack Fan & KVM<br />
New<br />
FC Switch<br />
IT NSeries<br />
NSeries Storage<br />
NSeries Controler<br />
ESX1 Server<br />
Fig. 2.8 Réduction de la demande d’énergie par virtualisation : étude de cas [4]<br />
22
2 Équipements de serveurs<br />
2.4.2 Exigences <strong>et</strong> outils de planification<br />
de la virtualisation<br />
La stratégie de virtualisation <strong>des</strong> datacentres doit<br />
passer par une évaluation <strong>et</strong> une identification <strong>des</strong><br />
serveurs candidats appropriés.<br />
Pour ce faire, on recueillera <strong>des</strong> données sur la<br />
performance, l’utilisation du système, les chronologies<br />
de fin de service, le domaine d’activité <strong>et</strong> les<br />
spécifications de l’application. Une fois identifiés<br />
les candidats à la virtualisation, on analysera les<br />
spécifications de l’application <strong>et</strong> la charge de la<br />
machine. L’évaluation de la performance se fera<br />
entre autres autour <strong>des</strong> paramètres suivants, critères<br />
de sélection <strong>des</strong> matériels :<br />
• Performance du processeur ;<br />
• Mémoire nécessaire ;<br />
• Intensité E/S disque ;<br />
• Exigences réseau ;<br />
• Configuration du système d’exploitation.<br />
Il est généralement possible de consolider plusieurs<br />
applications sur un même serveur physique,<br />
lequel est protégé <strong>des</strong> défaillances matérielles <strong>et</strong><br />
coupures de courant tout en possédant la capacité<br />
d’équilibrer les charges. Pour atteindre c<strong>et</strong> objectif,<br />
les serveurs hôtes pourront avoir une double alimentation,<br />
<strong>des</strong> disques durs miroirs <strong>et</strong> <strong>des</strong> cartes<br />
réseaux groupées. On pourra utiliser un réseau de<br />
stockage SAN avec tolérance aux pannes. La répartition<br />
de la charge pourra enfin être étayée par<br />
la migration de machines virtuelles entre serveurs<br />
physiques.<br />
En fonction du type de charges, on pourra envisager<br />
un ratio de consolidation compris entre<br />
10:1 <strong>et</strong> 20:1. De nombreux environnements de<br />
virtualisation proposent une fonction de sur-provisionnement<br />
de mémoire : la mémoire affectée à<br />
l’ensemble <strong>des</strong> machines virtuelles peut alors excéder<br />
la mémoire physique disponible d’un facteur<br />
de 2 à 3.<br />
La virtualisation répond rarement à un simple souci<br />
d’économie d’énergie. Si une forte économie est<br />
en principe garantie, la réussite d’un proj<strong>et</strong> de virtualisation<br />
exige généralement une planification<br />
approfondie, avec un calcul du r<strong>et</strong>our sur investissement<br />
(ROI) <strong>et</strong> du coût total de possession (TCO).<br />
Le TCO d’un nouveau serveur virtuel se calcule en<br />
additionnant les facteurs de coûts. On pourra calculer<br />
un ROI à court <strong>et</strong> long termes pour évaluer le<br />
coût dans le temps.<br />
Pour bien estimer le ROI, il est essentiel de comprendre<br />
les coûts de virtualisation. Certains frais<br />
sont évidents, comme le matériel, les logiciels (<strong>et</strong><br />
leur licence) ou la main-d’œuvre. Mais la virtualisation<br />
peut aussi imposer l’achat de nouveaux<br />
serveurs plus puissants <strong>et</strong> la mise à niveau du<br />
stockage, du réseau, de la sécurité, <strong>et</strong>c., sans oublier<br />
les coûts de formation <strong>et</strong> de gestion : autant<br />
de facteurs à prendre en compte dans le calcul du<br />
ROI.<br />
Plusieurs outils logiciels disponibles sur le marché<br />
perm<strong>et</strong>tent de planifier un proj<strong>et</strong> de virtualisation<br />
<strong>et</strong> d’en évaluer le ROI <strong>et</strong> le TCO. L’outil Microsoft<br />
Assessment and Planning (MAP), par exemple,<br />
perm<strong>et</strong> de planifier la migration. Il inventorie <strong>et</strong><br />
évalue différents environnements informatiques<br />
pour la migration <strong>et</strong> la virtualisation sur diverses<br />
plateformes sans recourir à un logiciel agent. Les<br />
rapports qu’il génère fournissent <strong>des</strong> recommandations<br />
spécifiques sur la mise à niveau pour la<br />
migration vers Windows Vista <strong>et</strong> Windows Server<br />
2008 ainsi que pour la virtualisation. MAP fournit<br />
aussi <strong>des</strong> recommandations sur la façon de conso-<br />
Fig. 2.9 Exemple de calculateur de ROI/TCO par VMWare [6]<br />
23
lider <strong>des</strong> serveurs physiques dans un environnement<br />
virtualisé avec Microsoft Hyper-V. Le calculateur<br />
ROI perm<strong>et</strong> enfin d’estimer les économies<br />
d’énergie potentielles avec Hyper-V en amont de<br />
son déploiement. L’outil perm<strong>et</strong> d’examiner les<br />
serveurs de production <strong>et</strong> de développement existants<br />
<strong>et</strong> les possibilités de virtualisation du bureau<br />
<strong>et</strong> <strong>des</strong> applications en quantifiant les économies<br />
potentielles, les avantages en termes de niveau de<br />
service, l’investissement <strong>et</strong> le ROI.<br />
La méthodologie TCO/ROI proposée par VMware<br />
(disponible en tant qu’outil en ligne) perm<strong>et</strong> de<br />
comparer les économies de TCO, les investissements<br />
nécessaires <strong>et</strong> les avantages pour l’activité<br />
<strong>des</strong> solutions de virtualisation. Elle repose sur <strong>des</strong><br />
techniques financières standard, les données terrain<br />
<strong>et</strong> clients de VMware <strong>et</strong> les données sur les<br />
utilisateurs. Ces dernières perm<strong>et</strong>tent de calculer<br />
<strong>des</strong> chiffres clés tels qu’économies, investissements,<br />
ROI, valeur actualisée n<strong>et</strong>te, TCO <strong>et</strong> pério<strong>des</strong><br />
d’amortissement. Si ces données font défaut,<br />
les statistiques de la branche pourront être<br />
utilisées comme base de calcul.<br />
2.4.3 Gestion de l’énergie dans les environnements<br />
virtualisés : migration vers un<br />
serveur virtuel<br />
Les logiciels de virtualisation actuels supportent<br />
la migration de machines virtuelles <strong>et</strong> la mise<br />
hors service provisoire <strong>des</strong> hôtes pour réduire la<br />
demande en énergie. C’est le cas par exemple de<br />
VMware Vsphere4, dont la fonction distributed<br />
power management (DPM) surveille l’utilisation<br />
<strong>des</strong> ressources <strong>des</strong> machines virtuelles opérant au<br />
sein du cluster. En cas de capacité excédentaire,<br />
certaines de ces machines sont réparties de façon<br />
à pouvoir placer certains hôtes en mode veille <strong>et</strong><br />
ainsi économiser de l’énergie. Si la capacité devient<br />
insuffisante, ces hôtes sont rebasculés en<br />
mode actif.<br />
La gestion d’énergie peut se faire en mode automatique<br />
(migration <strong>des</strong> machines virtuelles <strong>et</strong><br />
mise en veille/sortie de veille <strong>des</strong> hôtes) ou manuel.<br />
On peut donc passer outre la configuration<br />
automatique pour chaque hôte <strong>et</strong> activer la gestion<br />
d’énergie sous forme de tâche planifiée.<br />
L’objectif de la fonction DPM de VMware est de<br />
maintenir l’utilisation <strong>des</strong> hôtes ESX du cluster<br />
dans une fourch<strong>et</strong>te cible. Mais pour réduire efficacement<br />
la consommation, la gestion de l’énergie<br />
doit remplir les critères suivants :<br />
• Évaluer précisément la demande en ressource.<br />
Une surestimation peut entraver les économies<br />
d’énergie tandis qu’une sous-estimation peut<br />
se traduire par une baisse <strong>des</strong> performances,<br />
voire une violation <strong>des</strong> accords de niveau de<br />
service ;<br />
• Éviter de m<strong>et</strong>tre en/hors tension les serveurs<br />
trop souvent, même en cas de fortes variations<br />
de la charge ;<br />
• Réagir rapidement à un accroissement soudain<br />
de la demande de façon à réduire la consommation<br />
sans sacrifier la performance ;<br />
• Bien sélectionner les hôtes à m<strong>et</strong>tre en/hors<br />
tension. Déconnecter un hôte hébergeant un<br />
grand nombre de machines virtuelles peut entraîner<br />
une violation de la fourch<strong>et</strong>te d’utilisation<br />
d’un ou plusieurs hôtes de plus p<strong>et</strong>ite taille.<br />
• Redistribuer intelligemment les machines virtuelles<br />
en tirant parti de la planification <strong>des</strong><br />
ressources distribuées (DRS).<br />
RECOMMANDATIONS DE BONNES PRATIQUES<br />
Bien évaluer <strong>et</strong> sélectionner sa solution de virtualisation :<br />
• Élaborer une stratégie <strong>et</strong> évaluer les serveurs pour sélectionner les bons candidats à la virtualisation.<br />
• Évaluer les exigences en termes de performance CPU, mémoire, intensité E/S disque, réseau <strong>et</strong> configuration<br />
du système d’exploitation.<br />
• Considérer le ratio de virtualisation approprié (de 1:6 à 1:20 en fonction <strong>des</strong> caractéristiques de la<br />
charge de travail).<br />
• Comparer les fonctionnalités <strong>des</strong> produits de différents fournisseurs en tenant compte <strong>des</strong> questions<br />
de licence, de gestion de l’énergie <strong>et</strong> du prix. Les principaux produits sur le marché ont chacun leurs<br />
points forts en fonction <strong>des</strong> besoins spécifiques en termes d’application.<br />
• Calculer le TCO <strong>et</strong> le ROI pour déterminer les avantages de la réduction du coût d’alimentation <strong>et</strong> du<br />
refroidissement. Les modèles fournis par les fabricants devront être affinés en fonction <strong>des</strong> besoins<br />
spécifiques de votre structure.<br />
• Étudier les options de gestion de l’énergie perm<strong>et</strong>tant la migration <strong>des</strong> machines virtuelles <strong>et</strong> la mise<br />
hors service temporaire <strong>des</strong> serveurs.<br />
• Envisager l’évolution du refroidissement <strong>et</strong> de l’alimentation (demande réduite <strong>et</strong> variant de façon<br />
dynamique) <strong>et</strong> vérifier la possibilité de revoir la conception du refroidissement.<br />
24
2 Équipements de serveurs<br />
La façon traditionnelle d’utiliser la DPM est de<br />
m<strong>et</strong>tre en/hors service <strong>des</strong> hôtes ESX en fonction<br />
d’un schéma d’utilisation sur une journée ou une<br />
semaine. Des services tels que messagerie, fax,<br />
intran<strong>et</strong> <strong>et</strong> interrogations de la base de données<br />
sont par exemple davantage utilisés pendant les<br />
heures de bureau. Le niveau d’utilisation peut<br />
chuter considérablement en dehors de ces plages<br />
horaires <strong>et</strong> la plupart <strong>des</strong> serveurs se trouvent ainsi<br />
sous-exploités. Ils peuvent alors être affectés à <strong>des</strong><br />
tâches de sauvegarde, archivage, répondre aux<br />
requêtes de pays étrangers, <strong>et</strong>c. La consolidation<br />
<strong>des</strong> machines virtuelles <strong>et</strong> la mise hors service <strong>des</strong><br />
hôtes superflus perm<strong>et</strong>tent de réduire la consommation<br />
d’énergie.<br />
On distingue deux gran<strong>des</strong> approches pour ajuster<br />
manuellement l’activité de la DPM :<br />
• Augmenter le ratio demande/capacité ciblé :<br />
pour économiser l’énergie en augmentant l’utilisation<br />
de l’hôte (en consolidant un plus grand<br />
nombre de machines virtuelles sur un nombre<br />
réduit d’hôtes), la valeur par défaut pourra être<br />
augmentée (par ex. de 63 à 70 %).<br />
• Utiliser VMware DPM pour forcer la mise en<br />
service de tous les hôtes avant 9 h, puis m<strong>et</strong>tre<br />
certains hôtes hors service après 17 h, par ex.<br />
C<strong>et</strong>te approche plus proactive évitera l’impact<br />
sur la performance que peut avoir le fait d’attendre<br />
que VMware DPM m<strong>et</strong>te en service <strong>des</strong><br />
hôtes en réponse à un pic soudain dans la demande.<br />
L’utilisation <strong>des</strong> ressources de chaque hôte ESX<br />
est calculée sous la forme demande/capacité pour<br />
chaque ressource (CPU <strong>et</strong> mémoire). La demande<br />
est la somme <strong>des</strong> ressources requises par les machines<br />
virtuelles en opération <strong>et</strong> la capacité, la<br />
somme <strong>des</strong> ressources disponibles sur l’hôte. La<br />
gestion de l’énergie <strong>des</strong> hôtes s’exécute donc en<br />
fonction de l’utilisation <strong>des</strong> ressources CPU <strong>et</strong><br />
mémoire par rapport à la gamme d’utilisation définie.<br />
Pour chaque hôte évalué, la DPM compare<br />
le coût d’une mise hors service en tenant compte<br />
<strong>des</strong> risques estimés avec les économies d’énergie<br />
pouvant raisonnablement être attendues.<br />
2.4.4 Refroidissement <strong>et</strong> infrastructures<br />
<strong>des</strong> systèmes virtualisés<br />
Si elle réduit sensiblement la consommation totale<br />
d’énergie, la virtualisation, surtout dans les<br />
systèmes de grande taille, peut entraîner un accroissement<br />
de la densité énergétique du rack. La<br />
gestion de l’énergie par migration <strong>des</strong> machines<br />
virtuelles entraîne par ailleurs un déplacement<br />
physique de la densité énergétique <strong>et</strong> thermique,<br />
d’où une demande localement accrue en alimentation<br />
<strong>et</strong> refroidissement. Des solutions appropriées<br />
devront être utilisées pour couvrir c<strong>et</strong>te<br />
demande <strong>et</strong> éviter la formation de zones chau<strong>des</strong>.<br />
Si la capacité d’alimentation <strong>et</strong> de refroidissement<br />
totale n’est pas adaptée à la demande minimum,<br />
la virtualisation peut détériorer le PUE, en réduisant<br />
la charge de refroidissement à un niveau très<br />
bas. Il est donc essentiel de bien dimensionner<br />
l’alimentation <strong>et</strong> le refroidissement pour tirer parti<br />
du potentiel d’économie d’énergie. Les pertes fixes<br />
doivent être réduites avec les mesures suivantes :<br />
• Réduire la capacité d’alimentation <strong>et</strong> de refroidissement<br />
pour s’adapter à la charge ;<br />
• Utiliser <strong>des</strong> ventilateurs à vitesse variable <strong>et</strong><br />
pompes à régulateur contrôlés par la demande ;<br />
• Utiliser <strong>des</strong> équipements à haute efficacité ;<br />
• Architecture de refroidissement avec circuits<br />
d’air raccourcis (par ex. au niveau de la rangée);<br />
• Utiliser un système de gestion adaptant la capacité<br />
à la demande ;<br />
• Utiliser <strong>des</strong> panneaux d’obturation pour limiter<br />
le mélange d’air au sein du rack.<br />
AVANT APRES APRES<br />
Charges constantes > Refroidissement stable<br />
Migration <strong>des</strong> charges haute densité > Besoins imprévisibles<br />
Fig. 2.10 Densité thermique avant <strong>et</strong> après virtualisation [5]<br />
25
RECOMMANDATIONS DE BONNES PRATIQUES<br />
Gestion efficace de l’énergie dans les systèmes virtualisés :<br />
Dans un environnement traditionnel avec faux<br />
plancher, le refroidissement du local peut être<br />
configuré pour cibler les zones de chauffe en<br />
ré-agençant les panneaux de sol ventilés. La migration<br />
dynamique <strong>des</strong> serveurs virtuels entraîne<br />
toutefois de nouvelles exigences <strong>et</strong> donc <strong>des</strong><br />
solutions de refroidissement en temps réel. Pour<br />
répondre à ce défi, on peut positionner <strong>des</strong> unités<br />
de refroidissement au sein <strong>des</strong> rangées <strong>et</strong> les<br />
équiper pour qu’elles détectent <strong>et</strong> répondent aux<br />
variations de température. En les plaçant à proximité<br />
<strong>des</strong> serveurs, on réduira la circulation d’air<br />
entre le refroidissement <strong>et</strong> la charge. Les variations<br />
dynamiques de l’alimentation dans les environnements<br />
virtualisés sont l’une <strong>des</strong> principales raisons<br />
justifiant l’adoption d’un refroidissement ciblé au<br />
niveau de la rangée ou du rack.<br />
• M<strong>et</strong>tre en œuvre <strong>des</strong> principes stricts de mise en place <strong>et</strong> de gestion <strong>des</strong> serveurs virtualisés <strong>et</strong><br />
éviter la prolifération anarchique <strong>des</strong> serveurs.<br />
• Utiliser les outils de migration pour m<strong>et</strong>tre hors service certains matériels en période de faible<br />
demande. Utiliser d’abord la gestion de l’énergie en mode automatique, puis développer ses<br />
propres configurations en fonction <strong>des</strong> rythmes d’utilisation.<br />
• Réduire le refroidissement en fonction de la demande <strong>et</strong> m<strong>et</strong>tre en place <strong>des</strong> équipements pour<br />
un refroidissement local en temps réel si nécessaire. Traiter les changements dynamiques dans<br />
l’espace.<br />
• Adapter les process <strong>et</strong> workflows liés au déploiement de machines virtuelles, à la sauvegarde <strong>et</strong><br />
restauration de données, à l’administration de correctifs, à la disponibilité, <strong>et</strong>c.<br />
Il est essentiel de disposer d’informations précises<br />
sur la demande en alimentation <strong>et</strong> refroidissement<br />
pour répondre aux variations <strong>des</strong> profils de charge.<br />
La gestion de capacité fournit l’instrument pour<br />
un suivi <strong>et</strong> une analyse en temps réel <strong>des</strong> capacités<br />
d’alimentation, de refroidissement <strong>et</strong> d’espace<br />
physique <strong>et</strong> perm<strong>et</strong> une utilisation efficiente<br />
<strong>et</strong> efficace d’un bout à l’autre du datacentre. Elle<br />
perm<strong>et</strong> aussi d’identifier les zones à capacité disponible<br />
ou dangereusement faible. Les systèmes<br />
de gestion de capacité doivent être capables de<br />
faire face aux problèmes suivants :<br />
• Changement de densité <strong>et</strong> de localisation de la<br />
charge : la virtualisation peut créer <strong>des</strong> zones<br />
de chauffe, par ex. du fait de la migration <strong>des</strong><br />
machines virtuelles ;<br />
• Changements de système dynamiques : il peut<br />
être difficile de maintenir la stabilité du système<br />
si plusieurs parties procèdent à <strong>des</strong> changements<br />
sans coordination centrale ;<br />
• Interdépendances : la virtualisation rend plus<br />
complexes les dépendances partagées <strong>et</strong> eff<strong>et</strong>s<br />
secondaires de la relation entre capacités d’alimentation,<br />
refroidissement <strong>et</strong> espace ;<br />
• Provisionnement d’alimentation <strong>et</strong> de refroidissement<br />
: la charge électrique <strong>et</strong> thermique<br />
monte <strong>et</strong> <strong>des</strong>cend à mesure que de nouvelles<br />
machines virtuelles sont créées. On pourra utiliser<br />
<strong>des</strong> systèmes d’alimentation <strong>et</strong> de refroidissement<br />
extensibles.<br />
26
2 Équipements de serveurs<br />
Pour aller plus loin<br />
HP (2011) : HP Power capping and HP Dynamic power<br />
capping for ProLiant servers. Hewl<strong>et</strong>t Packard<br />
Development company.<br />
SPEC (2011) : Server Efficiency Rating Tool (SERT)<br />
TM Design Document. 3rd draft. Standard Performance<br />
Evaluation Cooperation<br />
Rasmussen, N. (2010) : Strategies for deploying<br />
blade servers in existing data centres. White paper<br />
125. APC Schneider Electric<br />
80 PLUS (2011) : 80 PLUS power supplies.<br />
www.plugloadsolutions.com<br />
Schäppi B. <strong>et</strong> al. (2009) : Energy and cost savings<br />
by energy efficient servers. IEE E-Server best<br />
practice cases. Brochure 2009<br />
IBM (2011) : Server Management suite, Module<br />
Active Energy Manager<br />
www-03.ibm.com/systems/software/director/aem/<br />
HP (2011) : Server managment suite «Systems<br />
Insight Manager» www.hp.com<br />
VMware DPM : Information Guide: VMware Distributed<br />
Power Management Concepts and Use.<br />
www.vmware.com<br />
VMware TCO : VMware ROI TCO Calculator,<br />
Overview and Analysis.<br />
http://roitco.vmware.com/vmw/<br />
Sources<br />
[1] EPA (2010) : Energy Star ENERGY STAR®<br />
Program Requirements for Computer Servers (vers<br />
1.1)<br />
[2] SPEC (2010) : SPEC power and performance.<br />
Benchmark m<strong>et</strong>hodology 2.0. Standard Performance<br />
Evaluation Cooperation<br />
[3] 80 PLUS (2011) : 80 PLUS power supplies.<br />
www.plugloadsolutions.com<br />
[4] Schäppi B. <strong>et</strong> al. (2009) : Energy and cost<br />
savings by energy efficient servers. IEE E-Server<br />
best practice cases. Brochure 2009<br />
[5] BITKOM (2010) : Bitkom/Beschaffungsamt<br />
<strong>des</strong> Bun<strong>des</strong>ministeriums <strong>des</strong> Innern, Leitfaden<br />
Produktneutrale Leistungsbeschreibung x86-Server,<br />
2010<br />
[5] Comtec Power : Overcoming the Challenges<br />
of Server Virtualization. www.comtec.com<br />
[6] VMware TCO : VMware ROI TCO Calculator,<br />
Overview and Analysis.<br />
http://roitco.vmware.com/vmw/<br />
[7] The Green Grid (2010) : White paper Nr.<br />
33 “A roadmap for the adoption of power-related<br />
features in servers”, Pflueger, J., <strong>et</strong> al., The Green<br />
Grid, 2010<br />
27
3 Équipements de stockage de données<br />
Marcos Dias de Asunção, Laurent Lefèvre, INRIA<br />
Si l’information est au cœur de toute activité, le stockage <strong>et</strong> l’accès aux<br />
données sont devenus un véritable défi pour les entreprises. On estime que<br />
les besoins en stockage devraient être multipliés par 44 entre 2010 <strong>et</strong> 2020<br />
[1] <strong>et</strong> les stratégies d’optimisation de l’efficacité énergétique connaissent<br />
une demande sans précédent. La chute constante du prix par Mo de stockage<br />
fait qu’il est devenu plus simple <strong>et</strong> moins coûteux de se doter de<br />
capacités supplémentaires que de chercher <strong>des</strong> solutions aux doublons <strong>et</strong><br />
autres formes de stockage superflu.<br />
Or le coût de l’alimentation <strong>et</strong> du refroidissement <strong>des</strong> ressources de stockage<br />
est désormais envisagé comme un problème <strong>et</strong> les inefficacités sont<br />
bien moins tolérées. Des étu<strong>des</strong> montrent que les gran<strong>des</strong> entreprises sont<br />
actuellement confrontées à un problème de capacité d’alimentation <strong>et</strong> de<br />
refroidissement alors que les entreprises de taille moyenne ont du mal à<br />
trouver la surface suffisante pour leurs systèmes de stockage [2]. Le stockage<br />
<strong>des</strong> données représentant une part importante de l’énergie consommée<br />
par les datacentres, il est essentiel d’améliorer l’efficacité énergétique<br />
<strong>des</strong> systèmes <strong>et</strong> de choisir les solutions adéquates pour le déploiement<br />
d’une infrastructure de stockage.<br />
Ce chapitre passe en revue quelques <strong>technologies</strong> favorisant l’efficacité énergétique<br />
<strong>des</strong> solutions de stockage de données. Il fournit également <strong>des</strong> recommandations de<br />
bonnes pratiques qui pourront s’ajouter auxdites solutions pour améliorer l’efficacité<br />
de l’infrastructure de stockage dans les entreprises <strong>et</strong> datacentres.<br />
Les solutions de stockage telles que les ensembles de disques sont composées d’un<br />
support offrant une capacité de stockage brute <strong>et</strong> de composants supplémentaires<br />
servant d’interface <strong>et</strong> améliorant la fiabilité d’ensemble. On distingue communément<br />
deux niveaux auxquels peuvent s’appliquer les stratégies d’amélioration de leur efficacité<br />
énergétique : les « appareils », ou composants individuels formant le stockage<br />
brut (lecteurs de bande, disques durs <strong>et</strong> SSD notamment), <strong>et</strong> les « éléments », solutions<br />
composites tels que produits de stockage en réseau. Nous évoquerons dans un premier<br />
temps les solutions s’appliquant aux différents appareils avant d’analyser la façon dont<br />
ces techniques sont utilisées <strong>et</strong> combinées pour améliorer l’efficacité énergétique <strong>des</strong><br />
éléments.<br />
3.1 Appareils de stockage<br />
3.1.1 Systèmes à ban<strong>des</strong><br />
Les ban<strong>des</strong> sont souvent considérées comme l’un<br />
<strong>des</strong> supports les plus rentables pour le stockage<br />
<strong>des</strong> données à long terme. Plusieurs étu<strong>des</strong> [3][4]<br />
montrent que :<br />
• Dans la perspective d’un stockage à long terme,<br />
comme la sauvegarde <strong>et</strong> l’archivage dans les<br />
datacentres de taille moyenne, les disques durs<br />
peuvent être jusqu’à 23 fois plus chers que les<br />
solutions à bande <strong>et</strong> coûter 290 fois plus cher à<br />
alimenter <strong>et</strong> refroidir ;<br />
• La consolidation <strong>des</strong> données avec un système<br />
d’archives sur ban<strong>des</strong> peut diminuer considérablement<br />
le coût <strong>des</strong> centres de stockage. Les<br />
bandothèques à forte capacité peuvent remplacer<br />
les îlots de données grâce à la consolidation<br />
<strong>des</strong> opérations de sauvegarde, entraînant une<br />
réduction <strong>des</strong> coûts d’infrastructure <strong>et</strong> sans<br />
doute une plus grande efficacité énergétique.<br />
Avec une durée de vie de 30 ans <strong>et</strong> de fortes capacités<br />
de stockage, les ban<strong>des</strong> sont une solution<br />
attractive pour les datacentres ayant <strong>des</strong> besoins<br />
importants en sauvegarde <strong>et</strong> archivage à long<br />
terme. Dans un environnement à plusieurs niveaux<br />
de stockage, les systèmes à ban<strong>des</strong> restent donc<br />
les solutions les plus efficaces pour un archivage<br />
à long terme <strong>et</strong> un faible taux de consultation <strong>des</strong><br />
fichiers archivés. Cependant, certaines solutions<br />
de bibliothèques sur disque cherchent aujourd’hui<br />
à minimiser l’impact de la consommation <strong>des</strong><br />
disques par <strong>des</strong> techniques telles que le spindown.<br />
Ces <strong>technologies</strong> sont évoquées plus bas.<br />
28
Axe de l’actionneur<br />
Actionneur<br />
Tête de lecture/écriture<br />
Bras de l’actionneur<br />
Plateau<br />
Axe<br />
Cavaliers<br />
Alimentation électrique<br />
Fig. 3.1 Composants d’un DD<br />
Interface IDE<br />
3.1.2 Disques durs (DD)<br />
Les disques durs (DD) sont depuis longtemps le<br />
support de référence pour le stockage non-volatile<br />
de données, grâce à leur rapidité d’écriture<br />
<strong>et</strong> de lecture. Leur consommation d’énergie est<br />
essentiellement liée à leurs pièces mobiles, telles<br />
que moteurs <strong>et</strong> têtes de lecture (voir Figure 3.1).<br />
Afin d’accroître le débit de données, les fabricants<br />
augmentent la vitesse de rotation <strong>des</strong> plateaux, <strong>et</strong><br />
donc la consommation d’énergie. Les DD à haut<br />
débit actuels tournent généralement à 15 000 tr/<br />
min.<br />
Plusieurs techniques perm<strong>et</strong>tent d’améliorer<br />
l’efficacité <strong>des</strong> DD, comme stocker les données<br />
à certains endroits du plateau pour réduire l’effort<br />
mécanique lié à la récupération, contrôler la<br />
vitesse <strong>des</strong> plateaux <strong>et</strong> réduire la consommation<br />
en période de repos. Une autre technique répandue,<br />
appelée spin-down, consiste à ralentir les<br />
plateaux <strong>et</strong> parquer les têtes dans une zone sécurisée<br />
après une période d’inactivité définie en<br />
usine. Plutôt que de m<strong>et</strong>tre les plateaux à l’arrêt<br />
compl<strong>et</strong>, certains DD les font tourner à une vitesse<br />
variant en fonction de la charge (lecture/écriture).<br />
Certains DD ont plusieurs états de repos <strong>et</strong> de<br />
veille, avec plusieurs actions à mesure que la période<br />
d’inactivité se prolonge (par ex. désactivation<br />
du système d’asservissement, puis parcage<br />
<strong>des</strong> têtes <strong>et</strong> enfin spin-down <strong>des</strong> plateaux). La<br />
technologie PowerChoice de Seagate [5], par<br />
exemple, augmente le nombre de composants<br />
désactivés à partir de seuils d’activité prédéfinis.<br />
Les états intermédiaires présentent un temps de<br />
récupération généralement plus court que l’état<br />
de spin-down.<br />
Le Tableau 3.1 montre que la consommation en<br />
veille est d’environ 50 % inférieure à celle en<br />
mode repos. Ce type d’approche pourrait perm<strong>et</strong>tre<br />
d’importantes économies sur les systèmes<br />
RAID <strong>et</strong> MAID (Massive arrays of idle disks).<br />
Tab. 3.1 Profil de la technologie PowerChoice sur un disque 2,5’’ Constellation<br />
État Puissance (W) Économie d’énergie*<br />
(%)<br />
Standby_Z 1.29 54 8 60 min.<br />
* Les estimations en termes d’économie d’énergie <strong>et</strong> le temps de récupération constituent <strong>des</strong> valeurs préliminaires ; les chiffres mentionnés s’appliquent<br />
au disque dur 2,5 pouces Seagate® Constellation SAS.<br />
Temps de récupération<br />
(s)<br />
Temporisateur par défaut<br />
avant activation<br />
Idle 2.82 0 0 n/a<br />
Idle_A 2.82 0 0 1 sec.<br />
Idle_B 2.18 23 0.5 10 min.<br />
Idle_C 1.82 35 1 30 min.<br />
29
Le spin-down pouvant limiter les performances<br />
du DD, les fabricants travaillent sur d’autres techniques,<br />
comme augmenter la taille du cache <strong>et</strong><br />
m<strong>et</strong>tre en queue les instructions de lecture/écriture.<br />
Pour profiter <strong>des</strong> techniques du spin-down <strong>et</strong><br />
de la vitesse de rotation variable, il a été envisagé<br />
d’augmenter la durée <strong>des</strong> pério<strong>des</strong> d’inactivité du<br />
disque au niveau du système d’exploitation <strong>et</strong> <strong>des</strong><br />
applications. Certaines de ces approches consistent<br />
à reprogrammer les requêtes d’accès en<br />
modifiant le code d’application ou la répartition<br />
<strong>des</strong> données. D’autres techniques moins intrusives<br />
perm<strong>et</strong>tent de reprogrammer les requêtes au niveau<br />
du compilateur, sans avoir à toucher au code<br />
source de l’application. Si ces techniques peuvent<br />
réduire la consommation d’énergie, la répétition<br />
de cycles on/off pourrait toutefois entraver la durée<br />
de vie <strong>des</strong> DD.<br />
Moteurs <strong>et</strong> actionneurs étant les principaux responsables<br />
de la consommation d’énergie <strong>des</strong> DD,<br />
la miniaturisation pourrait contribuer à les rendre<br />
plus efficaces. Un DD 2,5’’ occupant environ<br />
quatre fois moins de place qu’un DD 3,5’’ (voir<br />
Figure 3.2), un châssis d’un volume suffisant pour<br />
recevoir 16 DD 3,5’’ peut être réorganisé pour accueillir<br />
jusqu’à 48 DD 2,5’’ sans avoir à accroître<br />
le volume total. Les DD hautes performances dans<br />
un boîtier 2,5’’ affichent une consommation réduite<br />
: leurs moteurs <strong>et</strong> actionneurs, plus p<strong>et</strong>its,<br />
ém<strong>et</strong>tent aussi moins de chaleur. Les fabricants affirment<br />
que sur les DD 2,5’’ de type Tier-1, la performance<br />
IOPS/W peut être jusqu’à 2,5 fois supérieure<br />
à celle d’un DD 3,5’’ [6]. Le refroidissement<br />
consomme moins d’énergie du fait que la chaleur<br />
émise <strong>et</strong> l’encombrement au sol sont réduits.<br />
Le Tableau 3.2 indique la consommation approximative<br />
de deux modèles de DD hautes<br />
performances produits par Seagate. Le DD 2,5’’<br />
consomme environ 46 % d’énergie en moins<br />
que son homologue 3,5’’ en mode actif. L’écart<br />
de consommation peut atteindre 53 % en mode<br />
repos. Si l’on considère le coût d’alimentation de<br />
Fig. 3.2 Disque dur 2,5 pouces posé sur un DD 3,5’’ (source: Wikipedia)<br />
24 DD seulement sur un an, avec un kWh à 0,11<br />
€, la différence entre DD 3,5’’ <strong>et</strong> 2,5’’ en mode<br />
actif avoisinerait les 140 €. Dans <strong>des</strong> datacentres<br />
avec systèmes de stockage sur plusieurs centaines,<br />
voire milliers de disques, les économies peuvent<br />
ainsi se chiffrer en milliers ou dizaines de milliers<br />
d’euros.<br />
Tab. 3.2 Consommation électrique de deux DD hautes performances de Seagate<br />
Caractéristiques Che<strong>et</strong>ah 15K.7 300GB* Savvio 15K.2 146GB* Variation<br />
Facteur de forme 3.5“ 2.5“ –<br />
Capacité 300 GB 146 GB –<br />
Interface SAS 6 Gb/s SAS 6 Gb/s –<br />
Vitesse de rotation (tr/min) 15 000 15 000 –<br />
Consommation moy. au repos (W) 8,74 4,1 -53%<br />
Consommation moy. en<br />
fonctionnement (W)<br />
* Source : fiches techniques consultables sur le site du fabricant<br />
12,92 6,95 -46.2%<br />
30
3 Équipements de stockage de données<br />
3.1.3 Disques SSD<br />
Tab. 3.3 Consommation électrique d’un SSD <strong>et</strong> d’un DD de Seagate<br />
Les SSD sont constitués, entre autres, d’une mémoire<br />
flash <strong>et</strong> d’un contrôleur assurant diverses<br />
tâches. Ils reposent sur la technologie flash NAND,<br />
qui emploie l’un <strong>des</strong> deux types de cellules de mémoire<br />
en fonction du nombre de bits que la cellule<br />
peut stocker (1 bit par cellule pour le flash SLC<br />
tandis que les mémoires MLC peuvent souvent<br />
stocker 2 ou 4 bits par cellule). La plupart <strong>des</strong> SSD<br />
bon marché font appel au flash MLC tandis que<br />
les appareils haut de gamme sont en SLC.<br />
Du fait de l’absence de parties mécaniques (moteurs<br />
<strong>et</strong> actionnneurs), les SSD sont supérieurs<br />
Caractéristiques Savvio 15K.2 73GB* Pulsar SSD 50GB* Variation<br />
Facteur de forme 3.5“ 2.5“ –<br />
Capacité 73 GB 50 GB –<br />
Interface<br />
SAS 3 Gb/s<br />
SAS 6 Gb/s<br />
SATA 3 Gb/s –<br />
Vitesse de rotation (tr/min) 15 000 – –<br />
Type de flash NAND – SLC –<br />
Consommation moy. au repos (W) 3,7 0,65 -82,4%<br />
Consommation moy. en<br />
fonctionnement (W)<br />
* Source : fiches techniques consultables sur le site du fabricant<br />
6,18 0,8 -87%<br />
aux DD par l’efficacité énergétique <strong>et</strong> la fiabilité.<br />
Ils génèrent aussi moins de chaleur <strong>et</strong> peuvent<br />
être placés dans <strong>des</strong> boîtiers plus p<strong>et</strong>its, ce qui<br />
réduit l’encombrement physique <strong>et</strong> les besoins<br />
en refroidissement. Le Tableau 3.3 présente une<br />
comparaison simple entre le SSD d’entreprise Pulsar<br />
(Seagate) <strong>et</strong> un DD SAS haute performance à<br />
15 000 tr/min. Le SSD consomme environ 87 %<br />
moins que le DD en mode actif <strong>et</strong> 82 % moins<br />
en mode repos. En pratique, les économies d’énergie<br />
dépendront toutefois de la façon dont les<br />
solutions de stockage utilisent les disques <strong>et</strong> <strong>des</strong><br />
caractéristiques de la charge de travail à laquelle<br />
ceux-ci sont soumis.<br />
3.1.4 Disques durs hybri<strong>des</strong> (HDD)<br />
Les HDD sont <strong>des</strong> disques équipés d’une importante<br />
mémoire tampon (buffer) composée de mémoire<br />
flash non volatile afin de minimiser les opérations<br />
de lecture ou d’écriture sur les plateaux.<br />
Plusieurs algorithmes sont utilisés pour faire fonctionner<br />
ce buffer [7]. Plus ce dernier est volumineux,<br />
plus longtemps les plateaux pourront rester<br />
en mode repos. La mémoire flash supplémentaire<br />
perm<strong>et</strong> aussi de réduire la consommation <strong>des</strong> moteurs<br />
<strong>et</strong> bras mécaniques <strong>et</strong> ainsi celle <strong>des</strong> solutions<br />
de stockage dans leur ensemble. Les HDD<br />
présentent <strong>des</strong> besoins en énergie potentiellement<br />
réduits par rapport aux DD classiques, mais leur<br />
application au stockage d’entreprise reste limitée.<br />
RECOMMANDATIONS DE BONNES PRATIQUES<br />
Évaluer les avantages <strong>des</strong> différentes <strong>technologies</strong> de stockage de données dans<br />
l’achat de matériels <strong>et</strong> la conception de systèmes<br />
• Les ban<strong>des</strong> sont la solution la plus efficace pour le stockage à long terme.<br />
• Les disques durs actuels possèdent <strong>des</strong> plateaux à vitesse de rotation variable pour économiser<br />
l’énergie.<br />
• Les multiples états de repos <strong>des</strong> DD perm<strong>et</strong>tent <strong>des</strong> économies d’énergie considérables au<br />
sein de solutions de stockage composites telles qu’ensembles de disques <strong>et</strong> MAID.<br />
• Les SSD sont plus chers, mais beaucoup plus efficaces que les HDD.<br />
• Les SSD peuvent être envisagés comme couche de stockage haute performance.<br />
31
3.2 Éléments de stockage<br />
C<strong>et</strong>te partie présente les techniques matérielles<br />
pouvant être utilisées <strong>et</strong> combinées pour améliorer<br />
l’efficacité énergétique <strong>des</strong> solutions de<br />
stockage composites telles que les ensembles de<br />
disques <strong>et</strong> le stockage à connexion directe (DAS)<br />
ou en réseau (NAS). Elle analyse aussi les solutions<br />
spécifiques au niveau éléments.<br />
3.2.1 Disques de grande capacité <strong>et</strong> miniaturisation<br />
Pour les applications ne nécessitant pas un stockage<br />
haute performance, les disques de grande<br />
capacité présentent généralement une efficacité<br />
énergétique accrue. Un DD SATA traditionnel<br />
consomme jusqu’à moitié moins par To de stockage<br />
qu’un disque Fibre Channel [8].<br />
Comme on l’a vu, les boîtiers miniaturisés perm<strong>et</strong>tent<br />
un gain d’espace dans les datacentres <strong>et</strong><br />
Tous les disques tournent<br />
à pleine vitesse : hautes<br />
performances, mais<br />
consommation maximum<br />
une réduction de l’empreinte énergétique grâce à<br />
leurs DD 2,5’’ plus efficaces. Dell a ainsi comparé<br />
deux de ses ensembles de disques avec le banc<br />
d’essai SPC-1C du Storage Performance Council :<br />
l’une avec <strong>des</strong> DD 3,5’’, l’autre avec <strong>des</strong> DD 2,5’’<br />
[9]. Les résultats montrent qu’en plus d’accroître<br />
la performance de 93 %, l’ensemble composé de<br />
DD 2,5’’ consommait 40 % moins d’énergie.<br />
3.2.2 Baies de disques de type MAID<br />
La technologie MAID (massive array of idle disks)<br />
combine la mémoire cache <strong>et</strong> le mode repos pour<br />
traiter les requêtes, ne rehaussant les disques<br />
qu’en fonction <strong>des</strong> besoins. L’immobilisation <strong>des</strong><br />
disques les moins demandés perm<strong>et</strong> de réduire la<br />
consommation d’énergie (voir Figure 3.3). Fujitsu,<br />
par exemple, perm<strong>et</strong> à ses clients de définir <strong>des</strong><br />
pério<strong>des</strong> durant lesquelles les disques devront<br />
être ralentis (ou mis hors service) en fonction de la<br />
charge ou du rythme de sauvegarde.<br />
L’ampleur <strong>des</strong> économies d’énergie à réaliser avec<br />
une baie MAID dépend de l’application <strong>et</strong> de la<br />
fréquence d’accès aux disques. Les critères r<strong>et</strong>enus<br />
pour décider de quand placer les disques en mode<br />
veille ou repos (puis les en sortir) ont un impact<br />
sur la consommation d’énergie ainsi que sur les<br />
performances. À l’origine, la technique MAID ne<br />
perm<strong>et</strong>tait aux HDD que d’être en position « on<br />
» ou « off », avec un lourd impact sur les performances<br />
d’une application si celle-ci avait besoin<br />
d’accéder à <strong>des</strong> données situées sur un disque<br />
en veille. La MAID de deuxième génération,<br />
ou « MAID 2.0 », est équipée d’une gestion de<br />
l’énergie intelligente (IPM), avec différents mo<strong>des</strong><br />
d’économie d’énergie (adaptés aux différents besoins<br />
de la qualité de service) <strong>et</strong> de performance.<br />
L’utilisateur peut ainsi configurer l’équilibre entre<br />
réactivité <strong>et</strong> économie d’énergie. Ces mo<strong>des</strong> multiples<br />
font appel notamment aux différents états<br />
de repos du disque décrits plus haut.<br />
Parmi les autres techniques de conservation de<br />
l’énergie pour les ensembles de disques figurent la<br />
popular data concentration (PDC) [10] <strong>et</strong> autres<br />
mécanismes d’attribution de fichiers [11]. L’idée<br />
qui sous-tend c<strong>et</strong>te approche est de consolider les<br />
données auxquelles le système accède le plus souvent<br />
en les sauvegardant ou les migrant vers une<br />
sous-série de disques. La charge est ainsi dirigée<br />
vers un plus p<strong>et</strong>it nombre de disques, les autres<br />
pouvant être basculés en mode basse consommation.<br />
25% <strong>des</strong> disques sont en<br />
spin-down : jusqu’à 25%<br />
d’économie d’énergie,<br />
mais baisse relative de la<br />
performance<br />
32<br />
Fig. 3.3 Représentation schématique d’un MAID<br />
3.2.3 Niveaux de RAID efficaces<br />
L’efficacité du stockage varie aussi avec le niveau<br />
de RAID : en termes de protection <strong>des</strong> données,<br />
certains niveaux tels que RAID-6 présentent un<br />
overhead important. Une implémentation RAID-6<br />
haute performance peut toutefois fournir le même<br />
niveau de performance que RAID-5 avec jusqu’à<br />
48 % de réduction <strong>des</strong> exigences de capacités sur<br />
disque par rapport à RAID-10.
3 Équipements de stockage de données<br />
Serveur<br />
Volume virtuel (10 TB)<br />
(capacité de stockage reconnue par le serveur)<br />
Pool de disques physiques (2 TB)<br />
(capacité de stockage réellement disponible)<br />
ÉCRITURE<br />
Écriture de données<br />
ÉCRITURE<br />
ÉCRITURE<br />
Fig. 3.4 Allocation granulaire de capacité (Source : Fujitsu ETERNUS solutions)<br />
3.2.4 Tiering horizontal, virtualisation du<br />
stockage <strong>et</strong> allocation granulaire de capacité<br />
L’utilisation efficace d’une infrastructure de stockage<br />
suppose d’élaborer <strong>et</strong> de m<strong>et</strong>tre en œuvre<br />
de bons principes de gestion en hiérarchisant le<br />
stockage en fonction de la fréquence d’accès aux<br />
données, de leur caractère recyclé ou non <strong>et</strong> de<br />
la durée de conservation (selon exigences opérationnelles<br />
ou réglementaires). Les fabricants<br />
de solutions de stockage proposent <strong>des</strong> logiciels<br />
qui hiérarchisent automatiquement les données<br />
en les transférant vers le niveau de tier adéquat<br />
d’après un suivi de la performance. On peut citer<br />
par exemple Fully Automated Storage Tiering<br />
(FAST, EMC2), System Storage Easy Tier (IBM),<br />
Data Progression (Compellent) <strong>et</strong> Data Migration<br />
Facility (DMF, SGI).<br />
Combiner virtualisation <strong>des</strong> serveurs <strong>et</strong> virtualisation<br />
du stockage perm<strong>et</strong> de créer <strong>des</strong> pools de<br />
disques <strong>et</strong> <strong>des</strong> volumes virtuels dont la capacité<br />
pourra être augmentée à la demande en fonction<br />
<strong>des</strong> besoins <strong>des</strong> applications. L’efficacité <strong>des</strong> baies<br />
de stockage traditionnelles est généralement comprise<br />
entre 30 <strong>et</strong> 40 %. Selon certains travaux [12],<br />
la virtualisation du stockage pourrait la porter à<br />
70 %, voire plus, en réduisant les exigences de<br />
stockage <strong>et</strong> augmentant les économies d’énergie.<br />
La virtualisation du tiering, ou gestion hiérarchique<br />
du stockage (HSM), perm<strong>et</strong> aux données<br />
de migrer automatiquement entre différents<br />
types de supports sans que l’utilisateur ne s’en<br />
aperçoive, grâce à <strong>des</strong> systèmes logiciels. C<strong>et</strong>te<br />
approche perm<strong>et</strong> de réduire le coût <strong>et</strong> la consommation<br />
d’énergie en n’adm<strong>et</strong>tant que les données<br />
auxquelles l’utilisateur accède le plus souvent sur<br />
les supports haute performance tandis que les<br />
données moins utilisées sont stockées sur <strong>des</strong><br />
équipements moins onéreux <strong>et</strong> plus efficaces,<br />
utilisant <strong>des</strong> techniques telles que la MAID <strong>et</strong> la<br />
déduplication.<br />
L’allocation granulaire de capacité, technologie<br />
qui vient souvent en complément de la virtualisation<br />
du stockage, vise à maximiser l’utilisation <strong>des</strong><br />
supports <strong>et</strong> éliminer les capacités pré-attribuées<br />
mais non utilisées. L’espace de stockage n’est provisionné<br />
qu’au moment de l’écriture <strong>des</strong> données.<br />
La capacité de réserve est généralement fixée à<br />
zéro au lieu d’être définie par le stockage maximum<br />
exigé par les applications. Les volumes sont<br />
étendus en ligne <strong>et</strong> <strong>des</strong> capacités sont ajoutées<br />
sur-le-champ pour s’adapter aux variations sans<br />
interruption de l’activité (voir Figure 3.4). L’allocation<br />
granulaire de capacité peut se traduire par<br />
<strong>des</strong> économies d’énergie en réduisant la nécessité<br />
de sur-provisionner les capacités de stockage.<br />
33
3.2.5 Consolidation au niveau du stockage<br />
<strong>et</strong> de la matrice<br />
La consolidation du stockage n’est pas un suj<strong>et</strong><br />
récent : les réseaux SAN (storage area n<strong>et</strong>works)<br />
fournissent un certain degré de consolidation <strong>et</strong><br />
d’efficacité depuis plusieurs années en partageant<br />
les baies de disques à travers plusieurs serveurs<br />
par le biais d’un réseau privé local, évitant ainsi la<br />
formation d’îlots de données. Passer du stockage<br />
à connexion directe (DAS) au stockage en réseau<br />
présente plusieurs avantages en termes d’efficacité<br />
énergétique. La consolidation <strong>des</strong> équipements<br />
de stockage de données peut entraîner à la fois<br />
<strong>des</strong> économies substantielles en termes d’encombrement<br />
au sol <strong>et</strong> de consommation d’énergie.<br />
Certains fabricants affirment qu’en fournissant un<br />
équipement de réseau multi-protocole, la matrice<br />
réseau peut être consolidée sur un nombre réduit<br />
de ressources, ce qui réduit aussi l’encombrement,<br />
la consommation d’énergie <strong>et</strong> les besoins en refroidissement.<br />
3.2.6 Déduplication <strong>des</strong> données<br />
Les infrastructures de stockage conservent souvent<br />
un grand nombre de copies <strong>des</strong> mêmes données.<br />
Les centres de stockage utilisent plusieurs niveaux<br />
de duplication, parfois nécessaires pour améliorer<br />
la fiabilité <strong>et</strong> le débit de données. Mais il est également<br />
possible de minimiser le gaspillage <strong>et</strong> donc<br />
de recycler les capacités de stockage. Les solutions<br />
SAN actuelles font appel à <strong>des</strong> techniques de déduplication<br />
pour réduire les doublons, qui interviennent<br />
principalement au niveau <strong>des</strong> blocs de<br />
données <strong>et</strong> <strong>des</strong> fichiers.<br />
En dehors du niveau de déduplication, ces techniques<br />
se distinguent selon qu’elles agissent avant<br />
ou après l’écriture <strong>des</strong> données sur le disque. Les<br />
deux approches ont leurs avantages <strong>et</strong> inconvénients.<br />
Tout en réduisant les besoins en support<br />
de stockage, la déduplication après écriture <strong>des</strong><br />
données sur le disque exige une mise en cache<br />
pour la suppression <strong>des</strong> doublons. Pour les applications<br />
de sauvegarde, c<strong>et</strong>te technique entraîne<br />
généralement <strong>des</strong> fenêtres de sauvegarde réduites<br />
<strong>et</strong> une moindre dégradation <strong>des</strong> performances. Les<br />
techniques de déduplication se distinguent enfin<br />
par leur lieu d’intervention : à la source (client),<br />
à la cible (serveur) ou via un périphérique dédié<br />
connecté au serveur.<br />
Du fait qu’elles perm<strong>et</strong>tent aux entreprises de<br />
recycler leurs capacités de stockage <strong>et</strong> de réduire<br />
leurs besoins en supports, les solutions de déduplication<br />
sont considérées comme une technique<br />
de réduction de la consommation d’énergie. En<br />
pratique, les économies dépendent du degré de<br />
granularité. Les solutions qui segmentent les données<br />
(« hash ») <strong>et</strong> agissent au niveau <strong>des</strong> fichiers<br />
sont généralement moins efficaces, mais génèrent<br />
moins d’overhead. L’efficacité <strong>des</strong> techniques au<br />
niveau <strong>des</strong> blocs est généralement inversement<br />
proportionnelle à la taille de ces derniers.<br />
Si la déduplication <strong>des</strong> données constitue une<br />
technologie prom<strong>et</strong>teuse pour réduire le gaspillage<br />
<strong>et</strong> la consommation d’énergie, elle ne<br />
convient pas à toutes les applications. Dédupliquer<br />
<strong>des</strong> données avant qu’elles ne soient stockées sur<br />
le disque, par exemple, peut entraver grandement<br />
les performances, ce qui ne saurait être toléré pour<br />
<strong>des</strong> applications de base de données. Les applications<br />
<strong>et</strong> services conservant d’importants volumes<br />
de données sur <strong>des</strong> pério<strong>des</strong> prolongées sont ceux<br />
pour lesquels les <strong>technologies</strong> de déduplication<br />
présenteront les résultats les plus intéressants.<br />
D’une façon générale, la déduplication fonctionne<br />
le mieux pour la sauvegarde, la réplication <strong>et</strong> la<br />
conservation <strong>des</strong> données.<br />
34
3 Équipements de stockage de données<br />
Pour aller plus loin<br />
McClure T. (2009) : Driving Storage Efficiency<br />
in SAN Environments, Enterprise Strategy Group -<br />
White Paper, November 2009.<br />
Craig B. and McCaffrey T. (2009) : Optimizing<br />
Nearline Storage in a 2.5-inch Environment Using<br />
Seagate Constellation Drives, Dell Power Solutions,<br />
Jun. 2009.<br />
SNIA (2010) : Storage Power Efficiency Measurement<br />
Specification: Working Draft Version 0.2.10,<br />
SNIA Green Storage Initiative, August 2010.<br />
Storage Tiering with EMC Celerra FAST, EMC2<br />
www.snia.org/sites/default/files/Storage_Power_<br />
Efficiency_Measurement_Spec_v0.2.10_DRAFT.pdf<br />
Clark T. and Yoder A. (2008) : Best Practices for<br />
Energy Efficient Storage Operations Version 1.0,<br />
SNIA Green Storage Initiative, October 2008.<br />
Freeman L. (2009) : Reducing Data Centre<br />
Power Consumption Through Efficient Storage.<br />
White Paper. N<strong>et</strong>App, July 2009.<br />
Sources<br />
[1] IDC (2010) : The Digital Universe Decade –<br />
Are you ready IDC, May, 2010.<br />
[2] McClure T. (2009) : Driving Storage Efficiency<br />
in SAN Environments, Enterprise Strategy<br />
Group - White Paper, November 2009.<br />
[3] Reine D. and Kahn M. (2008) : Disk and<br />
Tape Square Off Again – Tape Remains King of the<br />
Hill with LTO-4. Clipper Notes, February 2008.<br />
[4] ORACLE (2010) : Consolidate Storage Infrastructure<br />
and Create a Greener Datacentre.<br />
Oracle White Paper, April 2010.<br />
[5] Seagate (2011) : PowerChoice Technology<br />
Provi<strong>des</strong> Unprecedented Hard Drive Power Savings<br />
and Flexibility - Technology Paper, Seagate,<br />
2011.<br />
[6] Seagate (2010) : Seagate Savvio 15K.2<br />
Data She<strong>et</strong>, Seagate, 2010.<br />
[7] Bisson T., Brandt S., Long D. (2006) : NV-<br />
Cache: Increasing the Effectiveness of Disk Spin-<br />
Down Algorithms with Caching, 14th IEEE International<br />
Symposium on Modeling, Analysis, and<br />
Simulation, pp. 422-432, 2006.<br />
[8] Freeman L. (2009) : Reducing Data Centre<br />
Power Consumption Through Efficient Storage.<br />
White Paper. N<strong>et</strong>App, July 2009.<br />
[9] Craig B. and McCaffrey T. (2009) : Optimizing<br />
Nearline Storage in a 2.5-inch Environment<br />
Using Seagate Constellation Drives, Dell Power<br />
Solutions, Jun. 2009.<br />
[10] Pinheiro E. and Bianchini R. (2004) :<br />
Energy Conservation Techniques for Disk Array-<br />
Based Servers. 18th Annual International Conference<br />
on Supercomputing (ICS 2004), pp. 68-78.<br />
Malo, France, 2004.<br />
[11] Otoo E. D., Rotem D. and Tsao S.C.<br />
(2009) : Analysis of Trade-Off b<strong>et</strong>ween Power Saving<br />
and Response Time in Disk Storage Systems,<br />
IEEE International Symposium on Parallel Distributed<br />
Processing (IPDPS 2009), pp. 1-8, May 2009.<br />
[12] Blade N<strong>et</strong>work (2009) : Storage Consolidation<br />
for Data Centre Efficiency, BLADE N<strong>et</strong>work<br />
Technologies White Paper, Jun. 2009.<br />
35
4 Équipements de réseau<br />
Alexander Schlösser, Technische Universität Berlin, Lutz Stobbe, Fraunhofer IZM<br />
D’après les données actuelles, la consommation <strong>des</strong> commutateurs, routeurs<br />
<strong>et</strong> autres équipements de réseau représenterait 8 à 12 % de l’empreinte<br />
énergétique totale <strong>des</strong> datacentres. C<strong>et</strong>te part relativement faible<br />
fait que les équipements de réseau sont rarement au centre <strong>des</strong> mesures<br />
d’amélioration de l’efficacité énergétique. Mais c<strong>et</strong>te vision <strong>des</strong> choses<br />
commence à évoluer, surtout dans les centres de taille moyenne à grande.<br />
Plusieurs raisons font que la consommation d’énergie <strong>des</strong> équipements de<br />
réseau <strong>et</strong> les eff<strong>et</strong>s de l’architecture implémentée jouent un rôle de plus en<br />
plus important dans la conception <strong>et</strong> l’opération <strong>des</strong> datacentres.<br />
Avec l’augmentation <strong>des</strong> exigences en termes de qualité de service <strong>et</strong> <strong>des</strong><br />
applications sensibles au délai, les réseaux <strong>et</strong> leurs équipements jouent un<br />
rôle de plus en plus décisif pour les datacentres. Leur consommation varie<br />
en fonction de la technologie choisie <strong>et</strong> de l’architecture (câblerie, alimentation<br />
<strong>et</strong> refroidissement).<br />
4.1 Cadre technique <strong>et</strong> opérationnel<br />
4.1.1 Schéma fonctionnel<br />
La Figure 4.1 représente un schéma fonctionnel<br />
simplifié <strong>des</strong> aspects énergétiques liés aux réseaux<br />
<strong>et</strong> à leurs équipements au sein d’un datacentre. Ce<br />
modèle perm<strong>et</strong> de visualiser les chevauchements<br />
<strong>des</strong> infrastructures d’alimentation <strong>et</strong> de refroidissement<br />
ainsi que la relation entre le réseau <strong>et</strong> les<br />
principaux équipements informatiques tels que<br />
serveurs <strong>et</strong> systèmes de stockage. Il définit aussi<br />
les principaux éléments à améliorer au niveau du<br />
réseau, comme son architecture <strong>et</strong> sa topologie,<br />
son infrastructure physique, ses composants matériels,<br />
sa câblerie mais aussi la configuration <strong>des</strong><br />
logiciels <strong>et</strong> les possibilités de virtualisation.<br />
L’efficacité énergétique de l’infrastructure du réseau<br />
<strong>et</strong> de ses équipements dépend aussi <strong>des</strong><br />
applications, <strong>des</strong> accords de niveau de service <strong>et</strong><br />
<strong>des</strong> exigences de performance en termes de bande<br />
passante <strong>et</strong> de latence définies par l’opérateur du<br />
datacentre. La question de la performance doit<br />
être prise en compte dans la procédure de planification<br />
pour améliorer l’efficacité énergétique.<br />
Salle serveur / datacentre<br />
Architecture & topologie<br />
Virtualisation & configuration<br />
Composants & câblerie<br />
Alimentation & onduleurs<br />
Refroidissement & flux d’air<br />
Suivi & contrôles<br />
Réseau Équipement Infrastructure<br />
Fig. 4.1: Schéma fonctionnel <strong>des</strong> réseaux d’un datacentre<br />
36
4.1.2 Attributs du réseau<br />
L’amélioration de l’efficacité énergétique de l’infrastructure<br />
réseau <strong>des</strong> datacentres exige une<br />
démarche structurée. La planification doit intégrer<br />
une perspective stratégique ou à long terme, sachant<br />
que c<strong>et</strong>te infrastructure est généralement<br />
en place pour une période prolongée, souvent<br />
plus de huit ans. Modifier l’infrastructure de base<br />
<strong>et</strong> la topologie du réseau, ses équipements, <strong>et</strong>c.<br />
représente donc un investissement considérable<br />
<strong>et</strong> non dénué de risque. L’amélioration du réseau<br />
est pourtant synonyme d’optimisation <strong>des</strong> performances<br />
du datacentre <strong>et</strong> bien souvent aussi de<br />
son efficacité énergétique.<br />
La planification commencera par une analyse<br />
stratégique. L’opérateur doit définir les attributs<br />
de son réseau <strong>et</strong> ses exigences en termes de performance.<br />
C<strong>et</strong>te tâche passe par une analyse du<br />
marché. Le monde de l’informatique connaît en<br />
2011 une formidable transition vers une production<br />
centralisée <strong>des</strong> applications, qui transforme le<br />
volume <strong>et</strong> les modèles de circulation <strong>des</strong> données.<br />
Les applications ne sont plus produites du côté de<br />
l’utilisateur final, à grand renfort de puissance de<br />
calcul <strong>et</strong> de packs logiciels, mais au sein <strong>des</strong> datacentres<br />
<strong>et</strong> du « nuage », du fait de l’utilisation<br />
<strong>des</strong> logiciels en tant que service (SaaS) <strong>et</strong> du cloud<br />
computing. Les conditions préalables incluent une<br />
connectivité à haut débit <strong>et</strong> un faible niveau de<br />
latence.<br />
C<strong>et</strong>te tendance générale entraîne une augmentation<br />
<strong>des</strong> flux de données non seulement entre<br />
client <strong>et</strong> serveur, mais aussi de serveur à serveur<br />
<strong>et</strong> <strong>des</strong> supports de stockage vers les serveurs. Enterasys<br />
[1] prévoit que l’architecture <strong>et</strong> la configuration<br />
<strong>des</strong> réseaux vont évoluer pour s’y adapter.<br />
Afin d’améliorer les performances (productivité<br />
informatique), la tendance est à l’agrégation de<br />
réseau (bottom-up) <strong>et</strong> à la virtualisation (topdown).<br />
Fusionner l’accès <strong>et</strong> l’agrégation ainsi que l’agrégation<br />
<strong>et</strong> le cœur du réseau dans une certaine<br />
mesure perm<strong>et</strong> de réduire le nombre de strates<br />
de l’architecture réseau (voir aussi Figure 4.3).<br />
En unifiant le réseautage, c<strong>et</strong>te tendance pourrait<br />
éventuellement faire baisser la consommation<br />
d’énergie. Tout est question d’équilibre. On dispose<br />
encore de peu d’informations <strong>et</strong> de données<br />
<strong>et</strong> aucune solution particulière n’est en vue sur le<br />
marché.<br />
La virtualisation favorise elle aussi l’incorporation<br />
<strong>des</strong> équipements de réseau <strong>et</strong> réseaux locaux<br />
(VLAN). Elle présente l’avantage de consolider les<br />
équipements physiques <strong>et</strong> donc de perm<strong>et</strong>tre une<br />
plus grande efficacité énergétique.<br />
Toujours selon Enterasys [1], la conception <strong>des</strong><br />
réseaux de datacentres répond à une série d’objectifs<br />
communs :<br />
• Bande passante <strong>et</strong> faible latence (sélection de<br />
la technologie réseau) ;<br />
• Modularité <strong>et</strong> souplesse (architecture réseau) ;<br />
• Capacité à supporter divers services (consolidation)<br />
;<br />
• Sécurité (de plus en plus important, avec une<br />
influence sur l’overhead) ;<br />
• Forte disponibilité <strong>et</strong> redondance (exigences sur<br />
la qualité de service) ;<br />
• Gérabilité <strong>et</strong> transparence (solutions de virtualisation)<br />
;<br />
• Optimisation <strong>des</strong> coûts (réduire CAPEX <strong>et</strong><br />
OPEX).<br />
4.1.3 Équilibrer la performance <strong>et</strong> la<br />
consommation énergétique<br />
Bande passante, haut débit, latence <strong>et</strong> intégrité<br />
<strong>des</strong> données sont <strong>des</strong> critères importants pour la<br />
performance <strong>des</strong> réseaux. La satisfaction du client<br />
ou « qualité de service » (QoS) est une autre exigence<br />
majeure. Elle se définit en termes d’accords<br />
de niveau de service (SLA), avec <strong>des</strong> caractéristiques<br />
telles que débit minimum <strong>et</strong> temps de réponse<br />
ou latence maximum. Une architecture réseau<br />
réactive, convergente <strong>et</strong> intelligente, capable<br />
de gérer les flux de données de façon dynamique<br />
<strong>et</strong> dans le respect <strong>des</strong> SLA est non seulement un<br />
gage important de compétitivité, mais peut aussi<br />
servir de base à une approche systématique de<br />
l’efficacité énergétique.<br />
RECOMMANDATIONS DE BONNES PRATIQUES<br />
Du fait du grand nombre de produits <strong>et</strong> d’options de réseaux disponibles sur le marché, il est<br />
recommandé aux opérateurs de datacentres <strong>et</strong> administrateurs informatiques de lister les priorités<br />
concernant les attributs de leur réseau, tels que :<br />
• Services ;<br />
• Latence ;<br />
• Qualité de service ;<br />
• Possibilité de virtualisation ;<br />
• Autres aspects de la performance ou de l’interopérabilité.<br />
La meilleure approche consiste en une optimisation du système qui reflète les interactions entre<br />
l’infrastructure <strong>et</strong> les performances du réseau <strong>et</strong> celles <strong>des</strong> autres équipements.<br />
37
La mise en œuvre de la QoS peut toutefois entraîner<br />
une augmentation du trafic total <strong>et</strong> de la<br />
consommation énergétique du datacentre. Les différentes<br />
<strong>technologies</strong> réseau <strong>et</strong> leurs équipements<br />
présentent <strong>des</strong> avantages <strong>et</strong> <strong>des</strong> inconvénients.<br />
D’une façon générale, on observe que la norme<br />
10 Gigabite Ethern<strong>et</strong> (10GbE) s’impose comme<br />
la technologie de référence dans les datacentres.<br />
Le protocole Ethern<strong>et</strong> relie non seulement les serveurs<br />
(LAN), mais s’utilise aussi de plus en plus<br />
dans les réseaux de stockage (SAN).<br />
Or une faible latence <strong>et</strong> l’intégrité <strong>des</strong> données<br />
sont <strong>des</strong> exigences de base pour le trafic de stockage.<br />
Selon Lippis [2], les commutateurs 10GbE<br />
actuels produisent 400 à 700 ns de latence. Ce<br />
chiffre devrait tomber à environ 100 ns d’ici à<br />
2014. On voit donc que l’augmentation de la<br />
bande passante entraîne une réduction du temps<br />
de latence. Du point de vue de la consommation,<br />
il est nécessaire d’équilibrer c<strong>et</strong>te amélioration<br />
(technologie réseau) avec la consommation<br />
éventuellement accrue d’une capacité haut débit<br />
(composant). La sélection <strong>des</strong> composants <strong>et</strong> la<br />
consolidation E/S sont deux aspects à envisager.<br />
De même, il est nécessaire de peser la question<br />
de l’intégrité <strong>des</strong> données (disponibilité) au regard<br />
de la performance en termes de débit <strong>et</strong> d’efficacité<br />
énergétique. Un réseau sens pertes se traduit<br />
généralement par <strong>des</strong> protocoles plus complexes<br />
(overhead) <strong>et</strong> une latence accrue, avec une plus<br />
grande puissance de calcul <strong>et</strong> une efficacité réduite<br />
de la bande passante. C’est toutefois une<br />
condition sine qua non pour les réseaux de stockage<br />
SAN. Les pertes liées au protocole Ethern<strong>et</strong><br />
l’ont empêché par le passé d’être appliqué à ce<br />
type de réseaux.<br />
Les protocoles Fibre Channel (FC) <strong>et</strong> InfiniBand<br />
(IB) étaient alors les deux <strong>technologies</strong> de réseau<br />
les plus répandues. Il existe aujourd’hui de multiples<br />
options de réseau de stockage reposant<br />
sur le protocole Ethern<strong>et</strong> : Converged Enhanced<br />
Ethern<strong>et</strong> (CEE), Fibre Channel over Ethern<strong>et</strong><br />
(FCoE), Intern<strong>et</strong> Small Computer System Interface<br />
(iSCSI) over Ethern<strong>et</strong>, ATA over Ethern<strong>et</strong><br />
(AoE) <strong>et</strong> stockage en réseau (NAS). Ces options<br />
contribuent à unifier le réseautage (<strong>et</strong> éviter les<br />
adaptateurs), mais créent un surcroît d’overhead,<br />
d’où une efficacité réduite de la bande passante.<br />
On ignore quel peut être l’impact éventuel sur l’efficacité<br />
énergétique.<br />
L’opérateur doit donc envisager l’impact énergétique<br />
de l’amélioration de la performance, de la<br />
modularité <strong>et</strong> de l’adaptabilité <strong>des</strong> nouvelles solutions<br />
de réseau consolidé. Ces nouvelles solutions<br />
ont sans doute <strong>des</strong> conséquences positives sur la<br />
consommation, mais un bon dimensionnement<br />
reste essentiel. Il est recommandé de se renseigner<br />
sur l’impact énergétique global au moment<br />
de l’achat d’un nouvel équipement ou de solutions<br />
de réseau complètes.<br />
4.2 Amélioration de l’efficacité<br />
énergétique<br />
4.2.1 Fusionner les classes de trafic<br />
(consolidation E/S)<br />
Les réseaux <strong>des</strong> datacentres doivent transm<strong>et</strong>tre<br />
différents types de flux au sein de différents types<br />
d’applications, d’où l’existence de protocoles <strong>et</strong><br />
d’architectures spécialisés. Mais les réseaux devenus<br />
très complexes ne partagent souvent plus<br />
leurs ressources. L’objectif de base de l’amélioration<br />
est de réduire les composants physiques<br />
<strong>et</strong> de partager la capacité du réseau en fonction<br />
<strong>des</strong> différentes unités fonctionnelles. La tendance<br />
technique générale vers une simplification <strong>et</strong> une<br />
réduction <strong>des</strong> structures ainsi qu’une convergence<br />
E/S basée sur le protocole Ethern<strong>et</strong> découle aussi<br />
d’un souci d’efficacité énergétique. Le maître mot<br />
est la consolidation du réseau. Celle-ci s’applique<br />
aux réseaux serveur <strong>et</strong> stockage ainsi qu’à l’architecture<br />
de distribution. La carte réseau convergent<br />
(CNA) fusionne ainsi plusieurs interfaces<br />
jusqu’alors séparées :<br />
• Contrôleur hôte de bus (HBA) pour les flux SAN;<br />
• Carte réseau (NIC) pour les flux LAN;<br />
• Adaptateur de canal hôte (HCA) pour les flux<br />
IPC.<br />
La consolidation E/S désigne la capacité d’un commutateur<br />
ou adaptateur hôte à utiliser la même<br />
infrastructure physique pour différents types de<br />
flux, chacun ayant généralement <strong>des</strong> caractéristiques<br />
uniques <strong>et</strong> <strong>des</strong> exigences spécifiques. Pour<br />
l’opérateur, cela revient à n’avoir qu’un seul réseau<br />
à installer <strong>et</strong> à gérer au lieu de trois (voir<br />
Figure 4.2).<br />
Pour les hôtes <strong>et</strong> les baies de stockage, la consolidation<br />
perm<strong>et</strong> d’avoir un p<strong>et</strong>it nombre de cartes<br />
réseau convergent (CNA) à ach<strong>et</strong>er au lieu <strong>des</strong><br />
cartes Ethern<strong>et</strong>, HBA FC <strong>et</strong> HCA IB. Une carte<br />
HBA FC classique consomme environ 12,5 W [3].<br />
En termes de redondance, plusieurs options devront<br />
être envisagées pour assurer la fiabilité de<br />
la conception.<br />
38
4 Équipements de réseau<br />
Communication<br />
inter-processus<br />
(IPC)<br />
Réseau local<br />
(LAN)<br />
Réseau de<br />
stockage<br />
(SAN)<br />
IPC<br />
LAN<br />
SAN<br />
Switch<br />
Ethern<strong>et</strong><br />
Switch FC<br />
Switch<br />
Ethern<strong>et</strong><br />
Ethern<strong>et</strong><br />
Fibre Channel/<br />
Infiniband<br />
Ethern<strong>et</strong> 10G / 40G / 100G<br />
HCA<br />
NIC<br />
HBA<br />
CNA<br />
Processeur<br />
Mémoire<br />
Processeur<br />
Mémoire<br />
Serveur<br />
Fig. 4.2 Consolidation E/S <strong>et</strong> convergence <strong>des</strong> réseaux de datacentres<br />
AVANTAGES DES RÉSEAUX CONVERGÉS<br />
La consolidation E/S perm<strong>et</strong> un plus haut niveau de regroupement <strong>des</strong> différents types de réseau<br />
(LAN, SAN) en vue de la virtualisation du système. Elle perm<strong>et</strong> en outre une réduction sensible<br />
de l’ampleur de l’infrastructure physique (commutateurs, ports, connectique <strong>et</strong> câblerie) entre les<br />
différents réseaux. Les réseaux convergés entraînent :<br />
• jusqu’à 80 % d’adaptateurs <strong>et</strong> câbles en moins ;<br />
• jusqu’à 25 % d’espace en moins pour les commutateurs, adaptateurs <strong>et</strong> racks ;<br />
• jusqu’à 42 % d’économie sur l’alimentation <strong>et</strong> le refroidissement [4].<br />
39
4.2.2 Consolidation du réseau<br />
La principale approche pour optimiser la consommation<br />
du réseau d’un datacentre consiste à<br />
repenser son architecture <strong>et</strong> faire converger <strong>des</strong><br />
réseaux jusqu’alors séparés en une technologie<br />
unique. L’architecture pourra être composée d’un<br />
arbre fait d’équipements de routage <strong>et</strong> commutation<br />
(couches multiples), dans lequel les matériels<br />
les plus spécialisés <strong>et</strong> les plus onéreux seront<br />
placés au somm<strong>et</strong> de la hiérarchie. L’objectif de<br />
consolidation doit être de créer une architecture<br />
réseau plate basée sur un maillage fonctionnel.<br />
Voici quelques exemples de mesures à prendre :<br />
• Agréger les commutateurs : plusieurs commutateurs<br />
physiques sur un seul appareil logique ;<br />
• Réduire le nombre de couches : utiliser un commutateur<br />
agrégé pour effectuer les tâches de<br />
plusieurs couches de commutateurs en tenant<br />
compte <strong>des</strong> services <strong>et</strong> de la sécurité ;<br />
• Créer un maillage unifié : combinaison <strong>des</strong> deux<br />
approches alliant simplicité opérationnelle <strong>et</strong><br />
haute performance, toujours en tenant compte<br />
<strong>des</strong> services <strong>et</strong> de la sécurité.<br />
La convergence <strong>des</strong> réseaux serveur (LAN) <strong>et</strong> stockage<br />
(SAN) est une tendance générale qui perm<strong>et</strong><br />
d’économiser l’énergie. Maintenir deux réseaux<br />
distincts entraînerait une hausse du coût total<br />
d’opération <strong>et</strong> de la consommation du fait de la<br />
multiplication du nombre d’adaptateurs, câbles <strong>et</strong><br />
ports nécessaire pour connecter chaque serveur<br />
directement aux LAN <strong>et</strong> SAN. Pour simplifier ou<br />
aplanir la structure de leur réseau, les datacentres<br />
m<strong>et</strong>tent actuellement en œuvre <strong>des</strong> <strong>technologies</strong><br />
telles que iSCSI, Fibre Channel over Ethern<strong>et</strong><br />
(FCoE) <strong>et</strong> data centre bridging (DCB).<br />
Routeurs<br />
N<br />
W<br />
E<br />
Core<br />
S<br />
Agrégation<br />
Accès<br />
Fig. 4.3 Consolidation de réseau<br />
40
4 Équipements de réseau<br />
4.2.3 Virtualisation du réseau<br />
La virtualisation est une technologie bien établie<br />
pour consolider un serveur physique <strong>et</strong> plusieurs<br />
machines virtuelles. Le même principe peut<br />
s’appliquer aux réseaux : diverses approches<br />
matérielles <strong>et</strong> logicielles perm<strong>et</strong>tent de gérer les<br />
ressources réseau en tant qu’unités logiques indépendantes<br />
de leur topologie physique. Ceci résulte<br />
en <strong>des</strong> flux réduits, une sécurité simplifiée <strong>et</strong> un<br />
contrôle amélioré. Les principaux éléments pour<br />
optimiser l’efficacité <strong>des</strong> réseaux sont la connaissance<br />
<strong>et</strong> la visibilité du réseau dans le cycle de<br />
vie <strong>des</strong> machines virtuelles (VM). La possibilité de<br />
configurer les capacités réseau <strong>et</strong> ports au niveau<br />
de chaque VM prise séparément ainsi que d’effectuer<br />
un traçage dynamique <strong>des</strong> VM dans leurs<br />
déplacements au sein du datacentre est un aspect<br />
important pour l’efficacité de la gestion d’un environnement<br />
virtualisé. L’efficacité énergétique<br />
découle principalement de la consolidation <strong>des</strong><br />
routeurs, adaptateurs physiques pour ports E/S <strong>et</strong><br />
autres matériels réseau.<br />
Etendre la virtualisation du système au réseau signifie<br />
:<br />
• Virtualiser le routeur (logiciel avec fonction routage,<br />
systèmes multiples sur une seule machine<br />
réelle) ;<br />
• Virtualiser les liens (interconnexion logique du<br />
routeur virtuel) ;<br />
• Virtualiser les réseaux (routeurs virtuels connectés<br />
par <strong>des</strong> liens virtuels).<br />
La virtualisation croissante <strong>des</strong> serveurs entraîne<br />
un surcroît de complexité <strong>et</strong> d’overhead pour le<br />
réseau. Les commutateurs obsolètes ne détectent<br />
pas les VM, ce qui pose un risque d’interruption<br />
de service <strong>et</strong> de failles dans la sécurité en cas de<br />
configuration incorrecte du réseau. Le réseau est<br />
un domaine clé qui doit lui aussi être virtualisé<br />
pour afficher le même niveau de souplesse, débit<br />
<strong>et</strong> performance.<br />
La virtualisation de service réseau est une stratégie<br />
qui perm<strong>et</strong> de simplifier les opérations du réseau<br />
<strong>et</strong> de consolider plusieurs périphériques. Virtualiser<br />
un module pare-feu ou IPS en fournissant<br />
une image logiciel à différentes applications via un<br />
matériel unique perm<strong>et</strong>trait de réduire la nécessité<br />
d’avoir plusieurs appareils distincts.<br />
La consolidation de plusieurs services sur un seul<br />
appareil physique perm<strong>et</strong> de réduire la consommation<br />
d’énergie sans avoir à déployer un matériel<br />
dédié à chaque fois. Ceci perm<strong>et</strong> aussi une<br />
économie sur l’alimentation, le refroidissement <strong>et</strong><br />
l’encombrement du rack.<br />
La virtualisation de service réseau présente en résumé<br />
les avantages suivants :<br />
• Flexibilité accrue <strong>des</strong> interfaces de gestion ;<br />
• Réduction du coût d’acquisition grâce à l’utilisation<br />
de logiciels ;<br />
• Performance accrue <strong>des</strong> applications grâce à la<br />
simplification de l’extension <strong>et</strong> de l’allocation<br />
<strong>des</strong> services ;<br />
• Baisse potentielle de la consommation d’énergie<br />
grâce à la consolidation <strong>des</strong> équipements.<br />
RECOMMANDATIONS DE BONNES PRATIQUES<br />
Pour les p<strong>et</strong>its <strong>et</strong> moyens datacentres, le choix entre FCoE <strong>et</strong> iSCSI dépendra fortement<br />
<strong>des</strong> exigences posées à l’application <strong>et</strong> de la présence de personnel formé en Fibre Channel.<br />
La réussite de la mise en œuvre de la virtualisation<br />
d’un réseau dépend de certains aspects tels que<br />
l’investissement, la définition d’objectifs précis <strong>et</strong><br />
la compatibilité avec les matériels existants. Les<br />
proj<strong>et</strong>s de virtualisation exigent donc de bien peser<br />
le rapport coût/bénéfice, de gérer entièrement<br />
les processus <strong>et</strong> de bien tenir compte <strong>des</strong> risques<br />
éventuels pour la sécurité.<br />
• Si les bases de données à hautes capacités <strong>et</strong> performances sont <strong>des</strong> applications critiques pour<br />
l’activité, FCoE <strong>et</strong> iSCSI sont deux solutions appropriées pour améliorer le niveau de service <strong>et</strong> réduire<br />
la consommation.<br />
• Le stockage centralisé <strong>et</strong> la récupération de sinistre exigent un SAN commun : on préfèrera l’iSCSI.<br />
• Pour les réseaux existants basés sur le protocole Fibre Channel, FCoE est recommandée [5].<br />
41
4.2.4 Sélection <strong>des</strong> composants <strong>et</strong><br />
équipements<br />
La consommation <strong>des</strong> équipements réseau varie<br />
souvent avec le choix <strong>des</strong> composants <strong>et</strong> la configuration<br />
du système. Le standard de technologie<br />
(10GbE par ex.) est le facteur prédominant. La<br />
conception <strong>des</strong> puces <strong>et</strong> le degré d’intégration<br />
du système présentent la plus forte marge de<br />
manœuvre, tendance accentuée par les améliorations<br />
de performance <strong>des</strong> semi-conducteurs, qui<br />
continuent de progresser de façon exponentielle.<br />
Cela englobe les performances thermiques <strong>des</strong><br />
puces <strong>et</strong> <strong>technologies</strong> d’interconnexion, avec le<br />
problème croissant de la fiabilité. La configuration<br />
du système, c’est-à-dire le type <strong>et</strong> le nombre de<br />
ports déployés dans l’équipement, est un autre<br />
facteur. La consommation <strong>des</strong> équipements de<br />
réseau dépend enfin de l’efficacité du bloc d’alimentation<br />
<strong>et</strong> <strong>des</strong> options de gestion de l’énergie.<br />
RECOMMANDATIONS DE BONNES PRATIQUES<br />
Critères à prendre en compte pour la sélection de matériels de réseau<br />
(notamment blocs d’alimentation) efficaces<br />
• Choisir un équipement avec fonctions de gestion de l’énergie <strong>et</strong> comparer la<br />
consommation <strong>des</strong> différents matériels en mode inactif <strong>et</strong> veille.<br />
• Comparer les systèmes de différents fournisseurs en termes de rentabilité <strong>et</strong><br />
d’efficacité énergétique.<br />
• Demander aux fournisseurs les informations produits sur :<br />
■ l’efficacité énergétique globale (par ex. ECR, TEER dès sa sortie) ;<br />
■ l’efficacité <strong>et</strong> la modularité <strong>des</strong> blocs d’alimentation ;<br />
■ l’efficacité <strong>et</strong> l’extensibilité <strong>des</strong> blocs de ventilation (ventilateurs à vitesse<br />
variable, <strong>et</strong>c.).<br />
Gestion de l’énergie<br />
La variation de la consommation d’énergie <strong>des</strong><br />
équipements de réseau est liée aux pério<strong>des</strong> d’activité<br />
<strong>et</strong> d’inactivité. La différence de consommation<br />
entre une charge à 100 % <strong>et</strong> le mode inactif<br />
(avec lien établi) est généralement d’un facteur<br />
1,1 (500 W de sortie) s’est amélioré ces<br />
dernières années pour atteindre plus de 85 %,<br />
voire 90 %. Quand on sait que la consommation<br />
<strong>des</strong> gros commutateurs <strong>et</strong> routeurs core peut se<br />
mesurer en kW, on comprend qu’une amélioration<br />
même infime du rendement de conversion (1 %<br />
par ex.) peut entraîner une économie d’énergie<br />
substantielle. Le rendement n’est pas toujours indiqué<br />
dans la documentation produit.<br />
4.2.5 Commutation floor-level<br />
On distingue deux grands types de distribution de<br />
commutateurs au niveau floor ou applications : «<br />
fin de rangée » (end-of-row, EoR) <strong>et</strong> « haut de<br />
rack » (top-of-rack, ToR). Le premier correspond<br />
à une approche traditionnelle du réseautage, avec<br />
un commutateur unique dans un grand châssis<br />
supportant un ou plusieurs racks. Du point de vue<br />
de l’efficacité énergétique, le déploiement EoR<br />
présente :<br />
• l’avantage d’une commutation centralisée <strong>et</strong><br />
modulaire, plus économe qu’une solution ToR<br />
médiocre ;<br />
• l’inconvénient d’une câblerie complexe, source<br />
d’inefficacité dans les systèmes denses.<br />
Dans un déploiement ToR, un commutateur est intégré<br />
à chaque rack. C<strong>et</strong>te conception assure une<br />
faible latence <strong>et</strong> un haut débit de transmission de<br />
données. En termes d’efficacité énergétique, ce<br />
déploiement présente :<br />
42
4 Équipements de réseau<br />
48 ports 48 ports<br />
}<br />
Switch<br />
48 ports<br />
Tous les ports<br />
sont utilisés<br />
Câblage simple<br />
Rack #1 Rack #2<br />
Rack #1<br />
Switch<br />
48 ports<br />
Switch<br />
48 ports<br />
Switch<br />
48 ports<br />
10 serveurs 14 serveurs 16 serveurs 8 serveurs<br />
Rack #2 Rack #3 Rack #4<br />
}<br />
Configuration sub-optimale<br />
<strong>des</strong> serveurs<br />
Certains ports sont<br />
inutilisés<br />
Commutation ToR<br />
optimale<br />
Fig. 4.4: Commutation floor-level « haut de rack » (ToR)<br />
Déploiement ToR sub-optimal<br />
• l’avantage d’une commutation décentralisée<br />
pour les environnements de serveurs denses<br />
(consolidation E/S), ce qui réduit la câblerie. La<br />
distance réduite entre le serveur <strong>et</strong> son commutateur<br />
améliore la vitesse de transmission <strong>et</strong><br />
réduit la consommation d’énergie liée.<br />
• l’inconvénient du surdimensionnement dans un<br />
environnement moins dense (peu de serveurs<br />
par rack). La sous-utilisation <strong>des</strong> ports disponibles<br />
entraîne alors une faible efficacité énergétique.<br />
Le déploiement ToR présente donc <strong>des</strong> éco-avantages<br />
s’il est appliqué à <strong>des</strong> systèmes correctement<br />
dimensionnés.<br />
La Figure 4.4 illustre le concept du déploiement<br />
ToR <strong>et</strong> sa bonne utilisation.<br />
Pour aller plus loin<br />
Hintemann R. (2008) : Energy Efficiency in the<br />
Data centre, A Guide to the Planning, Modernization<br />
and Operation of Data centres, BITKOM, Berlin,<br />
online available:<br />
http://www.bitkom.org/de/publikationen/38337_53432.<br />
aspx<br />
EC JRC ISPRA (2011) : Best Practices for the EU<br />
Code of Conduct on Data centres<br />
European Commission (2011), EC Joint Research<br />
Centre, Ispra, online available :<br />
http://re.jrc.ec.europa.eu/energyefficiency/html/<br />
standby_initiative_data_centres.htm<br />
Juniper (2010) : Government Data centre<br />
N<strong>et</strong>work Reference Architecture, Using a High-Performance<br />
N<strong>et</strong>work Backbone to Me<strong>et</strong> the Requirements<br />
of the Modern Government Data centre<br />
Juniper (2010), Juniper N<strong>et</strong>works, Inc., Sunnyvale,<br />
available online :<br />
http://www.buyn<strong>et</strong>screen.com/us/en/local/pdf/<br />
reference-architectures/8030004-en.pdf<br />
Sources<br />
[1] Enterasys (2011) : Data centre N<strong>et</strong>working<br />
– Connectivity and Topology Design Guide; Inc Enterasys<br />
N<strong>et</strong>works, Andover.<br />
[2] Lippis (2011) : Open Industry N<strong>et</strong>work Performance<br />
& Power Test Industry N<strong>et</strong>work Performance<br />
& Power Test for Private and Public Data<br />
centre Clouds Ethern<strong>et</strong> Fabrics Evaluating 10 GbE<br />
Switches; Lippis Enterprises, Inc, Santa Clara.<br />
[3] Cisco (2008) : Converging SAN and LAN Infrastructure<br />
with Fibre Channel over Ethern<strong>et</strong> for<br />
Efficient, Cost-Effective Data centres; Intel, Santa<br />
Clara.<br />
[4] Emulex (2008) : Sheraton Case Study. Virtual<br />
Fabric for IBM BladeCentre Increases Server<br />
Bandwidth, Reduces Footprint and Enables Virtualization<br />
for High-performance Casino Applications;<br />
Emulex, Costa Mesa 2010.<br />
[5] Blade.org (2008) : Blade Platforms and<br />
N<strong>et</strong>work Convergence; Blade.org,White Paper<br />
2008.<br />
43
5 Refroidissement <strong>et</strong> alimentation <strong>des</strong><br />
datacentres <strong>et</strong> salles serveurs<br />
Andrea Rosc<strong>et</strong>ti, Politecnico di Milano, Shailendra Mudgal, Thibault Faninger, Bio Intelligence Service<br />
Le refroidissement représente jusqu’à 50 % de la consommation d’énergie totale<br />
<strong>des</strong> datacentres <strong>et</strong> salles serveurs. Il est donc essentiel de concevoir un refroidissement<br />
efficace pour les sites informatiques, quelle que soit leur taille.<br />
Ce chapitre présente plusieurs gran<strong>des</strong> options pour réduire la facture énergétique.<br />
5.1 Refroidissement <strong>des</strong> salles<br />
serveurs<br />
Les armoires à serveurs ou p<strong>et</strong>ites salles serveurs<br />
sont généralement équipées de climatiseurs de<br />
confort (systèmes CVC 1 de bureau). Les p<strong>et</strong>ites<br />
salles comportent généralement de 1 à 5 racks<br />
de serveurs, pour une puissance totale n’excédant<br />
pas 20 kW.<br />
5.1.1 Climatiseurs « split » <strong>et</strong> mobiles<br />
Fig. 5.1: Climatiseur « split » : unité murale<br />
Unité extérieure (Source: Daikin)<br />
Les p<strong>et</strong>ites salles serveurs font le plus souvent appel<br />
à <strong>des</strong> climatiseurs composés de deux unités,<br />
d’une puissance de refroidissement de 1 à 100<br />
kW. Les systèmes « split » ou DX 2 présentent plusieurs<br />
avantages :<br />
• Un coût d’investissement généralement peu<br />
élevé ;<br />
• Une grande simplicité de conception <strong>et</strong> d’installation<br />
;<br />
• Un faible encombrement au sol (unités généralement<br />
montées aux murs) ;<br />
• Une installation possible dans la quasi-totalité<br />
<strong>des</strong> situations ;<br />
• La simplicité <strong>et</strong> la rapidité de l’entr<strong>et</strong>ien <strong>et</strong> du<br />
remplacement.<br />
Il faut toutefois tenir compte de leurs inconvénients<br />
:<br />
• Une efficacité globale très réduite pour les systèmes<br />
p<strong>et</strong>its, anciens ou surdimensionnés ;<br />
• Un mauvais contrôle de l’humidité ;<br />
• Des contraintes de longueur <strong>et</strong> hauteur <strong>des</strong><br />
tuyaux reliant les unités.<br />
Il est possible d’installer un système mobile, par<br />
exemple pour prévenir la formation de zones<br />
chau<strong>des</strong>. C<strong>et</strong>te technologie présente les avantages<br />
suivants :<br />
• Très faible coût d’investissement ;<br />
• Simplicité de l’installation ;<br />
• Faible encombrement au sol ;<br />
• Simplicité <strong>et</strong> rapidité de l’entr<strong>et</strong>ien <strong>et</strong> du remplacement.<br />
1) CVC: chauffage, ventilation, climatisation<br />
2) DX: détente directe<br />
44
Elle présente aussi les inconvénients suivants :<br />
• Faible efficacité globale (les systèmes mobiles<br />
de classe A sont moins efficaces que les systèmes<br />
« split » de classe D) ;<br />
• Faible contrôle de l’humidité <strong>et</strong> de la température<br />
;<br />
• Installation possible uniquement si l’air peut<br />
être expulsé à l’extérieur.<br />
5.1.2 Mesures d’optimisation de<br />
l’efficacité énergétique<br />
Pour éviter le surdimensionnement, problème courant<br />
dans les p<strong>et</strong>ites salles serveurs, il est généralement<br />
recommandé que la puissance de refroidissement<br />
n’excède pas 120 % de la puissance <strong>des</strong><br />
systèmes informatiques installés dans les salles<br />
bien isolées.<br />
L’étiqu<strong>et</strong>age énergétique de l’UE peut servir à<br />
orienter le choix au moment de l’achat de nouveaux<br />
appareils jusqu’à 12 kW de puissance de refroidissement.<br />
On privilégiera les ratios EER 3 /SEER 4<br />
élevés <strong>et</strong> l’efficacité de classe A ou plus. Le SEER <strong>et</strong><br />
la consommation annuelle en kWh sont les deux<br />
principaux critères de comparaison. Le Tableau 5.1<br />
indique l’efficacité <strong>des</strong> meilleures <strong>technologies</strong> actuellement<br />
sur le marché.<br />
L’étiqu<strong>et</strong>age reste purement facultatif jusqu’au 1 er<br />
janvier 2013. L’ancien étiqu<strong>et</strong>age <strong>des</strong> climatiseurs<br />
(Directive 2002/31/CE) reste permis pendant c<strong>et</strong>te<br />
période de transition.<br />
Fig. 5.2: Étiqu<strong>et</strong>age énergétique <strong>des</strong> climatiseurs (Source: Règlement<br />
délégué complétant la directive 2010/30/UE du Parlement européen <strong>et</strong> du<br />
Conseil sur l’indication, par voie d’étiqu<strong>et</strong>age, de la consommation d’énergie<br />
<strong>des</strong> climatiseurs)<br />
Tab. 5.1: Valeurs de performance énergétique <strong>des</strong> meilleures <strong>technologies</strong> disponibles pour les p<strong>et</strong>its climatiseurs (
RECOMMANDATIONS DE BONNES PRATIQUES<br />
Salles serveurs existantes<br />
• Éliminer l’apport solaire, la transmission de chaleur <strong>et</strong> les pertes de ventilation vers les autres pièces/l’extérieur.<br />
• Contrôler <strong>et</strong> gérer les conditions environnementales (points de consigne) : l’air entrant dans les équipements informatiques doit être à 18-<br />
27 °C (suggestion : 24-27 °C).<br />
• Vérifier l’isolation <strong>des</strong> conduits/tuyaux (air chaud <strong>et</strong> froid/eau/liqui<strong>des</strong>).<br />
• Envisager de remplacer les composants du système de refroidissement obsolètes ou moins efficaces (comparer la classe d’efficacité <strong>des</strong><br />
systèmes existants avec les plus efficaces disponibles sur le marché).<br />
• Contrôler <strong>et</strong> vérifier l’architecture du système de refroidissement installé (par ex. la distance entre systèmes de refroidissement <strong>et</strong> les charges<br />
thermiques).<br />
• Éteindre les lumières <strong>et</strong> supprimer dans la mesure du possible les autres charges <strong>et</strong> sources de chaleur mécaniques/électriques.<br />
Salles serveurs neuves<br />
• Évaluer l’utilisation de systèmes de refroidissement de précision (afin de supprimer la chaleur sensible <strong>et</strong> d’éviter une déshumidification<br />
excessive).<br />
• Définir <strong>et</strong> évaluer les caractéristiques de la pièce <strong>et</strong> de ses équipements, en tenant compte <strong>des</strong> contraintes d’espace <strong>et</strong> de la distance entre<br />
charges <strong>et</strong> unités externes.<br />
• Éviter le recours à <strong>des</strong> unités mobiles ou à faible EER (NB : les systèmes mobiles de classe A sont moins efficaces que les systèmes split de<br />
classe D).<br />
• Comparer différents systèmes :<br />
■ choisir la classe énergétique supérieure (obligatoire pour les p<strong>et</strong>its systèmes) ;<br />
■ maximiser l’efficacité du refroidissement (SEER, voir tableau sur les meilleures <strong>technologies</strong> disponibles).<br />
• Envisager les possibilités de free cooling.<br />
5.2 Refroidissement <strong>des</strong> datacentres<br />
moyens à grands<br />
5.2.1 Généralités<br />
Le refroidissement <strong>des</strong> datacentres de taille<br />
moyenne à grande repose traditionnellement sur<br />
la ventilation. Un datacentre standard est conçu<br />
pour refroidir en moyenne 7,5-10 kW/m 2 , soit 1<br />
à 3 kW/rack. Ce chiffre a été porté à 20 kW/m 2<br />
dans les nouveaux centres, mais la densité par<br />
rack reste limitée à 4-5 kW (ne pas oublier que la<br />
capacité maximale <strong>des</strong> systèmes consolidés ou <strong>des</strong><br />
serveurs lames peut dépasser 25 kW/rack).<br />
Les équipements informatiques sont disposés en<br />
rangées, avec <strong>des</strong> entrées d’air situées du côté <strong>des</strong><br />
allées froi<strong>des</strong>. L’air froid est insufflé dans l’allée,<br />
traverse les équipements puis est expulsé vers l’allée<br />
chaude.<br />
Il convient de considérer les caractéristiques <strong>des</strong><br />
flux d’air, qui doivent de préférence aller d’avant<br />
en arrière, d’avant vers le haut ou d’avant/du haut<br />
vers l’arrière (voir source). Si <strong>des</strong> équipements<br />
ayant <strong>des</strong> conditions d’opération ou <strong>des</strong> directions<br />
de flux d’air différentes doivent être installés dans<br />
une même pièce, il faudra leur créer <strong>des</strong> espaces<br />
séparés. Si l’équipement présente <strong>des</strong> exigences<br />
d’environnement différentes, il est préférable de<br />
fournir <strong>des</strong> contrôles séparés afin d’éviter <strong>des</strong> inefficacités<br />
dues à un point de consigne trop bas ou à<br />
un mauvais contrôle du flux [1].<br />
46
5 Refroidissement <strong>et</strong> alimentation <strong>des</strong> datacentres <strong>et</strong> salles serveurs<br />
5.2.2 Contrôle de la température <strong>et</strong> de<br />
l’humidité<br />
Les datacentres doivent être conçus <strong>et</strong> opérés avec<br />
la plus grande efficacité possible compte tenu <strong>des</strong><br />
données climatiques (température au thermomètre<br />
sec 5 ). La température recommandée est comprise<br />
entre 18 <strong>et</strong> 27 °C, pour une humidité relative
5.2.3 Efficacité <strong>des</strong> composants (compresseurs,<br />
ventilateurs, centrales de traitement<br />
d’air)<br />
Les différents types d’unités de refroidissement se<br />
distinguent par leur coefficient d’efficacité énergétique<br />
(EER) 6 : celui-ci est généralement d’environ<br />
3,5 pour les systèmes à eau <strong>et</strong> 2,5 pour les systèmes<br />
à air. Le coefficient d’efficacité énergétique<br />
nominal (« EERrated ») est égal au rapport entre<br />
la puissance réfrigérante déclarée [kW] <strong>et</strong> la puissance<br />
électrique consommée nominale [kW] d’une<br />
unité produisant du froid dans <strong>des</strong> conditions nominales.<br />
Eurovent fournit <strong>des</strong> données perm<strong>et</strong>tant<br />
de comparer l’efficacité caractéristique de plusieurs<br />
systèmes <strong>et</strong> composants de refroidissement<br />
<strong>et</strong> ventilation (www.eurovent-certification.com).<br />
Les compresseurs à eau sont préférables à ceux à<br />
air <strong>et</strong> à détente directe du fait de leur plus grande<br />
efficacité thermodynamique. Il faudra évaluer la<br />
possibilité d’abaisser la température de condensation/augmenter<br />
la température d’évaporation.<br />
Réduire le delta-T entre ces températures perm<strong>et</strong><br />
de réduire le travail du cycle de refroidissement <strong>et</strong><br />
donc d’améliorer l’efficacité. Ces températures dépendent<br />
de la température de l’air d’entrée exigée<br />
(voir 5.2.2).<br />
L’efficacité <strong>des</strong> ventilateurs dépend de celle de leur<br />
moteur. Les ventilateurs à vitesse fixe consomment<br />
plus <strong>et</strong> rendent difficile la gestion de la température<br />
au sol. Les ventilateurs à vitesse variable sont<br />
particulièrement efficaces en cas de forte redondance<br />
du système de refroidissement ou de fortes<br />
variations de la charge. Les ventilateurs peuvent<br />
être contrôlés par la température de l’air de r<strong>et</strong>our<br />
ou la pression de l’air froid.<br />
6) Coefficient d’efficacité énergétique : refroidissement / consommation électrique pour un<br />
point d’opération (température intérieure <strong>et</strong> extérieure, hygrométrie) donné.<br />
5.2.4 Free cooling<br />
Le free cooling perm<strong>et</strong> de bénéficier d’un refroidissement<br />
« gratuit » quand la température de<br />
l’air extérieur ou de l’eau est inférieure à celle<br />
exigée à l’intérieur. Plus la température extérieure<br />
moyenne est basse sur l’année, plus grands sont<br />
le potentiel de free cooling <strong>et</strong> son niveau d’efficacité.<br />
Des économiseurs à eau ou air peuvent<br />
apporter un refroidissement supplémentaire. L’efficacité<br />
énergétique <strong>et</strong> le r<strong>et</strong>our sur investissement<br />
dépendent <strong>des</strong> conditions climatiques. Le refroidissement<br />
peut passer en free cooling intégral<br />
si l’écart entre la température de r<strong>et</strong>our de l’eau<br />
de refroidissement <strong>et</strong> la température ambiante<br />
est supérieur à environ 11 K. Plus la température<br />
d’entrée est élevée <strong>et</strong> plus les économies d’énergie<br />
seront importantes. Choisir une température<br />
ambiante plus élevée pour son système de refroidissement<br />
perm<strong>et</strong> de recourir au free cooling plus<br />
longtemps dans l’année. L’implémentation du free<br />
cooling exige une étude de faisabilité <strong>et</strong> une évaluation<br />
économique. On pourra se reporter à l’outil<br />
d’évaluation conçu par The Green Grid.<br />
Pour <strong>des</strong> informations plus spécifiques sur le free<br />
cooling, se reporter aux suggestions de lecture.<br />
Transformateur<br />
réseau public<br />
Transformateurs surdimensionnés<br />
Inefficace, pertes importantes<br />
Générateur de réserve<br />
Distribution électrique<br />
Onduleurs<br />
(UPS)<br />
Faible capacité<br />
Topologie inefficace<br />
Faible facteur de puissance<br />
d’entrée<br />
Fort facteur de courant<br />
d’entrée<br />
Unités de distribution<br />
d’alimentation<br />
(PDU)<br />
Transformateurs inefficaces<br />
Utilisation excessive<br />
Charge informatique<br />
Faible facteur de puissance<br />
Courant élevé<br />
Taux de distorsion harmonique<br />
Faible utilisation<br />
Autres charges (refroidissement, éclairage, <strong>et</strong>c.)<br />
Surdimensionné<br />
Redondance excessive<br />
Charge thermique excessive<br />
Pertes de charge dues aux<br />
câbles (typ.)<br />
Éclairage<br />
Espace au sol non utilisé<br />
Absence de contrôle de<br />
l’éclairage<br />
Refroidissement<br />
Hautes températures dans la<br />
zone serveur<br />
Fig. 5.3: Composants de l’infrastructure électrique d’un datacentre avec leurs sources d’inefficacité (ASHRAE: Save Energy Now Presentation<br />
Series, 2009).<br />
48
5 Refroidissement <strong>et</strong> alimentation <strong>des</strong> datacentres <strong>et</strong> salles serveurs<br />
5.2.5 Refroidissement au niveau du rack/de<br />
la rangée<br />
Avec <strong>des</strong> densités énergétiques excédant 25 kW<br />
par rack sur les équipements modernes, le refroidissement<br />
traditionnel par climatiseurs ne suffit<br />
plus à éviter la formation de zones chau<strong>des</strong> (voir<br />
sources).<br />
5.3 Alimentation <strong>et</strong> onduleurs<br />
dans les datacentres<br />
Le système d’alimentation électrique d’un datacentre<br />
a pour tâche essentielle de transformer le<br />
courant alternatif (CA) en courant continu (CC).<br />
Les pertes dues à c<strong>et</strong>te transformation varient en<br />
fonction du degré de charge. L’efficacité la plus<br />
importante est généralement atteinte entre 80 <strong>et</strong><br />
90 % de la charge totale ; elle décroît sensiblement<br />
en-deçà de 50 %.<br />
La Figure 5.3 illustre le schéma électrique d’un datacentre.<br />
Les sources traditionnelles d’inefficacité<br />
sont indiquées pour chaque composant.<br />
Les onduleurs (UPS) sont souvent synonymes<br />
d’importantes économies potentielles d’énergie.<br />
L’UPS est opéré en continu pour fournir une alimentation<br />
de secours <strong>et</strong> un conditionnement de<br />
puissance pour les équipements informatiques <strong>et</strong><br />
certains éléments d’infrastructure.<br />
Au-delà de sa fonction première — assurer l’alimentation<br />
à court terme en cas de défaillance du<br />
réseau — l’UPS fournit aussi différentes options<br />
pour remédier aux problèmes de puissance. On<br />
distingue trois gran<strong>des</strong> topologies disponibles en<br />
fonction de l’application souhaitée :<br />
• Attente passive : ce mode dépendant de la<br />
puissance <strong>et</strong> de la fréquence (VFD) ne protège<br />
que <strong>des</strong> défaillances d’alimentation (coupures<br />
de courant, variations de tension). En situation<br />
normale, l’UPS n’a aucune interaction avec le<br />
réseau. Lorsque la tension alternative du réseau<br />
d’entrée est hors <strong>des</strong> tolérances spécifiées,<br />
l’onduleur <strong>et</strong> la batterie prennent le relais pour<br />
assurer la permanence de l’alimentation de la<br />
charge. C<strong>et</strong>te topologie est surtout répandue<br />
dans les applications à faible puissance.<br />
• Interaction avec le réseau : ce mode indépendant<br />
de la tension (VI) protège la charge comme<br />
l’attente passive, mais régule la fréquence à un<br />
niveau optimal. Il assure notamment une protection<br />
contre les variations de tension d’entrée<br />
(surtensions, sous-tensions) à long terme. C<strong>et</strong>te<br />
topologie est rarement utilisée au-delà de 5000<br />
VA [7].<br />
• Double conversion : ce mode indépendant de<br />
la tension <strong>et</strong> de la fréquence (VFI) protège la<br />
charge <strong>des</strong> variations indésirables de la tension<br />
<strong>et</strong> de la fréquence sans entamer les réserves<br />
d’énergie stockée. Il assure une alimentation<br />
continue de la puissance totale en régulant<br />
l’électricité avant qu’elle n’atteigne la charge.<br />
C<strong>et</strong>te topologie est rare pour les charges inférieures<br />
à 750 VA.<br />
Chacune de ces topologies présente ses avantages<br />
<strong>et</strong> inconvénients. Sur les puissances comprises<br />
entre 750 <strong>et</strong> 5000 VA, le mode interactif<br />
tend à combiner longévité <strong>et</strong> fiabilité accrues avec<br />
un coût total de possession réduit, mais le mode<br />
double conversion est moins encombrant <strong>et</strong> peut<br />
réguler la fréquence de sortie. Les onduleurs offrent<br />
aussi plusieurs mécanismes de stockage<br />
d’énergie pour assurer une alimentation continue<br />
en cas de coupure :<br />
• batteries d’accumulateurs, qui stockent <strong>et</strong> libèrent<br />
l’énergie électrique par conversion de<br />
l’énergie chimique ;<br />
• volant d’inertie pour un stockage à court terme,<br />
sous forme d’énergie mécanique.<br />
49
Tab. 5.2: Efficacité caractéristique <strong>des</strong> différentes topologies d’onduleurs<br />
Topologie Efficacité à 25%<br />
de charge<br />
Efficacité à 50%<br />
de charge<br />
Efficacité à 75%<br />
de charge<br />
Efficacité à<br />
100% de charge<br />
Double conversion 81–93% 85–94% 86–95% 86–95%<br />
Interaction avec le<br />
réseau<br />
Tab. 5.3: Efficacité moyenne minimum exigée pour les onduleurs à CA de sortie proposée<br />
par EnergyStar (P = puissance réelle en watts (W), ln = logarithme népérien)<br />
Efficacité moyenne minimum (EffAVG_MIN)<br />
Classe d’onduleur<br />
Puissance de<br />
sortie<br />
n.a. 97–98% 98% 98%<br />
Dépendance au courant d’entrée<br />
(selon méthodologie ENERGY STAR)<br />
VFD VI VFI<br />
Datacentre P > 10 kW 0,97 0,96 0,0058 x ln (P) + 0,86<br />
Deux options existent pour délivrer l’énergie à la<br />
charge :<br />
• UPS statique : pas de pièces mobiles (en dehors<br />
<strong>des</strong> ventilateurs de refroidissement). Le CA est<br />
converti en CC (redresseur pour le stockage au<br />
niveau <strong>des</strong> batteries pour assurer la continuité)<br />
puis à nouveau en CA pour alimenter les serveurs.<br />
• UPS dynamique : le courant est transféré via un<br />
moteur/générateur <strong>et</strong> <strong>des</strong>tiné à <strong>des</strong> applications<br />
devant traverser un court épisode d’anomalie<br />
électrique (coupure, baisse de tension, <strong>et</strong>c.).<br />
Les pertes d’énergie <strong>des</strong> onduleurs sont dues à la<br />
conversion du courant électrique (au niveau du<br />
chargeur <strong>et</strong> de l’onduleur), de la charge de la batterie<br />
ou du système d’inertie (volant). Ces pertes<br />
— <strong>et</strong> la chaleur qui en résulte — sont plus importantes<br />
en mode double conversion (redresseur,<br />
onduleur, filtre <strong>et</strong> interconnexion) qu’en mode interaction<br />
<strong>et</strong> attente passive (filtre, transformateur<br />
<strong>et</strong> interconnexion). Les UPS à sortie en CC (ou<br />
redresseurs) <strong>et</strong> les UPS à sortie CA/CC combinée<br />
peuvent servir pour certaines applications <strong>et</strong> éviter<br />
les pertes au niveau de l’onduleur <strong>et</strong> du redresseur.<br />
RECOMMANDATIONS DE BONNES PRATIQUES<br />
Critères pour les nouvelles installations<br />
• Bien évaluer ses besoins <strong>et</strong> la taille <strong>des</strong> onduleurs (UPS multiples ou modulaires, solutions<br />
évolutives) : autonomie, coût, taille, nombre de sorties, <strong>et</strong>c.<br />
• Analyser la technologie de l’onduleur <strong>et</strong> son efficacité. Prendre en compte l’efficacité à charge<br />
partielle.<br />
• Sélectionner la bonne topologie.<br />
• Sélectionner <strong>des</strong> onduleurs conformes au « Code of Conduct » européen ou au programme<br />
Energy Star.<br />
Critère pour l’optimisation<br />
• Analyser la technologie <strong>et</strong> son efficacité.<br />
• Évaluer les options <strong>et</strong> les avantages du remplacement <strong>des</strong> vieux équipements.<br />
• Évaluer les coûts <strong>et</strong> avantages de la redondance.<br />
50
5 Refroidissement <strong>et</strong> alimentation <strong>des</strong> datacentres <strong>et</strong> salles serveurs<br />
La plupart <strong>des</strong> fabricants d’onduleurs mentionnent<br />
une efficacité énergétique pour une charge<br />
de 100 %. Or l’efficacité baisse de façon significative<br />
en conditions de charge partielle. La plupart<br />
<strong>des</strong> onduleurs tournent à 80 % <strong>et</strong> en cas de redondance,<br />
la charge peut chuter à 50 % <strong>et</strong> moins.<br />
Dans ce cas, les onduleurs modernes ou anciens<br />
sont moins efficaces énergétiquement, avec une<br />
chute significative pour les charges inférieures à<br />
20 %. La bonne pratique consiste à adapter les<br />
onduleurs au plus près <strong>des</strong> charges <strong>des</strong> datacentres.<br />
Des solutions évolutives perm<strong>et</strong>tent un<br />
dimensionnement efficace de leur capacité.<br />
Le « Code de Conduite » européen (nouvelle édition<br />
2011) définit <strong>des</strong> seuils planchers d’efficacité<br />
énergétique pour les onduleurs, tout comme le<br />
programme Energy Star (draft 2011). De nouvelles<br />
valeurs pour les onduleurs à sortie CA <strong>et</strong> CC sont<br />
en cours d’élaboration (voir Tableau 5.3). Energy<br />
Star envisage aussi de faire figurer <strong>des</strong> exigences<br />
pour les onduleurs multi-mo<strong>des</strong>, pouvant alterner<br />
leur fonctionnement entre les différentes topologies<br />
présentées (VI, VFI, VFD). Ces onduleurs peuvent<br />
adopter un mode plus efficace, mais moins<br />
protecteur, puis passer en mode moins efficace<br />
mais plus protecteur quand la situation l’exige,<br />
d’où un important potentiel d’économie d’énergie.<br />
Pour aller plus loin<br />
ASHRAE (2011) : Thermal Guidelines for Data<br />
Processing Environments – Expanded Data centre<br />
Classes and Usage Guidance – ASHRAE, 2011,<br />
online available at: http://tc99.ashra<strong>et</strong>cs.<br />
org/documents/ASHRAE%20Whitepaper%20-%20<br />
2011%20Thermal%20Guidelines%20for%20Data%20<br />
Processing%20Environments.pdf<br />
EU Code of conduct for data centres (2009) :<br />
Full list of identified best practice options for data<br />
centre operators as referenced in the EU Code of<br />
Conduct:<br />
http://re.jrc.ec.europa.eu/energyefficiency/pdf/CoC/<br />
Best%20Practices%20v3.0.1.pdf<br />
The Green Grid (2011) : Evaluation tool for free<br />
cooling.<br />
http://cooling.thegreengrid.org/europe/WEB_APP/<br />
calc_index_EU.html<br />
ENERGY STAR (2011) : UPS efficiency<br />
http://www.energystar.gov/index.cfmc=new_specs.<br />
uninterruptible_power_supplies<br />
The Green Grid (2011) : Evaluation tool for<br />
power supply systems<br />
http://estimator.thegreengrid.org/pcee<br />
High Performance Buildings : Data centres<br />
Uninterruptible Power Supplies (UPS)<br />
http://hightech.lbl.gov/documents/UPS/Final_UPS_<br />
Report.pdf<br />
EU CODE of CONDUCT (2011) : EU code of<br />
conduct on Energy Efficiency and Quality of AC<br />
Uninterruptible Power Systems (UPS):<br />
http://re.jrc.ec.europa.eu/energyefficiency/html/<br />
standby_initiative.htm<br />
Sources<br />
[1] ASHRAE : Save Energy Now Presentation<br />
Series, 2009.<br />
[2] Niemann, J. <strong>et</strong> al. (2010) : Hot-Aisle vs.<br />
Cold-Aisle Containment for Data centres; APC by<br />
Schneider Electric White Paper 135, Revision 1.<br />
[3] Rasmussen, N. (2010) : An improved architecture<br />
for High-efficiency High-density data centres;<br />
APC by Schneider Electric White Paper 126,<br />
Revision 1.<br />
[4] Blough, B. (2011) : Qualitative analysis of<br />
cooling architectures for data centres; The Green<br />
Grid White Paper #30.<br />
[5] Bouley, D. and Brey, T. (2009) : Fundamentals<br />
of data centre power and cooling efficiency<br />
zones; The Green Grid White Paper #21.<br />
[6] Rasmussen, N. (2011) : Calculating Total<br />
Cooling Requirements for Data centres; APC by<br />
Schneider Electric White Paper 25, Revision 3.<br />
[7] ENERGY STAR Uninterruptible Power<br />
Supply Specification Framework (2010) :<br />
Available at:<br />
www.energystar.gov/ia/partners/prod_development/<br />
new_specs/downloads/uninterruptible_power_supplies/<br />
UPS_Framework_Document.pdf<br />
[8] Ton, M. and Fortenbury B. (2008) : High<br />
Performance Buildings: Data centres - Uninterruptible<br />
Power Supplies. Available at<br />
http://hightech.lbl.gov/documents/UPS/Final_UPS_<br />
Report.pdf<br />
[9] Samstad, J. and Hoff M. : Technical Comparison<br />
of On-line vs. Line-interactive UPS <strong>des</strong>igns;<br />
APC White Paper 79. Available at<br />
http://www.apcdistributors.com/white-papers/Power/<br />
WP-79%20Technical%20Comparison%20of%20Online%20vs.%20Line-interactive%20UPS%20<strong>des</strong>igns.pdf<br />
51
floorfour Agentur für Kommunikation<br />
Partenaires<br />
Soutenu par<br />
Contact : Agence autrichienne de l’Energie | Dr. Bernd Schäppi | Mariahilferstrasse 136 | A-1150 Vienna<br />
Tel +43 1 586 15 24 | bernd.schaeppi@energyagency.at | www.efficient-datacenters.eu<br />
Contact France : BIO Intelligence Service | Shailendra Mudgal | 20-22 Villa Deshayes | 75014 Paris<br />
Tel +33 1 53 90 11 80 | sm@biois.com