Pour sa seconde édition le 4 février
dernier, le Green Grid a annoncé par l'intermédiaire
de Rob Bernard, Chief Sustainability Strategist à Microsoft, le
lancement de nouveaux programmes, outils et guides afin d'améliorer
l'efficacité des centres de donnée (data center) à
l'échelle mondiale.
|
La firme de conseil McKinsey & ont rapporté
que les 44 millions de serveurs dans le monde consomme 0.5% de l'électricité
mondiale et produit 0.2% des émissions de carbone soit 80 mégatonnes
par an l'équivalent de ce que rejette l'Argentine ou les Pays Bas.
On comprend alors l'inquiétude des principaux acteurs du secteur
qui tentent par tous les moyens de sensibiliser les utilisateurs, d'optimiser
les outils et les processus, afin de réduire à la fois leur
empreinte écologique, mais aussi le coût de leurs consommations
énergétiques. Les principales conclusions présentées
lors de cette seconde édition du Green Grid concernent autant les
comportements que les solutions techniques. Ainsi, près de 60%
des utilisateurs reconnaîtraient ne pas éteindre leur poste
de travail tous les soirs. Pourtant, selon l'édition 2007 du
PC Energy Report, le simple fait d'éteindre les ordinateurs chaque
nuit pourrait permettre à une entreprise disposant d'un parc de
10.000 PC d'économiser plus de 165.000$ par an.
Du côté des solutions techniques plusieurs pistes sont envisagées. La première est le concept de virtualisation qui permettrait de faire passer le taux d'utilisation des serveurs de 20% en moyenne aujourd'hui à près de 90%. Grâce à ce concept, un serveur peut faire tourner différents systèmes d'exploitation ou différents logiciels, en faisant abstraction de ses particularités "physiques" et donc en optimisant ses capacités "logiques". Cela signifie également qu'un centre de données peut réduire le nombre de ses machines. Chaque serveur virtualisé permettrait ainsi d'économiser environ 4 tonnes de CO2, selon des chiffres VMware cités par Dotgreen, spécialisé dans ce domaine. D'ici à la fin 2010, les grandes entreprises devraient avoir virtualisé au moins 35% de leur infrastructure serveur et stockage et 20% de leurs postes de travail. Une autre voie de recherche est l'amélioration de la gestion de la puissance fournie. La puissance fournie est en effet calibrée sur la somme des pics maximum de consommation de chaque serveur. Mais pour le cas d'un grand nombre de serveurs, il pourrait être astucieux de calibrer sur la moyenne de consommation totale des serveurs car il est peu probable que le pic de maximum soit atteint pour chaque serveur en même temps. Ceci selon Microsoft pourrait permettre d'ajouter 30 à 50% de serveurs supplémentaires pour la même consommation d'énergie. Ceci implique en contre partie des coûts de surveillance supplémentaires en cas de trop forte demande en énergie. D'autres directions de recherche ne portent pas sur l'amélioration du fonctionnement des serveurs mais sur les systèmes de maintenance. Par exemple l'énergie consommée par les systèmes de refroidissements actuels pourraient être réduits de 25 à 40% en utilisant de nouveaux systèmes appelés par Hewlett Pachard's "smart cooling" (refroidissement intelligent). Ils permettraient de laisser les centres de données tourner à l'air ambiant soit 27°C en injectant directement de l'air frais dans les serveurs au lieu d'entretenir une climatisation globale du centre à une température de 13°C . Toujours dans l'idée d'optimiser les systèmes extérieurs aux serveurs, IBM, HP, Sun Microsystems, Rackable Systems, and Verari Systems projettent de créer des modules incluant chacun un système de refroidissement, une alimentation et une série de serveurs. Ces modules seraient capables de supporter 3.000 serveurs. Outre le gain en espace, ces modules permettent une grande flexibilité d'une part car il suffirait de les déployer selon le besoin et d'autre part car il serait très facile de les déplacer afin de les réparer ou les améliorer. Enfin d'autres projets plus ambitieux proposés notamment par Google consisteraient à construire des centres de données dans des lieux naturellement froids. Il serait ainsi question de construire un centre de donnée en mer au large de la Californie, auto alimenté par l'énergie des vagues ou bien alors en Sibérie; Mais pour le moment ces projets sont encore dans les cartons. Les autres programmes lancés par le Green Grid portent sur des nouveaux outils d'éducation et la publication d'articles d'information. Pour ses membres le Green Grid lancera "The Green Grid Academy" un ensemble de documents de formation qui pourra aider les utilisateurs à mieux comprendre comment déployer les standards industriels de mesure comme le PUE, DCE, DCP. Le contenu est attendu pour être disponible à partir de mi 2009. Quant aux publications d'articles elles sont déjà disponibles et traitent par exemple de 8 méthodes pour mesurer l'efficacité des opérations dans les centres données, l'objectif étant de récupérer les avis sur la méthode la plus appropriée. Les articles sont disponibles à l'adresse: http://www.thegreengrid.org/library-and-tools.aspx |