Utilisateur:Vincent.vidal/Brouillon

Une page de Wikipédia, l'encyclopédie libre.

Le Green Cloud Computing, abrégé en Green Cloud est le fait de réduire l'empreinte environnementale du Cloud Computing. Celle-ci prend en compte la consommation énergétique, mais aussi les déchets matériels, les types de matériaux utilisés et l'économie de toutes autres ressources rares (électricité, eau, etc...). Les solutions mises en place par les data-centers sont a la fois matérielles (processeurs moins gourmand en énergie, bâtiments plus performant, évacuation de la chaleur, etc...) mais aussi logicielles (algorithme de réduction de consommation, utilisation de la virtualisation, etc...). Aujourd’hui le Green Cloud est devenu un outil marketing, à la fois pour les entreprises l'utilisant mais aussi pour les data-centers voulant se démarquer de la concurrence.

Le contexte[modifier | modifier le code]

L’utilisation du cloud computing se généralise. Les data centers ont des besoins en énergie croissants pour leur alimentation et leur refroidissement. En 2012, pour 1$ dépensé en hardware il y avait 1$ pour dépensé pour l'alimenter et le refroidir[1]. En 2008, les data centers émettaient 116 millions de tonnes de carbone, c'est plus que les émissions totales du Nigéria[2].

Réduire l’énergie a donc un impact économique mais aussi un impact écologique. Avec cette prise de conscience, il y a une demande de plus en plus importante pour des produits et des services propres[réf. nécessaire]. Le green cloud computing est donc apparu avec des initiatives pour réduire la consommation énergétique des data centers et leurs émissions de CO2. De tels efforts sont devenus des outils marketing importants[3].

Le défi du green cloud computing est donc de minimiser l'usage des ressources et de continuer à satisfaire des exigences de qualité de services et de robustesse[4].

Définition[modifier | modifier le code]

Le green cloud est le fait de maximiser l'usage efficace des ressources informatiques pour en minimiser l'empreinte environnementale. Cela inclus le contrôle des types matériaux, de l’énergie, de l'eau, et autres ressources rares, mais aussi la limitation des déchets électroniques depuis la fabrication jusqu'au recyclage des composants.[5]

Les méthodes de calcul de la consommation[modifier | modifier le code]

Calcul de la consommation électrique : le PUE[modifier | modifier le code]

Le PUE (Power Usage Effectiveness) est une métrique largement utilisée pour calculer la consommation électrique, c'est le rapport entre la consommation énergétique totale de l'infrastructure et la consommation des équipements informatique (processeurs, mémoires, stockage...) :

[6].

Cette méthode largement utilisée ne doit cependant pas servir à comparer deux data center car la façon de prendre ces mesures n'est pas standardisée et peut varier selon ce qui est pris en compte, en particulier pour les bâtiments qui ne sont pas dédiés au data center (ressource énergétiques partagées). Elle sert uniquement à prendre deux mesures dans le temps pour estimer l'impact d'une modification[7].

Calcul des émissions de C02 : le CUE[modifier | modifier le code]

Le CUE (Carbon Usage Effectiveness) calcule la quantité de CO2 émis par KWh utilisé. Cette valeur dépend de la technologie utilisée pour produire l’électricité. Si cette énergie n'est pas produite par le data center, il faut prendre en compte l'ensemble des technologies utilisées par la pays pour fournir son électricité. Cette valeur varie selon l'heure de la journée ainsi que la periode de l'année, ces variations sont aussi à prendre en compte dans le calcul[8].

.

Coefficient d’énergie renouvelables[modifier | modifier le code]

Pour déterminer l'impact environnemental d'un data center, on utilise le coefficient d'énergie renouvelables :

C'est cette métrique qui est utilisée depuis 2012 pour estimer l'impact environnemental des grilles de calcul[9].

Autres indicateurs mathématiques[modifier | modifier le code]

D'autres indicateurs existent pour calculer l’efficacité énergétique d'un data center [10]:

  • Data Center infrastructure Effecticiency : .
  • Thermal Design Power : Le TDP est la quantité maximale qu'un composant peut utilisé en réalité.
  • Performance par Watt : Quantifie la capacité de calcul maximale d'un processeur par Watt utilisé. Ce marqueur doit être le plus élevé possible.
  • Compute Power Effeciency : En plus de la performance par Watt, le CPE prend en compte la consommation hors temps de calcul ainsi que le pourcentage d'utilisation de ces composants : .
  • Energy Reuse Factor : Calcul la quantité d’énergie réutilisée dans les data centers :
  • Water Usage Effectiveness : Mesure la quantité d'eau consommée par un data center :

L'importance de la consommation du réseaux[modifier | modifier le code]

Cependant, plupart de ces indicateurs ne prennent pas en compte la consommation énergétique des réseaux car ils sont rarement à la charge du data center. Or cette étude[11] a démontré que la consommation du réseau était aussi significative que celle du calcul et que la rentabilité du cloud en terme d’énergie baissait de façon importante quand les connexions réseaux augmentent (nombreux accès à de petits fichiers).

Les solutions[modifier | modifier le code]

Le logiciel[modifier | modifier le code]

Virtualisation[modifier | modifier le code]

Les machines virtuelles sont essentielles de l'architecture des data center, notamment grâce à leur capacité d'isolation, de consolidation et de migration. En plus de cela, elles permettent aux data-centers de fournir aux utilisateurs des solutions sécurisées, flexibles et efficaces. Cependant, certaines opérations sur ces machines virtuelles peuvent être coûteuses en énergie, c'est le cas des migrations.

Les migrations consistent à transférer des machines virtuelles d'une machine physique à une autre. Si elle sont coûteuses en énergie, elles permettent d'éteindre les serveurs peu utilisés d'où un baisse de la consommation d'énergie et de consolider la charge de travail.[12]

R.Karthikeyan et al. suggèrent un algorithme qui permet ces migrations en minimisant leur nombre ainsi que le nombre de nœuds utilisés. Celui-ci se déroule en trois étapes :

Étape 1 : Trier les nœuds en se basant sur la charge des Vms en ordre décroissant.

Étape 2 : Les machines virtuelles du dernier nœud sont sélectionnées comme candidates pour une migration et elles sont aussi triées dans un ordre décroissant de poids.

Étape 3 : Nous essayons de les allouer une par une sur le premier nœud et si cela est un échec sur le second nœud...etc

Equilibrage[modifier | modifier le code]

La plupart des méthodes d'économie d'énergie dans les data-centers sont basées sur la consolidation. Voici une méthode d'équilibrage basée sur l'exemple des colonies de fourmis. Le « Ant colony Optimisation » (ACO) est une méta-heuristique apparue la première fois pour solutionner le problème du « Traveling salesman » (TSP). Il est basé sur le comportement de recherche de nourriture des fourmis ; elles trouvent leur chemin grâce aux phéromones, une substance chimique qu'elles déposent sur leur chemin et qui s'évapore au bout d'un certain temps.[13]

Supposons que toutes les machines physiques aient la même capacité. De plus ,l'algorithme nécessite que l'on connaisse les charges de travail et les ressources associées.

Dans cet algorithme, chaque fourmi reçoit tous les éléments ( machines virtuelles), vont sur une machine physique et commencent à assigner les éléments aux machines physiques. Il se réalise par l'utilisation d'une décision probabiliste qui décrit le désir pour une fourmi de choisir tel ou tel chemin en fonction de la concentration de phéromones. La nature stochastique de l'algorithme permet aux fourmis d'explorer un grand nombre de solutions potentielles et de choisir les meilleurs placements qu'un algorithme glouton. Avec cet algorithme, on éconimise près de 1,1 % d'énergie supplémentaire.[14]

Le matériel[modifier | modifier le code]

Le refroidissement[modifier | modifier le code]

Le refroidissement des data centers peut représenter plus de 45% de leur consommation énergétique[15]. Aujourd'hui le refroidissement à air est le plus répandu[16], cependant cette technique est très peu efficace car le refroidissement par air conditionné a tendance à trop refroidir la pièce et pas assez les composants. De plus l'air projeté de bas en haut dans une armoire refroidira efficacement le bas et moins efficacement le haut[17].

Il existe une autre méthode, le Watercooling (« refroidissement à eau » en français). Ainsi les composants sont directement refroidis par des liquides ce qui évite le gaspillage de refroidir la pièce. Celle ci permet de réduire la consommation énergétique consacrée au refroidissement de 44% à 53% par rapport au refroidissement à air [18].

[19]

Le recyclage de la chaleur[modifier | modifier le code]

Cependant, le refroidissement à eau pose un autre problème, en effet une fois l'eau chauffée par le data center, celle-ci ne peut être reversée dans la nature, elle doit d'abord être refroidie, cela ne fait que déplacer le problème.

Une solution est de trouver une utilité à cette source de chaleur. Par exemple, IBM a produit un super-calculateur dont l'eau du refroidissement est réutilisée pour chauffer le bâtiment. Cette solution permet d'avoir une capacité de calcul de 6 Teraflops pour une consommation electrique équivalente à 450 Megaflops. Ce système permet de réduire de 40% la consommation électrique du refroidissement par rapport à un refroidissement à eau, l’empreinte environnementale du bâtiment est réduite de 80%.[20].

La structure des bâtiments[modifier | modifier le code]

Le problème du refroidissement peut être envisagé dès la construction des bâtiments qui abritent les serveurs. En effet, à l'origine les data centers ont été construit comme des bâtiments résidentiels classique. Ils ne sont pas fait pour dissiper la chaleur mais pour la conserver à l'intérieur [21].

Il faudrait qu'en hiver les murs laissent entrer le froid extérieur, et qu'en été ils ne laissent pas entrer la chaleur. Une étude partant de cette idée a été réalisée par France Télécom. Ils ont analysé les différents matériaux utilisés dans la construction des bâtiments. Ils ont mis en place un matériau à changement de phase (thermique) qui change d'état au dessus de 28 degrés. Il est donc capable de s'adapter à la température extérieure. L'expérience a prouvé que cette technique pouvait faire diminuer la température de 10 degrés au sein du data center[22].

La consommation des composants[modifier | modifier le code]

Au niveau des processeurs, plusieurs techniques existent pour réduire leur consommation en énergie[23] :

  • Adapter les techniques de réductions de consommation des processeurs mobiles aux processeurs des serveurs.
  • Utiliser le clock gating qui permet d’éteindre l’horloge d'un bloc logique quand il n'est pas actif. Car la consommation d'un data center qui ne travaille reste égale à 60% de sa consommation maximale[24].
  • Utiliser le Dynamic voltage scaling qui permet d'augmenter ou réduire le voltage d'un composant selon les circonstances

Pour le stockage des données, l'utilisation de SSD permet de réduire le besoin en refroidissement ainsi que le déchets électroniques grâce à l'absence de pièces mécaniques réduisant les pannes[25].

L'aspect marketing[modifier | modifier le code]

Avec les impacts du réchauffement climatique, les entreprises sont de plus en plus forcées de réduire leur empreinte environnementale pour améliorer leur image. L'outil informatique est souvent en première ligne lors de ces changements.

Les Green SLA[modifier | modifier le code]

Les SLA («Service-Level Agreement») sont des contrats qui définissent la qualité de service requise par un client pour un service. Les Green SLA sont un moyen pour un client d'exiger que le service demandé respecte un certain niveau de qualités environnementales.

Ces green SLA permettent à un fournisseur de cloud de ne pas fournir uniquement des services basés sur des énergies vertes, mais seulement en fonction des demandes des clients. Ainsi les surcoûts sont supportés uniquement par les clients soucieux de réduire l'impact environnementale de leurs services[26].

Références[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • (en) Jaureguialzo et Chloride Emerson, « The Green Grid metric for evaluating the energy efficiency in DC (Data Center). Measurement method using the power demand », Telecommunications Energy Conference (INTELEC), 2011 IEEE 33rd International, Amsterdam,‎ 9-13 octobre 2011 (ISBN 978-1-4577-1248-7, DOI 10.1109/INTLEC.2011.6099718).
  • (en) Jayant Baliga, Robert W. A. Ayre, Kerry Hinton et Rodney S. Tucker, « Green Cloud Computing: Balancing Energy in Processing, Storage, and Transport », Proceedings of the IEEE,‎ (ISSN 0018-9219, DOI 10.1109/JPROC.2010.2060451).
  • (en) Eugen Feller, Louis Rilling et Christine Morin, « Energy-Aware Ant Colony Based Workload Placement in Clouds », Proceeding GRID '11 Proceedings of the 2011 IEEE/ACM 12th International Conference on Grid Computing,‎ (ISBN 978-0-7695-4572-1, DOI 10.1109/Grid.2011.13).
  • (en) John Lamb, « Green IT and use of private cloud computing in South Africa », Emerging Technologies for a Smarter World (CEWIT), 2011 8th International Conference & Expo on,‎ 2-3 nov. 2011 (ISBN 978-1-4577-1590-7, DOI 10.1109/CEWIT.2011.6135875).
  • (en) Tridib Mukherjee, Koustuv Dasgupta, Sujit Gujar, Gueyoung Jung et Haengju Lee, « An economic model for green cloud », Proceedings of the 10th International Workshop on Middleware for Grids, Clouds and e-Science,‎ (ISBN 978-1-4503-1608-8, DOI 10.1145/2405136.2405141).
  • (en) R.Karthikeyan et P.Chitra, « Novel heuristics energy efficiency approach for cloud data center », Advanced Communication Control and Computing Technologies (ICACCCT), 2012 IEEE International Conference on,‎ 23-25 aug. 2012 (ISBN 978-1-4673-2045-0, DOI 10.1109/ICACCCT.2012.6320771).
  • (en) Haque, M.E., Kien Le, Goiri, I., Bianchini, R. et Nguyen, T.D., « Providing green SLAs in High Performance Computing clouds », Green Computing Conference (IGCC), 2013 International,‎ 27-29 june 2013 (DOI 10.1109/IGCC.2013.6604503).
  • (en) Yamini, B. et Selvi, D.V., « Cloud virtualization: A potential way to reduce global warming », Recent Advances in Space Technology Services and Climate Change (RSTSCC), 2010,‎ 13-15 nov. 2010 (ISBN 978-1-4244-9184-1, DOI 10.1109/RSTSCC.2010.5712798).
  • (en) Iyengar, M. , David, M. , Parida, P. , Kamath, V. , Kochuparambil, B. , Graybill, D. , Schultz, M. , Gaynes, M. , Simons, R. , Schmidt, R. , Chainer, T., « Extreme energy efficiency using water cooled servers inside a chiller-less data center », Thermal and Thermomechanical Phenomena in Electronic Systems (ITherm), 2012 13th IEEE Intersociety Conference on,‎ may 30 2012-june 1 2012 (ISBN 978-1-4244-9531-3, DOI 10.1109/ITHERM.2012.6231424).
  • (en) Ouchi, M. ; Abe, Y. ; Fukagaya, M. ; Ohta, H. ; Shinmoto, Y. ; Sato, M. ; Iimura, K., « Thermal management systems for data centers with liquid cooling technique of CPU », Thermal and Thermomechanical Phenomena in Electronic Systems (ITherm), 2012 13th IEEE Intersociety Conference on,‎ may 30 2012-june 1 2012 (ISBN 978-1-4244-9531-3, DOI 10.1109/ITHERM.2012.6231507).
  • (en) Jain, A. ; Mishra, M. ; Peddoju, S.K. ; Jain, N., « Energy efficient computing- Green cloud computing », Energy Efficient Technologies for Sustainability (ICEETS), 2013 International Conference on,‎ 10-12 april 2013 (ISBN 978-1-4673-6149-1, DOI 10.1109/ICEETS.2013.6533519).
  • (en) Jackson Braz Marcinichen, Jonathan Albert Olivier, John Richard Thome, « On-chip two-phase cooling of datacenters: Cooling system and energy recovery evaluation », Applied Thermal Engineering,‎ (DOI 10.1016/j.applthermaleng.2011.12.008).
  • (en) Mankoff J, Kravets R, Blevis E, « Some Computer Science Issues in Creating a Sustainable World », Computer (Volume:41 , Issue: 8 ),‎ (DOI 10.1109/MC.2008.307).
  • (en) Werner J, Geronimo G, Westphall C, Koch F, Freitas R, « Simulator improvements to validate the Green Cloud Computing approach », Network Operations and Management Symposium (LANOMS), 2011 7th Latin American,‎ 10-11 oct. 2011 (DOI 10.1109/LANOMS.2011.6102263).
  • (en) Harmon, R.R., « Sustainable IT services: Assessing the impact of green computing practices », Network Operations and Management Symposium (LANOMS), 2011 7th Latin American,‎ 2-6 aug. 2009 (DOI 10.1109/PICMET.2009.5261969).
  • (en) Liang Liu, Hao Wang, Xue Liu, Xing Jin, Wen Bo He, Qing Bo Wang, Ying Chen, « GreenCloud: a new architecture for green data center », ICAC-INDST '09 Proceedings of the 6th international conference industry session on Autonomic computing and communications industry session,‎ (ISBN 978-1-60558-612-0, DOI 10.1145/1555312.1555319).