Data center : comment en réduire le coût

Data center : un coût croissant pour les entreprises.

Avec la course aux données qui s’est engagée (big data,…), le coût d’un data center  progresse toujours plus vite pour les entreprises.  D’après une étude de 2014 réalisée par l’Uptime Institute, 62% d’entre elles avaient encore augmenté les budgets dédiés aux data-centers cette année-là. Cela ne semble pas s’être amélioré depuis.

Principal facteur de coût : le refroidissement.

Data-center : d’abord maîtriser la croissance des coûts énergétiques

Le volume total des données sur terre double en effet tous les quatre ans.

 Les data centers  qui les hébergent doivent donc être conçus et exploités pour réduire au maximum les risques de panne. Pour cela, leurs exploitants ont longtemps privilégié la redondance des équipements techniques, ainsi que la sécurité des installations.
Ils continuent souvent de procéder ainsi.

Conséquence :  les systèmes de refroidissement doivent être surdimensionnés. Ils représentent, à eux seuls, près de 40 % de la facture énergétique  d’un data center (Gimélec).

Les data centers pèsent désormais pour 4 % de la consommation énergétique mondiale, avec une croissance de près de 5 % par an (source :RTE). 

Les exploitants de data centers cherchent désormais à maîtriser la « cascade énergétique », c’est-à-dire à réduire les consommations à tous les niveaux : composants informatiques, équipements techniques, aménagement et intégration des salles informatiques dans leur écosystème géographique.

La course aux solutions techniques

Le problème fondamental pour les data-centers, c’est que la loi de Moore ne s’applique pas aux composants réseau. Leur performance n’a pas suivi celle des processeurs. Quand ceux-ci ont progressé d’un facteur 64 en 12 ans, ceux-là n’ont connu qu’une amélioration d’un facteur 10. Dans le même temps, le débit moyen des routeurs WAN augmentait d’un facteur 4.

Même s’il y a beaucoup d’espoir dans les progrès des puces de dernière génération et dans l’amélioration de certains principes d’architecture réseau tels que le Leaf and Spine, ce type d’investissements ne risque pas, là encore, de faire partie des priorités pour réduire les coûts énergétiques.

Data center : la quête du meilleur PUE

Il existe même un indicateur du rendement énergétique des data-centers : le P.U.E.

Celui-ci mesure quelle proportion de l’énergie utilisée par un centre alimente les serveurs et non pas l’infrastructure tout autour. L’idéal est évidemment un P.U.E de 1.0.

Les entreprises les plus performantes en la matière sont évidemment les mastodontes des GAFAM. Facebook annonce ainsi un P.U.E. de 1.08 pour son datacenter de Prineville, dans l’Oregon.
Il est vrai que les GAFAM (Google, Amazon, Facebook, Microsoft) consacrent des investissements phénoménaux à cette maîtrise du P.U.E. Elles y ont intérêt, c’est quand même leur coeur de métier.

Pour la majorité des entreprises pour qui ce n’est pas le cas, atteindre un P.U.E. de 1.5 est  un maximum.

Cependant, d’après l’étude de l’Uptime Institute, citée dans cet article de Zdnet, les P.U.E. ont tendance à se dégrader, atteignant 1.7.

Comment faire ?

De nombreuses entreprises cherchent à profiter de sources de froid nouvelles : en s’installant dans des pays froids, comme certaines, encore parmi les GAFAM.
D’autres profitent de leurs voisins pour les réchauffer.
En revendant la chaleur émise par leurs centres pour contribuer au chauffage des piscines ou autres infrastructures nécessitant de la chaleur.

Ces solutions sont tout à fait astucieuses (quoi que rien ne dit qu’en période de canicule, les piscines aient besoin d’être chauffées, et dans ce cas, comment faire ?). Cependant elles ne sont peut-être pas prioritaires. En matière de réduction des coûts, il y a peut-être mieux.

Éliminer des matériels dormants

“Au lieu de se focaliser sur  la baisse de l’indicateur PUE, note ZDNET,  bon nombre d’entreprises pourraient réduire ces coûts plus efficacement en s’efforçant de retirer les serveurs “comateux” de leur parc.

 Comme le matériel des serveurs parvient mieux à consolider les charges de travail, ils n’ont pas besoin de l’espace dont ils estimaient avoir besoin il y a trois ans. Beaucoup de ces sites sont surdimensionnés. “

L’Uptime Institue estime à un cinquième la part des serveurs sous-utilisés par une entreprise parmi son parc exploité, tandis que les entreprises pensent que cette proportion est bien inférieure, en dessous de 5%.

En plus de sortir les serveurs “du coma”, les solutions pour réduire les coûts de data-center passent aussi par une façon différente de penser le fonctionnement des serveurs.

Dans de très nombreux cas, ceux-ci sont utilisés à moins de 50 % de leur capacité, tout en consommant presque autant d’énergie qu’un serveur chargé à 100 %.

Le taux de remplissage n’est cependant pas toujours à son plus haut niveau. En outre les besoins d’hébergement évoluent à hausse comme à la baisse. Par exemple, il peut y avoir des pics de trafic sur les sites internet (soldes, campagnes…). Pourquoi dimensionner les serveurs pour être sûr d’absorber de tels pics… 100% du temps ?

Afin de répondre à cette volatilité, les data centers sont de plus en plus conçus de façon modulaire, avec des organes indépendants et adaptables mis en production au fur et à mesure de la montée en charge.

Leur meilleur dimensionnement, couplé à l’utilisation de technologies comme la virtualisation, permet d’optimiser leur utilisation et leur rendement.

Le recours au cloud

Cette technique de la virtualisation  trouve son must économique dans le recours au cloud computing.

57% des entreprise utilisent déjà l’utilisent déjà ou prévoient d’y recourir. Ce chiffre datant de 2015 est donné par le cabinet IDC qui a réalisé une étude auprès de 3650 responsables informatiques d’entreprises américaines, européennes et asiatiques.

Et pour 54% d’entre elles, les entreprises citent la réduction des coûts comme raison principale de ce choix.  

Le cloud, avec des services tels que ceux d’Amazon, permettent de louer en effet au plus juste : l’infrastructure dont on a besoin au moment où on en a besoin.

L’exemple Véolia

Jean-Christophe Laissy, DSI de Véolia a créé son petit effet en juin, en annonçant que son entreprise était la première entreprise du CAC 40 à ne posséder aucun data-center.

La solution adoptée passe totalement par le cloud-computing. “Nous dispositions de gros sytèmes MVS (multiple virtuel storage), pour la facturation, en Cobol explique-t-il. Et finalement, d’une informatique qui n’était pas du tout pérenne. Deux choix s’offraient à nous : investir des millions d’euros dans une nouvelle infrastructure ou migrer dans le cloud avec AWS (Amazon Web Service). Nous avons retenu la deuxième option”.

Certes, une telle opération ne se fait pas en cinq minutes, mais elle semble d’une logique implacable en termes d’optimisation de la rentabilité des serveurs. Et donc de coût sur la durée.