Donner du sens à la science

Verdir les centres de données

Dossier
Paru le 03.05.2022
Réparer le monde

Verdir les centres de données

04.05.2022, par
Face à l'explosion du volume d'informations traitées par les centres de données, les projets de recherche Datazero s'attachent depuis 2015 à développer des algorithmes qui permettent d'optimiser leur consommation d'énergie et leur accessibilité. Explications avec Jean-Marc Pierson, à l'initiative de ces projets pour des datacenters plus écologiques.

On assiste depuis des années à une explosion de la quantité de données stockées et échangées sur les réseaux. De 20 zettabits1 (Zb) en 2016, elle atteindra environ 80 Zb en 20222. Le monde est passé de 100 gigabits par seconde (Gb/s) circulant dans les réseaux informatiques en 2001 à 26 000 Gb/s en 20163. On estime qu’en 2025, l’Internet des objets générera 67 Zb de données. Une bonne part de ces données passe par des centres de données (datacenters).

Dans son rapport de 2021, The Shift Project nous apprend que la consommation mondiale des centres de données représentera environ 5 % de l’électricité mondiale en 2025. Entre 2010 et 2018, pendant que l’efficacité énergétique des centres de données a été améliorée de 25 %, le nombre de serveurs a augmenté de 30 %, la capacité de stockage a été multipliée par 26 et le trafic réseau par 11. La cryptomonnaie Bitcoin engendre à elle seule 10 % de la consommation des centres de données. La généralisation de la 5G, sans parler du coût énergétique des équipements et des communications associées (estimé à un facteur deux à trois par rapport à aujourd’hui), va encore accentuer ce phénomène, permettant un usage partout et tout le temps de ses dispositifs numériques en passant par les objets connectés, pour des usages toujours plus conséquents. Notons par ailleurs que les centres de données et les réseaux sont largement surdimensionnés. Ainsi, les centres de données ne sont remplis en moyenne qu’à 30 % de leur capacité nominale. Peut-on trouver des alternatives à cette gabegie ?

Régler les problèmes d'intermittence grâce au stockage d'électricité

Plusieurs acteurs nationaux et internationaux s’intéressent de près à la consommation des centres de données pour des motivations économiques mais aussi écologiques. On peut citer les initiatives des géants du Web qui après avoir acheté de l’énergie « verte » à des producteurs spécialisés, sont devenus eux-mêmes producteurs d’électricité renouvelable pour alimenter leurs centres de données. Cependant, il est difficile techniquement de s’en remettre aux seules sources d’énergie renouvelable pour faire fonctionner des centres de plusieurs dizaines de milliers de serveurs.
 

Conserver une qualité de service maximale et une empreinte carbone minimale.

Les projets de recherche Datazero et sa suite Datazero2 (datazero.org), financés par l’Agence nationale de la recherche (ANR), cherchent à développer depuis 2015 des centres de données consommant jusqu’à 1 mégawatt de puissance électrique sans recourir à un fournisseur d’électricité externe. Sachant qu’actuellement la puissance consommée est la métrique qui caractérise les centres de données, au-delà du nombre d’équipements qu’ils hébergent.

Nous avons décidé de nous appuyer sur des sources primaires de type photovoltaïque et éolien, et de régler les problèmes d’intermittence en stockant l’électricité dans des batteries pour parer aux fluctuations de production quotidienne, et dans des piles à combustible pour parer aux fluctuations saisonnières. L’intérêt est de pouvoir déployer de tels centres n’importe où sur la planète, au plus près des besoins réels. S’appuyant sur le développement de plusieurs algorithmes, la première phase du projet4 a permis de démontrer la faisabilité d’un tel centre de données.

Gagner en efficacité

Nous avons tout d’abord développé un algorithme d’optimisation permettant de dimensionner le centre en fonction des besoins des utilisateurs en nombre de serveurs informatiques d’abord, puis en équipements électriques ensuite (panneaux photovoltaïques, éoliennes, batteries, piles à combustible). Pour cela nous utilisons deux phases, une recherche dichotomique pour les serveurs, puis un programme linéaire pour les équipements électriques. Le programme est utilisé ensuite sur des données météo représentant plusieurs années de fonctionnement, et sur des flux de services informatiques variables et représentatifs, permettant in fine de déduire une configuration adaptée à un usage et un lieu donnés.

Notre seconde contribution consiste, une fois le centre de données construit, à en optimiser le fonctionnement tant de la partie électrique que de la partie informatique pour gagner en efficacité. Afin de répondre à cette double contrainte, un algorithme de négociation utilisant la théorie des jeux a été développé. Nous nous sommes également appuyés sur des techniques relevant de la programmation linéaire et des algorithmes génétiques. Cette architecture logicielle permet de résoudre individuellement les problèmes et de trouver des solutions optimales ou proches de l’optimal sans avoir besoin de modéliser le problème complet, solution qui rendrait le temps de résolution beaucoup trop important pour une utilisation en temps réel dans un centre de données opérationnel.

Centre de données Google du site de Saint-Ghislain en Belgique qui fonctionne à l'énergie solaire.
Centre de données Google du site de Saint-Ghislain en Belgique qui fonctionne à l'énergie solaire.

Dans la seconde phase du projet démarrée en 2020, nous avons décidé de travailler sur deux axes majeurs. D’une part nous avons étudié de nouvelles façons d’interconnecter les équipements électriques afin de limiter au maximum la redondance du matériel tout en conservant une qualité de service maximale et une empreinte carbone minimale. Considérant que la probabilité est faible que toutes les sources d’énergie tombent en panne ou ne produisent plus en même temps, nous avons développé une topologie d’interconnexion dynamique qui permet de basculer l’électricité produite par chaque élément en fonction de l’état du système. La suite du projet permettra d’évaluer la pertinence de cette approche, notamment en quantifiant la diminution de redondance résultante.

D'autre part, le second axe consiste à étudier plus finement l’impact des données incertaines, telles que la météo ou les variations dans l’afflux d’utilisateurs. En modélisant l’incertitude sur les données en entrée, les algorithmes d’optimisation et de négociation pourront de cette manière mieux caractériser les incertitudes en sortie, ainsi que leurs potentiels effets en cascade. ♦

Les points de vue, les opinions et les analyses publiés dans cette rubrique n’engagent que leur(s) auteur(s). Ils ne sauraient constituer une quelconque position du CNRS. 

À lire sur notre site
Le Big Data est-il polluant ? (point de vue par J.-M. Pierson)

Notes

Commentaires

0 commentaire
Pour laisser votre avis sur cet article
Connectez-vous, rejoignez la communauté
du journal CNRS