Header Ads

Header ADS

Nos données bientôt hébergées au fond des mers ?

Actuellement, il y a dans le monde près de 3.800 centres de données par lesquels transitent l'essentiel des données d'Internet. Et ce chiffre est amené à exploser au cours de la prochaine décennie.

Cependant, les gigaoctet de données qui transitent chaque seconde sur Internet passent par des centres de données dont les milliers de serveurs consomment autant d'énergie pour fonctionner que pour se refroidir.


Dès lors, l'idée de plonger ces installations dans l'eau et de les alimenter grâce aux courants marins n'est peut-être pas si surprenante. Microsoft a tenté l'expérience et obtenu des résultats prometteurs.

L'eau, qui plus est salée, n'est pas le premier élément dans lequel on envisage de plonger des ordinateurs. Et pourtant, c'est exactement ce qu'a fait Microsoft.

Le géant de l'informatique a lancé un programme expérimental portant le nom de code projet Natick (nom d'une ville nord-américaine de l'État du Massachusetts) qui consiste à immerger un centre de données (datacenter) dans un conteneur étanche à une dizaine de mètres de profondeur.

Les objectifs sont multiples.

Tout d'abord, il s'agit de refroidir efficacement ces installations qui dégagent une énorme quantité de chaleur. Sur terre, le problème du refroidissement des centres de données est un véritable casse-tête.

En 2008, Google avait lui aussi envisagé d'installer des serveurs dans l'océan avec, en prime, une récupération de l'énergie des vagues à l'aide d'une barge flottante articulée.

Plongé dans l'eau froide, le conteneur n'a pas besoin d'être climatisé. Microsoft précise que son datacenter n'utilise pas non plus d'eau pour se refroidir, la dissipation se faisant par des échangeurs thermiques.
À l'intérieur, le caisson est pressurisé avec de l'azote pour éliminer la chaleur émise par les circuits électroniques.

L'autre avantage mis en avant est la rapidité avec laquelle des centres de données de ce type peuvent être mis en service.

Là où il faut compter environ deux ans de travaux pour aménager un datacenter sur la terre ferme, ces conteneurs pourraient être opérationnels sous 90 jours.

Par ailleurs, l'immersion près des côtes, à quelques encablures des villes, pourrait contribuer à améliorer les performances des services en ligne.

En effet, Microsoft rappelle que la moitié de la population vivant à moins de 200 kilomètres de la mer, installer des centres de données sous-marins permettrait de réduire le délai de latence, c'est-à-dire la durée du transit de l'information entre la source et son destinataire.

Un facteur clé sachant que la consultation de vidéos en streaming est désormais le plus gros consommateur du trafic Internet, sans parler de l'explosion à venir de l'Internet des objets qui nécessitera toujours plus de puissance de calcul.
Le conteneur que Microsoft a immergé durant 105 jours à dix mètres de profondeur dans l’océan Pacifique au large de la Californie. Il a fonctionné sans encombre durant tout cette période. © Microsoft
Le conteneur que Microsoft a immergé durant 105 jours à dix mètres de profondeur dans l’océan Pacifique au large de la Californie. Il a fonctionné sans encombre durant tout cette période. © Microsoft

Les crevettes font plus de bruit que les disques durs

Pour ce qui est de l'alimentation, l'idée est de recourir à des énergies renouvelables produites, par exemple, par des hydroliennes. Microsoft dit vouloir créer des installations « zéro émission » à partir de matériaux recyclés et, de plus, recyclables une fois en fin de vie.

Un datacenter sous-marin pourrait fonctionner pendant environ cinq ans sans maintenance, avant que les serveurs ne doivent être remplacés par des modèles plus performants. La durée de vie totale de l'ensemble serait « au moins » de vingt ans.

Un essai en conditions réelles a été mené durant la période août-novembre 2015. Le conteneur baptisé Leona Philpot (nom d'un personnage du jeu vidéo Halo développé par Microsoft) a passé 105 jours dans l'océan Pacifique par dix mètres de fond, à environ un kilomètre de San Luis Obispo (Californie).

Une série de capteurs avaient été installés pour surveiller non seulement la stabilité de l'installation informatique, mais aussi son impact sur l'environnement. Des capteurs acoustiques ont permis de constater que le cliquetis de la queue des crevettes vaquant autour du caisson couvrait le bruit des disques durs et des ventilateurs.

Quant à la chaleur dégagée à proximité immédiate du caisson, l'équipe en charge du projet assure qu'elle est minime. À voir tout de même ce qu'il en sera du bruit et de la dissipation thermique avec un datacenter plus volumineux, car celui-ci ne contenait qu'une seule baie.

L'équipe du Projet Natick est en train de plancher sur une installation trois fois plus grande qui sera co-développée avec un concepteur de systèmes d'énergie renouvelable issus de la mer.

Un nouvel essai aura lieu l'année prochaine, peut-être du côté de la Floride ou en Europe du Nord. Microsoft n'a pour le moment annoncé aucun plan pour un déploiement commercial de ce type d'installation.

avec Marc Zaffagni, Futura-Sciences

Aucun commentaire

Fourni par Blogger.