Voyage aux Data Centers de la Terre

En ce mois étouffant de juin 2020, une manifestation d’un nouveau genre passe sous mes fenêtres grandes ouvertes aux cris de « Rendez-nous nos données, elles nous appartiennent ! ». Des slogans descendus dans la rue après avoir inondé la Toile et qui marquent une prise de conscience initiée dix ans plus tôt. Le nouvel écosystème numérique fait la part belle à des terminaux très sophistiqués connectés en continu et utilisant de manière croissante les ressources du « cloud » : nos données personnelles, nos photos, nos factures, sans parler de nos traces laissées sur le Net, tout autant que la musique et les vidéos que nous avons cessé d’archiver puisqu’ils sont toujours disponibles à la demande quelque part. Et ce, grâce à la mise en place progressive d’une nouvelle infrastructure constituée d’un ensemble de data centers, véritable réseau de « fermes informatiques » au niveau mondial.

« le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs ».

Ce basculement vers toujours plus de dématérialisation provoque de nouveaux débats qui conduisent certains à remettre en cause cette nouvelle ère de la décentralisation virtuelle. Ce mouvement fait en réalité partie de toute l’histoire de l’informatique. Dès les années 1960, les réseaux d’entreprises oscillent entre architecture centralisée – où le poste de l’utilisateur ne contient que très peu de fichiers et où tout est stocké dans un serveur dit mainframe – et structure décentralisée – où à l’inverse les ressources sont concentrées dans le poste utilisateur, les données étant stockées sur un serveur partagé. Avec Internet, qui signait un retour à une ère « centralisée » où les ordinateurs envoyaient
des requêtes à une multitude de serveurs pour récupérer une partie de leurs données,
le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs. Cette évolution est rendue possible par le retour du gigantisme en informatique, convoquant par là même
les mânes du premier ordinateur de tous les temps, Colossus, installé en 1943 dans plusieurs pièces d’un appartement londonien. Nos data centers actuels occupent
chacun l’équivalent de la surface de plus de 15 terrains de football ! Et leur nombre n’a cessé d’augmenter depuis 2012 où on en comptait déjà plus de 510.000 dans le monde, dont près de 140 dans un pays de la taille de la France. La tendance n’est pas prête de s’inverser tant la demande est forte. Les investissements s’accélèrent et les pays d’accueil se battent pour attirer sur leurs terres ces entrepôts d’un nouveau genre. Les choix d’implantation se font toujours en tenant compte d’un besoin de proximité des utilisateurs, de la nécessité de disposer de réseaux de communication puissants et de contenir la facture énergétique qui dévore les charges d’exploitation. Il faut savoir qu’un data center moyen consomme l’équivalent d’une ville de 25.000 habitants, tout autant
pour le faire fonctionner que pour le refroidir. C’est ainsi devenu un élément essentiel de
la compétitivité des géants de l’Internet. Google, Amazon, Microsoft, Facebook et Apple disposaient à eux seuls, en 2012 déjà, de plus de 100 data centers en activité sur la planète. Quand Facebook mit en route, en 2014 son premier centre européen, ce fût en Suède, à moins de cent kilomètres du cercle arctique. Le premier data center de la firme
à la pomme, destiné à iCloud, utilise, lui, 100 % d’énergies renouvelables. Mais c’est la Chine qui dispose aujourd’hui du parc de stockage le plus important, construit avec l’aide d’un IBM d’abord, puis par ses champions Huawei et ZTE. Ce marché stratégique est également le terrain d’affrontement de nombreux autres acteurs comme les hébergeurs, parmi lesquels OVH ou Telehouse, les intégrateurs comme Cisco ou IBM, les Content Delivery Networks (CDN) comme Akamaï, les éditeurs de logiciels comme Oracle ou SAP, sans oublier les opérateurs télécoms comme Orange ou AT&T qui n’en finissent
pas de voir la frontière s’effriter entre eux et le monde de l’informatique. Et pendant que
la planète entière se couvre d’entrepôts dépositaires des données du monde, des ingénieurs, lointains héritiers d’un Jules Verne, rêvent déjà à de nouveaux data centers tenant dans le creux de la main. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Géolocalisation
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son rapport
« Cloud & Big Data », produit par Julien Gaudemer, consultant.