L’« économie générative » de 3DS déçoit en Bourse

En fait. Le 21 février, Dassault Systèmes (alias 3DS) a annoncé la démission « avec effet immédiat » de Bernard Charlès (69 ans le 30 mars 2026) de la présidence du conseil d’administration, « pour des raisons personnelles ». La chute de la capitalisation boursière et le recul de l’action expliquent cela.

En clair. « Le géant français du logiciel Dassault Systèmes a manqué l’occasion de se mesurer aux Gafam », écrivait Edition Multimédi@ il y a deux ans jour pour jour (1). A l’époque, fin février 2024, la capitalisation boursière du premier éditeur français de logiciels et second en Europe (derrière l’allemand SAP) était d’environ 57,8 milliards d’euros : elle n’est plus que de 28,7 milliards d’euros au 26 février 2026, soit une chute de 50,3 % en vingt-quatre mois (2). Quant au cours de l’action « DSY », il était alors de 43,33 euros : il n’est plus que de 18,39 euros, toujours au 26 février 2026, soit une dégringolade de 57,5 % sur la même période (3).
De cette déconvenue boursière, Bernard Charlès pourrait aussi en avoir tiré les conséquences en tant que (suite) président du conseil d’administration depuis janvier 2024, après avoir été DG puis PDG (2002-2023). Détenteur avec sa famille de 2,65 % du capital de Dassault Systèmes, aux côtés des 5,99 % de Charles Edelstenne et des 39,97 % de la holding de la famille Dassault GIMD (4), Bernard Charlès – qui aura 69 ans le 30 mars – est cofondateur (avec Charles Edelstenne) de Dassault Systèmes en 1981. Alors que l’intelligence artificielle – avec ses « IA codeuses » (5) – rivalise avec les éditeurs de logiciels, les cours de Bourse de ces derniers ont chuté début février – y compris « DSY ». Mais surtout, Dassault Systèmes déçoit. Dévoilée début 2024, la stratégie « économie générative » de Bernard Charlès à horizon 2040 ne porte pas ses fruits. Les résultats 2025, présentés le 11 février (6), affiche un chiffre d’affaires en hausse d’à peine 4 %, à 6,24 milliards d’euros, pour un résultat net en recul de – 0,34 %, à 1,2 million d’euros. C’est en-dessous des attentes des analystes et investisseurs, surtout pour le 4e trimestre 2025 qui est inférieur au consensus.
Ce champion français du numérique – pionnier de la conception 3D avec son logiciel Catia (depuis la fin des années 70) et ses « jumeaux virtuels » – avait les capacités de devenir un « Gafam européen ». Quitte à vraiment s’ouvrir, au-delà du « BtoB », directement auprès du grand public, plutôt que de se contenter de quelques timides incursions avec des offres « BtoC » telles que HomeByMe, DraftSight, SolidWorks for Makers, ou 3DVia. Reste à savoir si Pascal Daloz, successeur de Bernard Charlès en devenant PDG, fera connaître la doyenne de la French Tech au public via le cloud, la VR et l’IA. @

La souveraineté numérique française ne peut pas être exclusivement nationale, mais européenne

La souveraine numérique ne doit pas être le faux-nez de la préférence nationale ni contraire au droit de la concurrence sur le marché unique numérique européen. Donc, pas de discriminions fondées sur la nationalité, pas d’aides d’Etat aux entreprises nationales, pas de barrières nationales.

Une administration française ou une entreprise française ne peuvent pas dire : « Nous avons choisi un cloud français parce qu’il est français ». Ce serait contraire au droit de la concurrence. Ainsi, il serait contraire aux règles de l’Union européennes que la France interdise les fournisseurs non français uniquement parce qu’ils ne sont pas français, ou qu’elle réserve des marchés publics aux seules entreprises françaises, ou encore qu’elle subventionne massivement un acteur national sans justification européenne. C’est toute la difficulté de la « souveraineté numérique », pour chacun des Etats membres d’ailleurs.

Pas de préférence nationale en Europe
La France essaie de ne pas tomber dans cet écueil, notamment lors que Bercy a annoncé le 26 janvier les créations d’un « Observatoire de souveraineté numérique » et d’un « Indice de résilience numérique ». Il s’agit, précise son directeur Clément Beaune (photo), Haut-commissaire à la Stratégie et au Plan (depuis un an), de « mesurer les dépendances pour renforcer l’autonomie stratégique française et européenne » et de « constituer un levier collectif pour renforcer l’autonomie technologique, la résilience et la compétitivité de la France et de l’Europe ». La souveraineté numérique que prône de plus en plus le gouvernement français – en réponse notamment à l’offensive du président des Etats-Unis Donald Trump contre les règlements européens dans le numérique – ne doit pas être franco-française, mais bien euro-compatible. Cela peut être « Je Choisis La French Tech », du nom du programme gouvernemental visant à « doubler d’ici 2027 le montant d’achat public et privé » vers les start-up françaises (1), à condition de (suite) ne pas évincer les autres jeunes pousses européennes. Il en va de même pour la licorne française Mistral AI, dont l’Etat français a choisi de doter 10.000 agents publics de son agent IA conversationnel (2).
« Il ne s’agit plus seulement d’un sujet économique, de compétitivité ou d’innovation, mais c’est un enjeu démocratique et de protection d’un certain modèle français et européen », assure le Haut-commissaire, nommé à ce poste il y aura un an le 5 mars prochain par le président de la République Emmanuel Macron, sur proposition du Premier ministre dont ses services dépendent. Auparavant, Clément Beaune a notamment été ministre délégué chargé de l’Europe (2020- 2022). Un « questionnaire national » devait être envoyé fin janvier aux acteurs publics et privés, portant sur « les usages numériques critiques des organisations » et « les dépendances aux solutions extra-européennes », en vue de « renforcer la souveraineté numérique ». Les réponses sont attendues d’ici fin février 2026. « Les premières analyses et restitutions auront lieu au printemps 2026 », a précisé « Le Plan », (ou « Le Commissariat », selon le surnom utilisé à l’Hôtel Matignon où il est installé, rue de Varenne).
Créé par Bercy, sur une initiative annoncée en avril 2025 par Clara Chappaz, alors ministre déléguée chargée de l’Intelligence artificielle et du Numérique, l’Observatoire de souveraineté numérique a été confié par sa successeure Anne Le Hénanff (3) au Haut-commissariat à la Stratégie et au Plan (4). Le Conseil général de l’économie (CGE) à Bercy avait préparé le terrain depuis printemps 2025, dans le cadre d’une « mission de préfiguration d’un Observatoire de souveraineté numérique » que lui avait confiée Clara Chappaz. D’emblée, la souveraineté numérique se conjugue en français et en européen, afin de ne pas tomber dans une économique numérique nationaliste. « Dans un contexte où les technologies numériques sont devenues des infrastructures critiques de nos sociétés, la France, comme l’ensemble de l’Union européenne, doit se doter des moyens d’identifier, de comprendre et de maîtriser ses vulnérabilités », avait bien précisé l’ancienne ministre déléguée chargée de l’Intelligence artificielle et du Numérique, dans la lettre de mission datée du 14 avril 2025 adressée à Marc Mortureux, vice-président du CGE, alors tout juste nommé.

« Des offres nationales, européennes ou libres »
« Ces initiatives s’inscrivent dans le cadre d’une stratégie industrielle européenne renforcée, avait encore écrit Clara Chappaz dans la lettre de mission, visant à accroître la résilience et la compétitivité de l’Union [européenne], tout en préservant une économie ouverte ». Elle avait invité le missionné à « inscrire pleinement cette démarche dans le cadre des initiatives européennes en matière de résilience technologique et d’autonomie stratégique, en assurant une cohérence avec les travaux portés par la Commission européenne, les alliances industrielles (cloud, semiconducteurs, IA) et les coopérations bilatérales et multilatérales ». Dans leur rapport remis en juillet 2025, les trois auteurs – ingénieurs des mines que sont Arno Amabile, Paul Jolie et Laurent de Mercey – ont identifié des besoins pour « amorcer un cercle vertueux, où les entreprises et les services publics souhaitent pouvoir acheter des solutions réduisant leurs risques, et trouvent des solutions satisfaisantes dans les offres nationales, européennes ou libres ». Et ce, dans le cadre de l’Observatoire de la souveraineté numérique. Le rapport préconise en outre « la mise en place d’un label de confiance promouvant la filière française ». Vous avez bien lu « filière française »… Et les rapporteurs écrivent « souveraineté française (et européenne) », où les parenthèses ont leur importance car elles donnent la priorité aux « solutions françaises ».

Vers un label “Sovereign French Tech” ?
Et de préciser leur point de vue franco-français : « Un produit possible pourrait être la mise en place d’un label de confiance (complémentaire de SecNumCloud) dans une démarche identique à une démarche qualité pour obtenir un label ISO 9000. Il s’agirait de développer un label “Sovereign French Tech” promouvant la filière française ». Le label français de sécurité SecNumCloud est un « visa » délivré par l’Agence nationale de la sécurité des systèmes d’information (Anssi), le « régulateur de la sécurité numérique » en sa qualité d’autorité française en charge de la cybersécurité nationale et rattachée au Premier ministre via le Secrétariat général de la défense et de la sécurité nationale (SGDSN (5)). Apparu il y a dix ans, SecNumCloud est un « référentiel d’exigences » (6) des prestations de services d’informatique en nuage (cloud), ayant notamment intégré par la suite les exigences du règlement général européen sur la protection des données (RGPD).
Or selon les constatations de Edition Multimédi@, toutes les entreprises labellisées SecNumCloud à ce jour sont françaises (7) – ici par ordre alphabétique : Cegedim, Cloud Temple, Index Education, OVH (OVHcloud), Oodrive, Orange Business Services, Outscale (Dassault Systèmes), Thales Cloud Sécurisé, Whaller et Worldline. Il n’y a ainsi aucun prestataire de cloud certifié par Matignon venant d’un autre pays européen que la France ni d’origine extra-européenne, quand bien même certains opèrent à l’échelon européen voire à l’international (Worldline, OVHcloud) ou en partenariat avec des acteurs étrangers (Thales Cloud Sécurisé, via sa filiale S3NS, avec l’américain Google Cloud).
De même, tous ceux qui sont en cours de qualification (8) sont également français : Bleu (Orange et Capgemini), Blue, Cloud Solutions (Wimi), Cyllène ITS, Ecritel, Free Pro (filiale B2B d’Iliad), GIP Mipih, ITS Integra, NumSpot (Banque des Territoires, Docaposte, Dassault Systèmes, Bouygues Telecom), Orange Business, OVH (OVHcloud), Prolival (groupe Tenexa), Scaleway (groupe Iliad), et Adista. Autrement dit, la souveraineté numérique à la française semble faire barrage aux prestataires étrangers, ou à tout le moins aux « cloud » d’autres pays européens que la France. Le gouvernement français a d’ailleurs annoncé le 5 février 2026 l’annulation de l’appel d’offre visant à faire passer les bases de données de santé des Français d’actuellement Microsoft à un autre prestataire de « cloud souverain » certifié SecNumCloud justement (9)… Pourtant, les « compatriotes » européens existent bel et bien. Il suffit pour s’en convaincre d’aller visiter le site web EuroStack, initiative dirigée par l’économiste de l’innovation Francesca Bria (photo ci-dessus), qui propose des services de cloud européens (10). Cette Italienne de 48 ans conseille par ailleurs la Commission européenne et est membre du groupe « New European Bauhaus » créé par la présidente Ursula von der Leyen. Le projet EuroStack a donné lieu à un rapport commandité par la fondation allemande Bertelsmann Stiftung – de la famille Mohn (11), propriétaire du groupe de médias Bertelsmann (RTL, M6, Penguin Random House, …) – et publié il y a un an, accessible gratuitement : « EuroStack – A European Alternative for Digital Sovereignty » (« Une alternative européenne à la souveraineté numérique »). Son constat est sans appel : « Plus de 80 % des technologies et infrastructures numériques européennes sont importées ; 70 % des modèles d’IA fondamentaux utilisés dans le monde proviennent des Etats-Unis. Parallèlement, les entreprises européennes ne représentent que 7 % des dépenses mondiales de recherche en logiciels et Internet » (12). Tout est dit.
Et fin 2025, à la veille du Sommet sur la souveraineté numérique européenne, le 18 novembre 2025 à Berlin (13), la Bertelsmann Stiftung (Allemagne), l’AI & Society Institute (France), le Centre d’études sur la politique européenne (CEPS, Belgique) et l’Institut économique polonais (PEI, Pologne) ont cofondé le Réseau européen pour la résilience technologique et la souveraineté (ETRS). « Il s’agit de renforcer la capacité de l’Europe à agir avec confiance à l’ère numérique », a déclaré Martin Hullin, directeur du ETRS chez Bertelsmann Stiftung. L’objectif est de « renforcer la capacité européenne d’innovation et d’indépendance dans des technologies clés telles que l’IA, l’infrastructure cloud et les semi-conducteurs » (14).

Pour une vraie souveraineté européenne
La souveraineté numérique cherche ses champions européens, pour peu qu’elle ne soit pas circonscrite à des labels nationaux ni limitée au couple franco-allemand (15). L’Observatoire de souveraineté numérique (OSN) et l’Indice de résilience numérique (IRN) initiés par la France ne devront pas tomber dans l’ornière du franco-français, mais avoir une portée européenne. C’est d’ailleurs le but de l’IRN, lancé le 26 janvier 2026 (16), qui sera déployé au niveau européen par Digital Resilience Initiative, une association internationale sans but lucratif (AISBL), dont Olivier Sichel, directeur général de la Caisse des Dépôts (CDC), assure la présidence. @

Charles de Laubier

Cloud & AI Development Act : le futur règlement de la Commission européenne veut changer la donne

Pour que l’Union européenne devienne un « continent de l’IA », dans le cadre des objectifs de son Digital Decade à l’horizon 2030, le futur règlement sur « le développement de l’informatique en nuage et de l’IA » devra éviter de renforcer la position dominante du triumvirat Amazon-Microsoft-Google.

Alors qu’un triumvirat de l’informatique en nuage est en train de se renforcer dans l’Union européenne, constitué par les trois Big Tech américaines Amazon avec Amazon Web Services (AWS), Microsoft avec Microsoft Azur et Google avec Google Cloud, la Commission européenne s’apprête à proposer d’ici la fin de l’année 2025 un projet de règlement sur « le développement de l’informatique en nuage et de l’IA ». Ce Cloud & AI Development Act sera ensuite débattu au Parlement européen début 2026. Pour une entrée en application en 2027 ?

Triopole américain renforcé dans l’UE
Le temps long réglementaire est loin d’être celui du temps ultra-rapide des technologies. Lorsque le Cloud & AI Development Act (« CAIDA ») entrera en vigueur, d’ici deux ans, la position dominante des trois Big Tech américaines Amazon, Microsoft et Google dans le cloud aura sans aucun doute encore augmentée pour atteindre une part de marché – dans les infrastructures de cloud en Europe – plus importante qu’elle ne l’est déjà actuellement. Le triumvirat tend à devenir un triopole, qui échappe à toute régulation susceptible de favoriser la concurrence dans les Vingt-sept.
Pour l’heure, Amazon, Microsoft et Google viennent d’atteindre les 70 % de parts de marché dans les infrastructures de cloud dans l’Union européenne (UE). Tandis que la part de marché de leurs concurrents d’origine européenne – SAP, Deutsche Telekom, OVHcloud, Telecom Italia, ou encore Orange – se réduit à peau de chagrin, à savoir 15 % environ de part de marché en Europe, contre près de 30 % en 2017, d’après Synergy Research Group (voir graphique ci-dessous). « Pendant que les fournisseurs de cloud américains continuent d’investir des dizaines de milliards d’euros chaque trimestre dans des programmes d’investissement européens, cela représente une pente impossible à gravir pour toutes les entreprises qui souhaitent sérieusement contester leur leadership sur le marché », estime John Dinsdale (photo), analyste en chef de ce cabinet d’étude américain basé à Reno, dans le Nevada, aux Etats-Unis. Et cet ancien analyste en chef de chez Gartner d’ajouter : (suite) « Par conséquent, les fournisseurs de cloud européens se sont principalement installés comme fournisseurs de services à des groupes locaux de clients ayant des besoins locaux spécifiques, travaillant parfois en partenariat avec les grands fournisseurs de cloud américains. Bien que de nombreux fournisseurs de cloud européens continuent de croître, il est peu probable qu’ils fassent beaucoup bouger les lignes en termes de part de marché européenne globale » (1). Les principaux bénéficiaires de la croissance du marché depuis sept ans sont le quasi-triopole Amazon, Microsoft et Google, ces « hyperscaler » capables déployer et gérer des infrastructures de cloud de façon massive, de réparties sur des centaines de datacenters à travers le monde leur puissance informatique dans le nuage, d’offrir des services de calcul, de stockage, d’IA, de réseau et de sécurité à l’échelle planétaire, et de faire évoluer dynamiquement leurs ressources en fonction de la demande grâce à leurs architectures de cloud. AWS, Azur et Google Cloud règnent donc toujours en maîtres, non seulement dans l’Union européenne qu’ils ont colonisée, mais aussi dans le reste du monde.
Alors que le marché mondial des infrastructures de cloud à destination des entreprises approche de la barre des 100 milliards de dollars de chiffre d’affaires rien qu’au deuxième trimestre 2025, toujours d’après Synergy Research Group, pour un total sur un an de 366 milliards de dollars (en hausse annuelle d’environ 25 %), le quasi-triopole s’arroge respectivement 30 % (Amazon), 20 % (Microsoft) et 13 % (Google) de parts de marché mondiale. « Nous prévoyons que la croissance annuelle moyenne au cours des cinq prochaines années restera supérieure à 20 %, a encore indiqué John Dinsdale. Nous pouvons remercier GenAI [intelligence artificielle générative capable de produire du contenu original – texte, image, code, musique, vidéo – à partir de données existantes, ndlr] d’avoir surdimensionné ce qui était déjà un marché important et à forte croissance ».

L’IA et GenAI favorables… au triopole
Au second trimestre 2025, Synergy Research Group a en effet constaté une croissance de 140 % à 180 % des services cloud spécifiques à GenAI, et l’intelligence artificielle (IA) a contribué également à la croissance des services cloud sur un marché plus élargi – de plus en plus d’entreprises et de plateformes grand public adoptant l’IA. « Au-delà des services cloud d’entreprise, constate John Dinsdale, l’IA alimente également l’expansion des revenus d’autres services numériques. Nous constatons une forte croissance à deux chiffres des revenus provenant des médias sociaux et de la recherche en ligne » (2). Si les Etats-Unis restent de loin le plus grand marché du cloud, l’Europe progresse mais ses plus grands marchés nuagiques sont le Royaume-Uni et l’Allemagne, tandis que les grands marchés européens avec les taux de croissance les plus élevés sont l’Irlande, l’Espagne et l’Italie. La France est au ralenti.

Changer de cloud facilement, sans frais
Avec le futur règlement Cloud & AI Development Act, Bruxelles vise à « tripler les capacités des centres de données de l’UE dans les cinq à sept années à venir ». Car, actuellement, l’UE accuse dans ce domaine un retard par rapport aux Etats-Unis et à la Chine. Le CAIDA a pour objectif de lever les barrières qui empêchent le développement de la capacité des centres de données dans les Vingt-sept : difficultés d’accès aux ressources naturelles (énergie, eau, terres), d’obtention d’autorisations (complexités différentes selon les Etats membres), de se fournir en composants technologiques, et de lever des capitaux pour investir. La montée en puissance du quasi-triopole de l’informatique en nuage fait aussi craindre, pour les entreprises et les particuliers, un verrouillage de leurs données par leur fournisseur de cloud.
D’où la question cruciale, à laquelle répond partiellement le Data Act (3) qui est entré en vigueur ce 12 septembre 2025 mais sur laquelle fait l’impasse la consultation (4) de la Commission européenne en vue de proposer un CAIDA : comment faciliter la possibilité de changer de fournisseur cloud et assurer la portabilité des données ? « En mai 2024, la loi visant à sécuriser et réguler l’espace numérique [loi dite SREN] a confié à l’Arcep de nouvelles missions sur le cloud justement pour lever les barrières techniques et commerciales au changement de fournisseur », a rappelé Laure de La Raudière (photo ci-dessus), présidente de l’Arcep, à l’occasion de la conférence Cloudweek Paris qui s’est tenue le 17 septembre 2025. Le régulateur français des télécoms entend exercer son pouvoir d’intervention sur le marché du cloud. « Concernant les barrières commerciales, a-t-elle précisé, nous avons la mission d’encadrer les frais de transfert de données lors d’un changement de fournisseur. […] Ces frais doivent être, selon nous, égaux à zéro, en dehors des prestations complémentaires ou de spécificités demandées par les clients ».
Mais ce n’est pas tout, l’enjeu porte surtout sur les données des clients dans le cloud : « Concernant les barrières techniques, nous avons la mission de préciser les règles et modalités de mise en œuvre des exigences essentielles par les fournisseurs cloud relatives à la portabilité et de l’interopérabilité » (5). Transparence, droit à la portabilité et droit à l’interopérabilité sont aussi des obligations qui s’imposent aux fournisseurs de services cloud (6), dans le cadre européen du Data Act. Mais est-ce suffisant ?

L’Arcep prône une régulation ex-ante
L’Arcep, qui est membre du réseau des régulateurs européens Berec, se prépare de longue date à « réguler les réseaux du futur » (7) et s’apprête à publier une recommandation qui vise à encourager la transparence et la mise en place de bonnes pratiques de documentation et de mise à jour des API (Application Programming Interface, ou interface de programmation d’application). Pour le futur CAIDA, la France suggère surtout à la Commission européenne de prévoir une régulation ex-ante du cloud et de l’IA, où les règles contraignantes sont fixées à l’avance (8). @

Charles de Laubier

Un « Cloud & AI Act » européen proposé fin 2025

En fait. Le 3 juillet, lors des 19e Assises du Très haut débit à Paris, la présidente de l’Arcep a appelé la Commission européenne à une régulation ex-ante du cloud et de l’IA « s’inspirant des succès de la régulation des télécoms en France ». Bruxelles prépare un « Cloud & AI Act » pour le 4e trimestre 2025.

En clair. La Commission européenne va proposer au quatrième trimestre 2025 un règlement sur « le développement de l’informatique en nuage et de l’IA ». Le Parlement européen, destinataire de cette proposition législative, pourrait débattre de ce texte dès le premier trimestre 2026.
Ce Cloud & AI Development Act (« CAIDA ») fait partie des priorités numériques de « la boussole pour la compétitivité » sur laquelle la Commission « von der Leyen II » s’est engagée en janvier 2025 (1). Ce projet est également consigné dans la lettre de mission adressée en septembre 2024 (2) à la vice-présidente exécutive de la Commission européenne, Henna Virkkunen. Pour mener ses travaux législatifs sur le futur CAIDA, la Commission européenne va s’appuyer sur les réponses à son appel à contributions qui s’est achevé le 3 juillet. « Le processus de construction [des centres de données] exige des capitaux importants, créant ainsi des barrières à l’entrée pour de nouveaux acteurs. […] Les problèmes recensés [difficultés d’accès aux ressources naturelles (énergie, eau, terres) et d’obtention des composants technologiques et des capitaux] ont (suite) les mêmes causes sous-jacentes dans l’ensemble de l’UE et nécessitent par conséquent une approche coordonnée et harmonisée », justifie l’exécutif européen dans son document soumis à consultation (3). Pour faire de l’Europe un « continent de l’IA », Bruxelles vise à « tripler les capacités des centres de données de l’UE dans les cinq à sept années à venir ». Mais la Commission européenne a sondé les parties prenantes pour savoir s’il faut des mesures « non législatives », ou bien une règlementation « souple » sinon « contraignante », voire « complète » avec une « agence distincte indépendante » chargée de l’application cohérente des mesures.
En France, l’Arcep appelle à une régulation ex-ante (les règles en général contraignantes étant fixées dès le départ) du cloud et de l’IA « à l’échelle européenne, pro-investissement, [et] s’inspirant des succès de la régulation des télécoms en France [suivi des investissements, transparence sur les conditions d’accès aux infrastructures, ouverture aux acteurs émergents] » (4). Et sa présidente, Laure de La Raudière, de mettre en garde le 3 juillet – aux Assises du très haut débit (5) – contre « une petite musique, chantant les bénéfices supposés de la dérégulation, pour favoriser les investissements ». @

L’explosion des centres de données en Europe pose de sérieux problèmes environnementaux

Les centres de données explosent, atteignant près de 10.000 installations dans le monde. La France n’échappe pas à cette demande de data centers pour y faire tourner les intelligences artificielles et les services de cloud. Ces fermes informatiques présentent un risque réel pour l’environnement.

Ils s’appellent Amazon Data Services (AWS), Equinix, OVHcloud, Data4, Telehouse, Digital Realty, Atos, Scaleway, ou encore Microsoft Azure. Ce sont les opérateurs de centres de données, dont le marché français – à l’instar de ce qui se passe dans le monde – explose pour répondre à la forte demande de l’intelligence artificielle et des services de cloud. « On entend par centres de données les installations accueillant des équipements de stockage de données numériques », définit officiellement le code des postes et des communications électroniques (CPCE). Et « on entend par opérateur de centre de données toute personne assurant la mise à la disposition des tiers d’infrastructures et d’équipements hébergés dans des centres de données » (1).

L’Europe va tripler ses centres de données
Cette course frénétique aux data centers engagée partout dans le monde correspond à un marché total dont le chiffre d’affaires est estimé à 452,5 milliards de dollars en 2025, avec une croissance annuelle moyenne de 8,3 % prévue jusqu’en 2029, ce qui devrait générer 624 milliards de dollars cette année-là, d’après une étude de Brightlio (2). Et selon Statista, la France pèserait actuellement 2,7 % de ce marché mondial (3). Des entreprises pratiquant l’informatique en nuage (dans le cloud) aux éditeurs d’IA génératives (ChatGPT, Gemini, Mistral, …), en passant par les producteurs de contenus audiovisuels, la clientèle se bouscule aux portillons.
Se pratique soit la colocation lorsque plusieurs clients installent et gèrent dans des centres de données leur(s) propre(s) réseau(x), serveurs, équipements et services de stockage, soit le co-hébergement lorsque plusieurs clients ont accès à un ou plusieurs réseaux, serveurs et équipements de stockage fournis en tant que service par l’opérateur de centres de données. Et la montée en charge promet (suite)

d’être exponentielle : lors du « Sommet pour l’action sur l’IA », en février dernier à Paris, le président de la République Emmanuel Macron a mis sur la table 109 milliards d’euros pour l’IA en France sur cinq ans, avec à la clé de nouveaux data centers à construire sur 35 sites identifiés dans l’Hexagone, lequel compte déjà 300 centres de données d’après le Conseil économique social et environnemental (Cese). Le lendemain de cette annonce, l’Arcep présidée par Laure de La Raudière (photo de droite), publiait – bien à-propos – un livret intitulé, comme pour interpeller le chef de l’Etat, « Y a-t-il une IA pour sauver la planète ? », issu du « Tribunal pour les générations futures » (4). Au niveau européenne cette fois, la Commission européenne a mis les bouchées doubles dans le cadre des 200 milliards d’euros prévus pour l’IA (5), en détaillant le 9 avril son « AI Continent Action Plan ». Objectif : « Au moins tripler la capacité des centres de données de l’UE au cours des cinq à sept prochaines années, en privilégiant les centres de données hautement durables ».
Pour y parvenir, la vice-présidente européenne en charge de la souveraineté technologique, Henna Virkkunen (photo de gauche), a annoncé qu’elle proposera « une loi sur le développement de l’informatique en nuage et de l’IA ». Côté infrastructures, la Commission européenne veut à la fois renforcer un réseau d’« usines d’IA » (AI Factories) au-delà des 13 existantes dotées de supercalculateurs européens, et mettre en place des « gigafactories d’IA » (AI Gigafactories) équipées chacune d’environ 100.000 puces d’IA, soit quatre fois plus que les usines d’IA actuelles. Cela comprend donc pour Bruxelles « des centres de données massifs pour former et développer des modèles d’IA complexes à une échelle sans précédent ». Un appel à manifestation d’intérêt pour les consortiums intéressés a été publié dans la foulée.
Les investissements privés dans les gigafactories seront en outre stimulés par le biais d’InvestAI, qui mobilisera 20 milliards d’euros d’investissements pour un maximum de cinq gigafactories d’IA dans l’Union européenne (6). Ces investissements massifs dans les centres de données dans les Vingt-sept va immanquablement accroître l’impact du numérique sur l’environnement.

Des quantités de térawatt-heures (TWh)
Est considéré comme « gros centre des données » celui dont la puissance maximale admissible en équipements informatiques est supérieure à 500 kilowatts (kW), c’est-à-dire au niveau maximal de puissance que l’installation électrique alimentant toutes les salles informatiques du data center peut fournir en instantané aux équipements informatiques hébergés dans chacune de ses salles. Mis bout-à-bout, les centres données d’un pays comme la France consomment par an des quantités de térawattheures (TWh). C’est là qu’entre la notion d’« efficacité énergétique » d’un centre de données, laquelle est généralement mesurée par l’indicateur du Power Usage Effectiveness (PUE). Il est calculé comme le rapport entre sa consommation électrique totale et la consommation électrique de ses équipements informatiques (7). Plus la valeur du PUE d’un centre de données est proche de 1, plus il est considéré comme performant d’un point de vue énergétique.

Electricité et eau court-circuitent la planète
En France, constate l’enquête annuelle de l’Arcep « Pour un numérique soutenable », publié le 17 avril (8), « la consommation électrique totale des centres de données augmentant moins vite (+ 8 % en 2023) que la consommation électrique des équipements informatiques (+ 12 %), le PUE moyen des centres de données s’améliore légèrement en 2023 (1,46 en 2023 contre 1,51 en 2022) ». Mais des disparités demeurent selon l’ancienneté du data center : s’il a été mis en service au cours des dix dernières années, il a de grande chance d’être plus efficaces énergétiquement en moyenne que celui mis en service antérieurement : « Le PUE moyen s’élève à 1,34 pour les centres de données mis en exploitation entre 2013 et 2022 (soit un peu plus d’un tiers des centres de données étudiés), tandis qu’il s’élève en moyenne à 1,54 pour ceux mis en exploitation il y a plus de dix ans (avant 2013) », relève l’étude de l’Arcep.
La consommation électrique du centre de données prend en compte l’ensemble de ses consommations, celles des équipements informatiques (capacité maximale admissible à délivrer une quantité d’énergie par unité de temps aux équipements informatiques), mais également celles des systèmes de refroidissement, de l’éclairage des bureaux, du chauffage, etc (consommation électrique). Au-delà de l’électricité, il y a l’eau. Une fois mis en service, les équipements informatiques des centres de données génèrent de la chaleur, ce qui nécessite leur refroidissement pour éviter qu’ils ne fondent ou ne grillent. Or ces solutions de refroidissement sont plus ou moins énergivores elles-aussi et ont un impact sur la ressource en eau. La quantité d’eau prélevée pour refroidir les centres de données dépend en outre des conditions météorologiques, alors les ressources en eau s’amenuisent durant les périodes de forte chaleur, là où les centres de données ont justement le plus besoin d’eau pour être refroidis. Ce sont ainsi des centaines de milliers de mètres-cubes d’eau, pour l’essentiel potable, qui sont utilisés sur une année. Outre son utilité de « liquide de refroidissement », l’eau sert aussi pour le traitement de l’air en tant qu’humidificateur, ainsi que pour le rechargement des circuits fermés, le nettoyage et l’arrosage des équipements techniques, sans parler des sanitaires pour le personnel ou les restaurants d’entreprise.
Rien qu’en France, les émissions de gaz à effet de serre (GES) émis ensemble par les acteurs du numérique que sont les fabricants de terminaux, les opérateurs télécoms et les opérateurs de centres de données dépassent largement le million de tonnes de CO2. Dans son enquête annuelle, l’Arcep a non seulement interrogé vingt-et-un opérateurs de centres de données, mais aussi quatre opérateurs télécoms (Orange, Bouygues Telecom, Free et SFR), vingt-trois fabricants de terminaux (smartphones, tablettes, ordinateurs portables, écrans d’ordinateur et téléviseurs) et quatre équipementiers de réseaux mobiles. Il en ressort qu’en 2023 le volume de GES rejeté par ces quatre catégories d’acteurs du numérique s’est élevé à 954.000 tonnes équivalent CO2, soit l’empreinte carbone annuelle de près de 102.000 personnes en France cette année-là. « Ces émissions progressent légèrement, d’environ 1 % par an depuis 2021, dans un contexte de baisse des émissions globales de gaz à effet de serre en France (- 5,8 % en 2023) », souligne l’Arcep. Il ne serait pas surprenant que les prochaines enquêtes annuelles portant sur 2024 et 2025 montrent des centres de données beaucoup plus énergivores. @

Charles de Laubier