Entraînement des IA avec les données personnelles de Facebook et d’Instagram : validation européenne ?

Une décision rendue le 23 mai 2025 par un tribunal de Cologne (OLG Köln), couplée aux échanges préalables avec la « Cnil » irlandaise (DPC) et à la mise en place des mesures proposées par cette dernière, entérine la possibilité pour Meta de lancer son projet d’entraînement des modèles d’IA.

Par Sandra Tubert, avocate associée, et Miguel Piveteau, élève avocat, Algo Avocats

Le groupe Meta Platforms utilise depuis le 27 mai 2025 les données partagées publiquement par les utilisateurs majeurs et les comptes institutionnels sur ses services Facebook et Instagram (1) : publications, photos, vidéos ou encore commentaires (exceptés les messages échangés entre utilisateurs et contenus privés), mais aussi les interactions des utilisateurs avec ses systèmes d’intelligence artificielle (IA) pour entraîner ses grands modèles de langage (LLM) comme Llama.

Décision d’un tribunal de Cologne
A la différence de X (ex-Twitter) (2), Meta a engagé un dialogue constructif avec l’autorité irlandaise de protection des données (DPC). En effet, avant que le grand public ne découvre ce nouveau projet fin mai 2024, Meta avait informé la DPC, au mois de mars 2024, de son souhait d’utiliser les contenus publics de ses utilisateurs européens de Facebook et d’Instagram pour l’entraînement de ses modèles d’IA (3). Meta avait finalement suspendu le projet, le 14 juin 2024 (4), après le dépôt de plusieurs plaintes par l’organisation autrichienne Nyob auprès de onze autorités de contrôle européennes (5) et d’échanges avec la DPC (6), laquelle avait émis des réserves concernant notamment (suite) la base légale et la transparence d’un tel traitement. Le 4 septembre 2024, la DPC avait alors demandé au Comité européen sur la protection des données (EDPB) de rendre un avis sur l’utilisation de données personnelles pour le développement et le déploiement de modèles d’IA (7). Tenant compte de cet avis du 17 décembre (8), Meta a réévalué certaines modalités de son projet (notamment le renforcement des mesures de filtrage pour réduire le risque que des données personnelles soient mémorisées par les modèles d’IA lors de la phase d’entraînement) et a fourni à la DPC une documentation actualisée dans l’optique de débuter l’entraînement de ses modèles d’IA le 27 mai 2025.
Après avoir examiné les propositions de Meta et recueilli les commentaires des autres autorités de contrôle européennes, la DPC a formulé un certain nombre de recommandations qui ont été appliquées par Meta, parmi lesquelles la simplification des formulaires d’opposition au traitement et leur accessibilité pendant plus d’un an, la fourniture d’une information claire sur les moyens permettant aux utilisateurs de contrôler les données utilisées (paramétrage des contenus en mode privé), et un délai plus long entre ces informations et le lancement du projet pour leur permettre réellement de s’y opposer (9). L’annonce de ce projet a suscité une levée de boucliers par plusieurs associations, telles que UFC-Que Choisir (10) en France ou Noyb en Autriche. Cette dernière a notamment adressé à l’entreprise une mise en demeure (11), se réservant la possibilité d’intenter une action de groupe au civil. En parallèle, une association de consommateurs allemande (VZNRW) a saisi en référé le tribunal régional supérieur de Cologne – Oberlandesgericht Köln (OLG Köln) – afin qu’il soit interdit à Meta de traiter les données personnelles partagées publiquement par les utilisateurs sur les services Facebook et Instagram afin de développer et améliorer ses IA. Dans une décision (12) rendue le 23 mai 2025, le tribunal rejette la demande de l’association (après un examen qu’il qualifie de sommaire de l’affaire, mais qui est pourtant très étayé), et ne remet pas en cause la légalité du projet de Meta. En effet, en s’appuyant sur une argumentation documentée, conforme à l’avis de l’EDPB et enrichie de l’avis circonstancié des autorités de contrôle des Länder du Bade-Wurtemberg et d’Hambourg, il a écarté, un à un, les griefs soulevés tenant à : la violation du Digital Markets Act (DMA) ; l’impossibilité pour Meta de fonder le traitement sur l’intérêt légitime ; et l’absence d’exception autorisant le traitement de données sensibles. L’OLG Köln a d’abord estimé que la constitution d’une base de données d’entraînement au moyen des données publiques issues des services Facebook et Instagram ne violait pas le DMA (13) – Meta étant désigné comme contrôleur d’accès par la Commission européenne pour ces services essentiels.

Gatekeeper : pas de violation du DMA
Le DMA interdit à tout contrôleur d’accès de combiner, sans consentement préalable de l’utilisateur, les données personnelles provenant d’un service essentiel, qu’il propose aux utilisateurs, avec celles provenant d’un autre service. Selon le tribunal, le fait que Meta introduise des données partiellement désidentifiées et fragmentées provenant de deux services de plateforme dans un ensemble non structuré de données d’entraînement ne constitue pas une combinaison de données, au sens du DMA, en l’absence de lien et mise en relation des données personnelles d’un utilisateur provenant d’un service à celles du même utilisateur provenant d’un autre service. L’OLG Köln valide ensuite le recours à l’intérêt légitime comme base légale de traitement, en réalisant une analyse complète, s’appuyant sur les différents critères exigés par l’EDPB. Le tribunal y reconnaît ainsi que l’intérêt poursuivi, à savoir proposer une IA générative optimisée en fonction des habitudes régionales, quoique commercial, est légitime, puis que le traitement envisagé par Meta s’avère nécessaire pour atteindre cet intérêt en l’absence d’un moyen moins intrusif.

Rapport de Meta pour octobre 2025
Pour démontrer cette nécessité, le tribunal de Cologne mobilise l’AI Act (14) qui reconnaît expressément que le développement et l’entraînement des modèles d’IA génératifs requièrent un accès à de grandes quantités de données (15). S’agissant des moyens moins intrusifs proposés notamment par l’association – à savoir le fait d’utiliser uniquement des données anonymisées ou synthétiques (données qui ne sont pas issues d’une observation réelle, mais qui sont créées artificiellement via des simulations), ou de restreindre l’entraînement aux seules données d’interaction avec les systèmes d’IA –, ils ne permettraient pas, selon l’OLG Köln, d’obtenir des résultats comparables.
Enfin, la mise en balance de l’intérêt légitime poursuivi par Meta avec les intérêts et droits des personnes concernées est jugée adéquate. Le tribunal allemand a identifié les conséquences négatives du traitement, notamment les atteintes aux droits des personnes de décider et contrôler l’usage de leurs données et au droit à l’effacement. Ces conséquences négatives sont toutefois tempérées en raison, d’une part, du caractère public des données traitées limitant les risques liés à une divulgation (puisque ces données sont déjà accessibles librement), et, d’autre part, des mesures de mitigation mises en place par Meta. Sont soulignées les mesures visant à réduire le caractère identifiant des données (incluant la tokenisation) et à les rassembler sous une forme non structurée. Sont également mises au crédit de Meta les possibilités offertes aux utilisateurs pour empêcher l’inclusion de leurs données dans la base d’entraînement : le retrait du statut « public » de leurs publications ou de leur compte ainsi que l’opposition au traitement spécifique des données pour entraîner les modèles d’IA par l’intermédiaire de deux formulaires disponibles en ligne. L’OLG Köln a estimé que l’opposition pouvait ainsi être exercée sans difficulté et de manière éclairée par l’utilisateur dans un délai suffisant (six semaines avant la mise en œuvre effective du traitement). La décision laisse toutefois en suspens la question du caractère effectif de cette possibilité d’opposition pour les tiers non-utilisateurs cités dans les publications ou commentaires. Concernant les attentes raisonnables des personnes concernées, le traitement des données publiées à partir du 26 juin 2024 est jugé prévisible pour les utilisateurs qui ont été informés de ce traitement par l’annonce du 10 juin 2024. S’agissant des données publiées antérieurement, leur traitement n’est, en revanche, pas jugé prévisible car sa finalité n’est pas d’améliorer les services existants de Meta mais de développer des IA utilisables de manière autonome et accessibles à tous. Cette absence de prévisibilité n’est toutefois pas vue comme une difficulté pour la juridiction qui justifie l’absence d’interdiction de traiter ces données au motif que les utilisateurs disposent d’un instrument d’opposition efficace. Enfin, le traitement des données sensibles des utilisateurs est autorisé car il porte sur des données manifestement rendues publiques par l’utilisateur, l’une des exceptions prévues à l’article 9 du RGPD. S’agissant des données sensibles de tiers partagées par les utilisateurs via des publications, le tribunal de Cologne reconnaît que l’exception précédente ne peut pas être mobilisée, mais estime – en s’appuyant notamment sur une jurisprudence de la Cour de Justice de l’UE de 2019 (qui n’aborde pourtant pas cette problématique précise (16)) et sur le fait qu’une application littérale de l’article 9 du RGPD ne permettrait pas d’atteindre les objectifs de l’AI Act – que Meta peut traiter ces données de manière incidente et résiduelle jusqu’à ce que l’interdiction de le faire soit sollicitée par le tiers concerné. Cette décision de l’OLG Köln, couplée aux échanges avec la DPC et à la mise en place des mesures proposées par cette dernière – enrichies de l’avis des autres autorités de l’UE –, entérinent donc la possibilité pour Meta de lancer son projet d’entraînement des modèles d’IA. Mais l’entreprise ne bénéficie pas d’un blanc-seing pour autant.
La DPC suit de près le déploiement du projet et attend un rapport complet de Meta pour le mois d’octobre 2025 contenant, entre autres, des développements sur l’efficacité et l’adéquation des mesures. En parallèle, les autorités de l’UE collaborent (17) pour évaluer plus largement la conformité des traitements envisagés par Meta, notamment en lien avec la phase de déploiement des systèmes d’IA qui pose d’autres questions au regard du RGPD. Meta n’est donc pas totalement à l’abri de l’engagement d’une procédure de sanction par la DPC si des manquements sont constatés. Enfin, bien que la Cnil ne se soit pas officiellement positionnée sur la licéité des pratiques de Meta, la récente mise à jour de ses fiches sur la mobilisation de l’intérêt légitime pour développer un système d’IA (18) témoigne d’une certaine tolérance concernant ce type de pratiques.

Position de la Cnil sur l’intérêt légitime
La Cnil, ayant pris en compte les retours du terrain, y a notamment précisé que l’intérêt commercial entourant les projets de développement de systèmes d’IA par les entreprises constituait un intérêt légitime à part entière. Elle a également admis que cette base légale pouvait être mobilisée par un réseau social qui collecte des données d’utilisateurs rendues librement accessibles et manifestement publiques sur son forum en ligne afin de développer un agent conversationnel. Cette prise en compte par la Cnil des réalités économiques et opérationnelles est bienvenue et rassurera les développeurs de systèmes d’IA qui envisagent d’utiliser ou de constituer de grandes bases de données pour entraîner leurs modèles. @

L’explosion des centres de données en Europe pose de sérieux problèmes environnementaux

Les centres de données explosent, atteignant près de 10.000 installations dans le monde. La France n’échappe pas à cette demande de data centers pour y faire tourner les intelligences artificielles et les services de cloud. Ces fermes informatiques présentent un risque réel pour l’environnement.

Ils s’appellent Amazon Data Services (AWS), Equinix, OVHcloud, Data4, Telehouse, Digital Realty, Atos, Scaleway, ou encore Microsoft Azure. Ce sont les opérateurs de centres de données, dont le marché français – à l’instar de ce qui se passe dans le monde – explose pour répondre à la forte demande de l’intelligence artificielle et des services de cloud. « On entend par centres de données les installations accueillant des équipements de stockage de données numériques », définit officiellement le code des postes et des communications électroniques (CPCE). Et « on entend par opérateur de centre de données toute personne assurant la mise à la disposition des tiers d’infrastructures et d’équipements hébergés dans des centres de données » (1).

L’Europe va tripler ses centres de données
Cette course frénétique aux data centers engagée partout dans le monde correspond à un marché total dont le chiffre d’affaires est estimé à 452,5 milliards de dollars en 2025, avec une croissance annuelle moyenne de 8,3 % prévue jusqu’en 2029, ce qui devrait générer 624 milliards de dollars cette année-là, d’après une étude de Brightlio (2). Et selon Statista, la France pèserait actuellement 2,7 % de ce marché mondial (3). Des entreprises pratiquant l’informatique en nuage (dans le cloud) aux éditeurs d’IA génératives (ChatGPT, Gemini, Mistral, …), en passant par les producteurs de contenus audiovisuels, la clientèle se bouscule aux portillons.
Se pratique soit la colocation lorsque plusieurs clients installent et gèrent dans des centres de données leur(s) propre(s) réseau(x), serveurs, équipements et services de stockage, soit le co-hébergement lorsque plusieurs clients ont accès à un ou plusieurs réseaux, serveurs et équipements de stockage fournis en tant que service par l’opérateur de centres de données. Et la montée en charge promet (suite)

d’être exponentielle : lors du « Sommet pour l’action sur l’IA », en février dernier à Paris, le président de la République Emmanuel Macron a mis sur la table 109 milliards d’euros pour l’IA en France sur cinq ans, avec à la clé de nouveaux data centers à construire sur 35 sites identifiés dans l’Hexagone, lequel compte déjà 300 centres de données d’après le Conseil économique social et environnemental (Cese). Le lendemain de cette annonce, l’Arcep présidée par Laure de La Raudière (photo de droite), publiait – bien à-propos – un livret intitulé, comme pour interpeller le chef de l’Etat, « Y a-t-il une IA pour sauver la planète ? », issu du « Tribunal pour les générations futures » (4). Au niveau européenne cette fois, la Commission européenne a mis les bouchées doubles dans le cadre des 200 milliards d’euros prévus pour l’IA (5), en détaillant le 9 avril son « AI Continent Action Plan ». Objectif : « Au moins tripler la capacité des centres de données de l’UE au cours des cinq à sept prochaines années, en privilégiant les centres de données hautement durables ».
Pour y parvenir, la vice-présidente européenne en charge de la souveraineté technologique, Henna Virkkunen (photo de gauche), a annoncé qu’elle proposera « une loi sur le développement de l’informatique en nuage et de l’IA ». Côté infrastructures, la Commission européenne veut à la fois renforcer un réseau d’« usines d’IA » (AI Factories) au-delà des 13 existantes dotées de supercalculateurs européens, et mettre en place des « gigafactories d’IA » (AI Gigafactories) équipées chacune d’environ 100.000 puces d’IA, soit quatre fois plus que les usines d’IA actuelles. Cela comprend donc pour Bruxelles « des centres de données massifs pour former et développer des modèles d’IA complexes à une échelle sans précédent ». Un appel à manifestation d’intérêt pour les consortiums intéressés a été publié dans la foulée.
Les investissements privés dans les gigafactories seront en outre stimulés par le biais d’InvestAI, qui mobilisera 20 milliards d’euros d’investissements pour un maximum de cinq gigafactories d’IA dans l’Union européenne (6). Ces investissements massifs dans les centres de données dans les Vingt-sept va immanquablement accroître l’impact du numérique sur l’environnement.

Des quantités de térawatt-heures (TWh)
Est considéré comme « gros centre des données » celui dont la puissance maximale admissible en équipements informatiques est supérieure à 500 kilowatts (kW), c’est-à-dire au niveau maximal de puissance que l’installation électrique alimentant toutes les salles informatiques du data center peut fournir en instantané aux équipements informatiques hébergés dans chacune de ses salles. Mis bout-à-bout, les centres données d’un pays comme la France consomment par an des quantités de térawattheures (TWh). C’est là qu’entre la notion d’« efficacité énergétique » d’un centre de données, laquelle est généralement mesurée par l’indicateur du Power Usage Effectiveness (PUE). Il est calculé comme le rapport entre sa consommation électrique totale et la consommation électrique de ses équipements informatiques (7). Plus la valeur du PUE d’un centre de données est proche de 1, plus il est considéré comme performant d’un point de vue énergétique.

Electricité et eau court-circuitent la planète
En France, constate l’enquête annuelle de l’Arcep « Pour un numérique soutenable », publié le 17 avril (8), « la consommation électrique totale des centres de données augmentant moins vite (+ 8 % en 2023) que la consommation électrique des équipements informatiques (+ 12 %), le PUE moyen des centres de données s’améliore légèrement en 2023 (1,46 en 2023 contre 1,51 en 2022) ». Mais des disparités demeurent selon l’ancienneté du data center : s’il a été mis en service au cours des dix dernières années, il a de grande chance d’être plus efficaces énergétiquement en moyenne que celui mis en service antérieurement : « Le PUE moyen s’élève à 1,34 pour les centres de données mis en exploitation entre 2013 et 2022 (soit un peu plus d’un tiers des centres de données étudiés), tandis qu’il s’élève en moyenne à 1,54 pour ceux mis en exploitation il y a plus de dix ans (avant 2013) », relève l’étude de l’Arcep.
La consommation électrique du centre de données prend en compte l’ensemble de ses consommations, celles des équipements informatiques (capacité maximale admissible à délivrer une quantité d’énergie par unité de temps aux équipements informatiques), mais également celles des systèmes de refroidissement, de l’éclairage des bureaux, du chauffage, etc (consommation électrique). Au-delà de l’électricité, il y a l’eau. Une fois mis en service, les équipements informatiques des centres de données génèrent de la chaleur, ce qui nécessite leur refroidissement pour éviter qu’ils ne fondent ou ne grillent. Or ces solutions de refroidissement sont plus ou moins énergivores elles-aussi et ont un impact sur la ressource en eau. La quantité d’eau prélevée pour refroidir les centres de données dépend en outre des conditions météorologiques, alors les ressources en eau s’amenuisent durant les périodes de forte chaleur, là où les centres de données ont justement le plus besoin d’eau pour être refroidis. Ce sont ainsi des centaines de milliers de mètres-cubes d’eau, pour l’essentiel potable, qui sont utilisés sur une année. Outre son utilité de « liquide de refroidissement », l’eau sert aussi pour le traitement de l’air en tant qu’humidificateur, ainsi que pour le rechargement des circuits fermés, le nettoyage et l’arrosage des équipements techniques, sans parler des sanitaires pour le personnel ou les restaurants d’entreprise.
Rien qu’en France, les émissions de gaz à effet de serre (GES) émis ensemble par les acteurs du numérique que sont les fabricants de terminaux, les opérateurs télécoms et les opérateurs de centres de données dépassent largement le million de tonnes de CO2. Dans son enquête annuelle, l’Arcep a non seulement interrogé vingt-et-un opérateurs de centres de données, mais aussi quatre opérateurs télécoms (Orange, Bouygues Telecom, Free et SFR), vingt-trois fabricants de terminaux (smartphones, tablettes, ordinateurs portables, écrans d’ordinateur et téléviseurs) et quatre équipementiers de réseaux mobiles. Il en ressort qu’en 2023 le volume de GES rejeté par ces quatre catégories d’acteurs du numérique s’est élevé à 954.000 tonnes équivalent CO2, soit l’empreinte carbone annuelle de près de 102.000 personnes en France cette année-là. « Ces émissions progressent légèrement, d’environ 1 % par an depuis 2021, dans un contexte de baisse des émissions globales de gaz à effet de serre en France (- 5,8 % en 2023) », souligne l’Arcep. Il ne serait pas surprenant que les prochaines enquêtes annuelles portant sur 2024 et 2025 montrent des centres de données beaucoup plus énergivores. @

Charles de Laubier

Le numérique encerclé par l’écologie et… l’Arcep

En fait. Le 14 décembre, l’Arcep a twitté. « Pour un #numériquesoutenable : un nouveau pouvoir de collecte pour l’@Arcep [bras montrant ses biceps] ! Il permettra la collecte de données sur l’empreinte environnementale de l’ensemble de l’écosystème numérique », a lancé le régulateur des télécoms présidé par Laure de La Raudière.

En clair. La proposition de loi visant à renforcer la régulation environnementale du numérique par l’Arcep a été adoptée le 13 décembre à l’unanimité et… avec applaudissements sur les bancs du groupe de la majorité présidentielle (1). Le gendarme des télécoms – et désormais régulateur environnemental du numérique – n’a pas manqué le lendemain sur Twitter de montrer ses muscles : « Pour un #numériquesoutenable : un nouveau pouvoir de collecte pour l’@Arcep [bras gonflant ses biceps] ! Il permettra la collecte de données sur l’empreinte environnementale de l’ensemble de l’écosystème numérique » (2). Ainsi, toute la filière digitale de France devra montrer pattes blanches au regard du digital vert : l’Arcep aura désormais – à partir du 1er janvier 2022 – un pouvoir d’enquête écologique par la collecte de données environnementales.
Sans pouvoir leur opposer le secret des affaires ni la confidentialité, les entreprises concernées seront tenues de fournir aux agents assermentés de l’Arcep les informations et documents demandés en rapport avec « l’empreinte environnementale du secteur des communications électroniques ou des secteurs étroitement liés à celui-ci ». Non seulement les opérateurs télécoms et fournisseurs d’accès à Internet – au premier rang desquels Orange, Bouygues Telecom, Free et SFR – seront obligés de jouer le jeu, mais aussi tous les autres « fournisseurs de services de communication au public en ligne », ainsi que les « opérateurs de centre de données » (cloud), « fabricants d’équipements terminaux », « équipementiers de réseaux » et « fournisseurs de systèmes d’exploitation ».
Objectif : s’assurer que tout ce monde-là respect les principes et obligations qui leur sont imposées par le code des postes et des communications électroniques (3). Le gendarme des télécoms se servira aussi de ses données pour élaborer le « baromètre environnemental du numérique » que prévoit une autre loi : la « Reen », à savoir la loi visant à réduire l’empreinte environnementale du numérique en France, laquelle a été promulguée le 16 novembre dernier (4). En cas manquement, les sanctions pécuniaires pourront pleuvoir : jusqu’à 3% du chiffre d’affaires mondial de l’entreprise en cause, voire 5% en cas de récidive. Pour éviter de se faire épingler, les opérateurs télécoms ont présenté le 15 décembre leur « charte pour un numérique durable » (5). Et ce n’est pas du greenwashing. @

Orange : stratégie 2020-2025 et « raison d’être »

En fait. Le 21 novembre, Fabienne Dulac, directrice exécutive d’Orange France, est intervenue lors de la 30e édition du colloque NPA-Le Figaro. Si elle n’a pas évoqué le prochain plan stratégique 2020-2025 que Stéphane Richard dévoilera le 10 décembre prochain, elle en a donné un avant-goût de sa « raison d’être ».

En clair. Depuis que la loi « Pacte » (1) a été promulguée et publiée au Journal Officiel du 23 mai, Orange s’active pour préciser dans ses statuts sa « raison d’être » (principes dont la société se dote et pour le respect desquels elle entend affecter des moyens dans la réalisation de son activité). Le PDG d’Orange, Stéphane Richard, dévoilera le 10 décembre la « raison d’être » du groupe à la lumière des propositions faites par les salariés sollicités en amont. Cette grand-messe interviendra au moment où le nouveau plan stratégique 2020- 2025 sera présenté aux organisations syndicales (CGC-CFE, CFDT, CGT, FO, Sud et CFTC), et avant la réunion d’un comité extraordinaire du groupe prévu le 22 janvier 2020. Lors du colloque NPA du 21 novembre, Fabienne Dulac, directrice exécutive d’Orange France, a rappelé que le groupe a déployé depuis 2017 sa philosophie « Human Inside » (2), en replaçant l’humain au cœur de sa stratégie – après notamment « une crise sociale majeure vécue il y a dix ans ». La présentation de la « raison d’être » d’Orange précèdera d’ailleurs de dix jour le verdict – attendu le 20 décembre – du tribunal correctionnel de Paris dans le procès de France Télécom et de ses ex-dirigeants, dont l’ancien PDG Didier Lombard, jugés pour « harcèlement moral » – dix ans après les suicides de plusieurs salariés. « Essayer d’être une entreprise avec une vocation Tech for Good, c’est d’abord partir de ses équipes en les accompagnant et en donnant du sens », a assuré Fabienne Dulac.
Orange compte quelque 150.000 salariés dans le monde, dont 90.000 en France. Cela passe par l’inclusion numérique (réseau, équipement, usages), l’empreinte environnementale (consommation énergétique et émission de CO2) et le maintien de l’humain dans le processus décisionnel (emplois, métiers, futures compétences). Pour illustrer sa démarche misant sur « le collectif », la directrice d’Orange France est revenue sur la Livebox 5, première box « éco-conçue » (3) lancée en octobre : «Nous avons fait le choix de ne pas embarquer le Wifi 6 car seuls 1% des Français sont capables de l’utiliser aujourd’hui, 4% fin 2020. Le Wifi 6 consomme plus d’énergie et émet plus de CO2. La presse tech a considéré que les ingénieurs d’Orange s’endormaient et avaient oublié l’innovation ! Non, on ne l’a pas oubliée. Mais cette box n’anticipe pas cinq ou dix ans, avec une empreinte environnementale qui n’a pas de sens ». @