La régulation veille à ce que les opérateurs télécoms intègrent des principes RSE/ESG

Alors que vient tout juste d’être publié le 3e volet de l’étude menée par l’Arcep et l’Ademe sur l’impact environnemental du numérique en France, les opérateurs télécoms intègrent de plus en plus des principes « RSE » et « ESG » pour notamment être éco-responsables.

Par Marta Lahuerta Escolano, avocate of counsel, Jones Day

L’empreinte environnementale des réseaux de télécommunications suscite un intérêt croissant dans le paysage numérique, compte tenu de la pénétration croissante des technologies de l’information et des communications dans notre société. Alors que ces réseaux sont vitaux pour assurer les besoins en connectivité de nos différentes activités, leur déploiement et leur utilisation génèrent des répercussions significatives sur l’environnement.

Emission CO2 du numérique en hausse
Les centres de données, les câbles sous-marins et les pylônes requièrent une alimentation électrique constante pour assurer la transmission des données. Ce qui a des conséquences en termes d’émissions de gaz à effet de serre (GES). Selon une étude de l’Agence de la transition écologique (Ademe) et l’Autorité de régulation des communications électroniques et des postes (Arcep), publiée en 2023 (1), l’empreinte carbone du numérique pourrait tripler entre 2020 et 2050 si aucune action n’était prise pour limiter la croissance de l’impact environnemental du numérique (2). Face aux enjeux environnementaux et sociaux croissants et l’essor de la régulation européenne en matière de durabilité, l’intégration des principes dits de « responsabilité sociale des entreprises » (RSE) est devenue une priorité pour les opérateurs télécoms qui sont désormais tenus de répondre à des normes plus strictes pour réduire leur impact environnemental. Le secteur numérique représente de 3 % à 4 % des émissions mondiales de GES, soit environ deux fois plus que l’aviation civile, selon le « Telco Sustainability Index » du cabinet de conseil américain BCG (3), et, selon cette fois l’Ademe, il contribue à hauteur de 2,5 % à l’empreinte carbone en France (4).

Digital Markets Act (DMA) : mais que fait l’Arcep ?

En fait. Le 26 mars, l’Organe des régulateurs européens des télécoms (Berec) – que vice-préside Laure de La Raudière (Arcep) – tiendra à Bruxelles son 12e Forum annuel pour y rencontrer opérateurs télécoms, plateformes numériques et industriels. Objectif : harmoniser l’applications des règles européennes.

En clair. Avec le Digital Markets Act (DMA), entré en vigueur le 2 mai 2023 pour réguler les activités des grandes plateformes numériques en général (1) et des six « gatekeepers » (Alphabet/Google, Amazon, Apple, ByteDance/TikTok, Meta et Microsoft) en particulier (2), l’Organe des régulateurs européens des télécoms (Berec) entre dans une nouvelle ère de la régulation numérique. L’Arcep, qui fait partie des 37 régulateurs des télécoms membres (seuls ceux des Vingt-sept ont un droit de vote), a largement contribué à l’élaboration du DMA comme sur les aspects de l’interopérabilité des services de messagerie en ligne.
C’est le cas pour les « contrôleurs d’accès » tels que Meta. Ses messageries WhatsApp et Messenger sont justement des « services de plateforme essentiels » au sens du DMA. De ce fait, la firme de Mark Zuckerberg est obligée depuis le 7 mars 2024 de garantir dans l’UE l’interopérabilité de ses deux « services de communications interpersonnelles non fondés sur la numérotation » avec ceux de « tout autre fournisseur qui propose ou a l’intention de proposer de tels services dans l’UE ». Et ce, « en fournissant sur demande et gratuitement les interfaces techniques nécessaires ou des solutions similaires qui facilitent l’interopérabilité » (3).

Les enjeux du droit d’auteur à l’ère de l’intelligence artificielle (IA) : entre exceptions et interprétations

La propriété intellectuelle est entrée dans une zone de turbulences provoquées par les IA génératives. L’utilisation d’œuvres reste soumise à l’autorisation des auteurs, mais le droit d’auteur est limité dans certains cas comme la fouille de textes et de données. L’AI Act sera à interpréter.

Par Jade Griffaton et Emma Hanoun, avocates, DJS Avocats*

La récente législation européenne sur l’intelligence artificielle (IA) – l’AI Act dans sa dernière version de compromis final datée du 26 janvier 2024 (1) (*) (**) – adopte une définition flexible de « système d’IA », désigné comme « un système basé sur des machines conçues pour fonctionner avec différents niveaux d’autonomie et d’adaptabilité après leur déploiement et qui, à partir des données qu’il reçoit, génère des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels » (2).

Exception de « fouille de textes et de données »
La question de la relation entre le droit de la propriété littéraire et artistique et l’IA est une préoccupation ancienne. Lors de la phase d’entraînement, le système d’IA reçoit des données. A ce stade, se pose la question de l’intégration de contenus protégés par le droit d’auteur aux fins du développement du système. Lors de la phase de génération, le système d’IA génère des résultats, voire des créations, à la demande de l’humain. Se pose alors la question de l’encadrement juridique de ces créations générées, en tout ou partie, par un système d’IA. Ces problématiques juridiques actuelles doivent être envisagées à la lumière des nouveaux textes destinés à réguler le domaine de l’IA, et notamment la récente proposition de règlement européen sur l’IA, et la proposition de loi française visant à encadrer l’utilisation de l’IA par le droit d’auteur (3).
De nouveaux contours de la possibilité d’utiliser des œuvres pour entraîner l’IA ? Les systèmes d’IA ont besoin, au stade de leur apprentissage et développement, d’avoir accès à de grands volumes de textes, images, vidéos et autres données. Ces contenus sont susceptibles d’être protégés par le droit d’auteur. L’objectif principal du règlement IA, dévoilé en 2021 par la Commission européenne, consiste à réguler les systèmes d’IA introduits sur le marché européen, en adoptant une approche axée sur les risques et en assurant un niveau élevé de protection des droits fondamentaux, de la santé publique, de la sécurité et de l’environnement.

Bilan de Thierry Breton à la Commission européenne

En fait. Le 1er mars, Thierry Breton, commissaire européen au Marché intérieur, était l’invité de l’Association des journalistes économiques et financiers (Ajef). A neuf mois de la fin de son mandat, il estime que « l’Union européenne a fait un pas gigantesque sur la régulation numérique », malgré « les lobbies ».

En clair. « On a fait sur la régulation du numérique un pas absolument gigantesque. […] L’une des causes principales du fait que l’on n’ait pas de géant du numérique est que l’Union européenne était fragmentée, avec vingt-sept marchés, vingt-sept régulateurs. C’était quelque chose qui est très difficile », a expliqué le 1er mars Thierry Breton, commissaire européen au Marché intérieur, devant l’Association des journalistes économiques et financiers (Ajef). Il s’est félicité des règlements mis en œuvre pour y remédier : « Pour la première fois, on a maintenant un marché européen informationnel unifié, le marché unique numérique qui va se superposer au marché unique classique, avec les règles qui sont les mêmes pour tous, avec un même régulateur ».
Le Digital Markets Act (DMA), qui impose depuis le 7 mars 2024 des obligations renforcées (1) à six « gatekeepers » (Alphabet, Amazon, Apple, ByteDance, Meta et Microsoft), a été « l’une des législations européennes les plus compliquées à faire ». Et « on a fait le DSA [Digital Services Act, ndlr] pour commencer à réguler sur ce qui se passe sur les réseaux sociaux, et croyez moi, les lobbies que j’ai eus, je n’en ai jamais tant connus de ma vie. On a résisté ; on est passé » (2).

Data Act et AI Act, ou l’art de ménager la chèvre (innovation) et le chou (droits individuels)

Le Data Act et l’AI Act ont un objectif commun : tirer profit des opportunités offertes par les données, qu’elles soient issues d’objets connectés pour le premier, ou de modèles d’intelligence artificielle pour le second, tout en protégeant les droits des individus contre les dérives.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

Les premiers mois de l’année 2024 ont été marqués par des développements substantiels sur le plan réglementaire concernant les données en Europe, développements à la lumière desquels le règlement général sur la protection des données (RGPD) est pensé de manière dynamique. Avec deux autres règlements que sont le Data Act (déjà en vigueur) et le AI Act (toujours en cours d’examen), l’Union européenne (UE) tente de préserver cet élan innovateur tout en assurant une protection efficace des droits individuels.

Socle solide de règles sur les données
Adoption du Data Act :
le 11 janvier 2024, le Conseil de l’UE a adopté le règlement portant sur des règles harmonisées en matière d’accès et d’utilisation équitables des données. Le texte vise à « relever les défis et à libérer les opportunités offertes par les données dans l’[UE], en mettant l’accent sur l’accès équitable et les droits des utilisateurs, tout en assurant la protection des données à caractère personnel » (1). Il s’inscrit dans une stratégie européenne pour les données afin de créer un marché unique des données garantissant la compétitivité et la souveraineté de l’Europe.
Projet d’AI Act : le 2 février 2024, le Conseil de l’UE a adopté à l’unanimité la proposition de règlement du Parlement européen et du Conseil de l’UE établissant des règles harmonisées concernant l’intelligence artificielle, texte pour lequel un accord avait été trouvé dès décembre 2023 (2). Ce texte est pour le moment d’une ambition unique au monde. Le Data Act et prochainement l’AI Act prendront donc place aux côtés du Digital Services Act (entré en vigueur le 25 août 2023 dans le but de responsabiliser les plateformes numériques et de lutter contre la diffusion de contenus illicites ou préjudiciables ou de produits illégaux), du Digital Markets Act (entré en vigueur le 2 mai 2023 et visant à mieux encadrer les activités économiques des grandes plateformes numériques) et du RGPD (entré en application le 25 mai 2018 dans le but de protéger les droits des personnes concernées par un traitement de leurs données personnelles).