Président d’Orange : pas d’ancien pour Heydemann

En fait. Le 23 février, une source interne chez Orange a indiqué à Edition Multimédi@ que « la directrice générale Christel Heydemann s’oppose à tout ancien d’Orange » pour succéder à Jacques Aschenbroich, président du conseil d’administration depuis mai 2022, dont le mandat se termine le 19 mai 2026.

En clair. Christel Heydemann ne veut pas d’un revenant pour succéder à Jacques Aschenbroich à la présidence d’Orange. « La directrice générale s’oppose à tout ancien d’Orange à la présidence du conseil d’administration du groupe », indique à Edition Multimédi@ un dirigeant du premier opérateur télécoms français. De quoi contrarier les velléités de Pierre Louette, Bruno Mettling ou Stéphane Richard. Leurs noms font partie de ceux qui circulent comme candidats potentiels.
Pierre Louette, qui a quitté le 1er février le groupe Les Echos-Le Parisien de LVMH (1) au bout de huit ans (2018-2026), a été directeur général délégué et secrétaire général d’Orange (2010-2018). Bruno Mettling, lui, président du cabinet de conseil Topics qu’il a fondé, a passé plus de huit ans chez Orange (2010- 2018) où il a été successivement directeur emplois/compétences d’Orange Campus, directeur des ressources humaines d’Orange, puis directeur général adjoint du groupe et PDG d’Orange Moyen-Orient et Afrique. Quant à Stéphane Richard, associé du cabinet de conseil financier Perella Weinberg depuis 2022, il (suite) fut PDG d’Orange de 2011 jusqu’à sa démission en janvier 2022, suite à sa condamnation en novembre 2021 à un an de prison avec sursis et 50.000 euros d’amende pour « complicité de détournement de biens publics » (2) dans l’affaire Tapie-CDR (verdict en partie annulé en cassation en 2023).
Gilles Grapinet, lui, a donc l’avantage de ne pas être un ancien d’Orange. Inspecteur des finances à ses débuts, il a été conseiller économique et financier du Premier ministre Jean-Pierre Raffarin (2003-2004), puis directeur de cabinet de… Thierry Breton (ancien PDG de France Télécoms de 2002 à 2005), alors ministre de l’Economie, des Finances et de l’Industrie (2005-2007). Comme ce dernier, Gilles Grapinet est un ancien d’Atos (2008- 2019), dont il fut DG puis président de sa filiale Worldline (3) jusqu’à sa démission en septembre 2024 sur fond de déboires financiers et chute de 95 % en Bourse. Gilles Grapinet tiendrait la corde pour succéder à Jacques Aschenbroich. Son atout : il est déjà administrateur d’Orange, dont il est président du comité d’audit depuis 2023. Mais, selon nos informations, « Nicolas Dufourcq [ancien de France Télécom et actuel directeur de Bpifrance, ndlr] est farouchement hostile » à sa nomination. L’Etat détient au total 23 % du capital d’Orange, dont 9,5 % via Bpifrance. A moins que cela ne soit Guillaume Pepy. @

Le Space Act veut « européaniser » le droit spatial à l’heure des très grandes constellations

Alors que les deux seules gigaconstellations, dont la commercialisation débutera en Europe début 2026, sont américaines (Kuiper d’Amazon avec 3.200 satellites et Starlink de SpaceX avec 6.750), le Parlement européen a commencé à examiner la législation spatiale pour l’UE – le « Space Act ».

Par Mathilde Dubois, collaboratrice, Marta Lahuerta Escolano, associée, Jones Day

Le projet de législation spatiale pour l’Union européenne (UE), le « Space Act » présenté le 25 juin 2025 par la Commission européenne, affiche clairement son ambition de doter l’Europe – avant 2030 – d’un cadre normatif unifié régissant les activités spatiales civiles et commerciales. Attendu depuis plusieurs années, ce texte s’inscrit dans un contexte de profonde mutation du secteur spatial, marqué par l’essor d’acteurs privés, la multiplication des lancements, la congestion des orbites et la montée en puissance de nouvelles nations spatiales hors Europe.

Défragmenter le cadre spatial européen
A travers cette initiative législative, actuellement examinée par les commissions du Parlement européen (1) en vue de l’adoption du règlement en 2026 ou 2027, l’UE s’apprête à franchir un tournant majeur dans la construction de son autonomie stratégique et juridique dans le domaine spatial. Jusqu’à présent, la régulation des activités spatiales au sein des Vingt-sept relevait principalement de la compétence de chaque Etat membre. D’après le registre des Nations Unies listant les législations spatiales des Etats (2), treize législations nationales étaient en vigueur dans l’UE à la fin de l’année 2024. En France, le cadre national repose sur la loi « Opérations spatiales » (3) de 2008. En Italie, la loi « Economie spatiale » (4) est entrée en vigueur le 25 juin 2025 – soit le même jour que la présentation du Space Act. Quelques pays comme l’Espagne ou l’Estonie ont également annoncé préparer des dispositifs législatifs régissant les activités spatiales (5).
Les dispositifs nationaux européens s’adossent aux traités spatiaux des Nations Unies (6). Parmi eux, le Traité de l’Espace (7), entré en vigueur le 10 octobre 1967, ou encore la Convention sur l’immatriculation des objets lancés dans l’espace extra-atmosphérique, entrée en vigueur le 15 septembre 1976. Au niveau de l’UE, (suite) les instruments juridiques spécifiquement dédiés à l’espace demeurent limités. On peut citer la directive « Sécurité des réseaux et des systèmes d’information » (8), dite NIS 2, où l’espace et les exploitants d’infrastructures terrestres, détenues, gérées et exploitées par des Etats membres ou par des parties privées, qui soutiennent la fourniture de services spatiaux, à l’exclusion des fournisseurs de réseaux de communications électroniques publics, ont été inclus dans la liste des « secteurs hautement critiques » (9). En l’absence d’harmonisation régionale, cette mosaïque de normes nationales est de nature à engendrer des incohérences, et des exigences de mise en conformité accrues pour les opérateurs menant des activités spatiales transfrontalières.
Le nombre de satellites opérationnels en orbite terrestre a doublé entre 2020 et 2023, pour dépasser les 9.000. D’ici 2030, les 60.000 pourraient être franchis, d’après le service de recherche parlementaire européen (10). En dehors de ces satellites opérationnels, l’Agence spatiale européenne (ESA) estime que plus de 15.100 tonnes d’objets spatiaux gravitaient autour de la Terre au 21 octobre 2025 (11).
Dans ce contexte de croissance exponentielle du nombre d’objets actifs et inactifs en orbite – et du risque accru de collision qui en découle – ainsi que de la fragmentation du cadre juridique européen, la France a été une fervente supportrice d’une réforme réglementaire à l’échelle européenne. Le 5 mars 2024, l’Assemblée nationale a ainsi adopté une résolution relative à l’adoption d’une loi européenne sur l’espace (12), qui appelle notamment la Commission européenne à proposer « un cadre juridique clair et lisible propice à l’accompagnement et au développement des acteurs européens du spatial, en clarifiant les règles du marché intérieur et en imposant le même niveau d’exigence aux acteurs non européens fournissant des services au sein de l’Union » (13). Au niveau européen, l’économie spatiale et la législation spatiale de l’UE ont également été définies comme une priorité essentielle pour la Commission européenne.

Les préconisations « Letta » et « Draghi »
A cet égard, le rapport « Letta » (14) sur l’avenir du marché unique, remis en avril 2024, souligne qu’« un secteur spatial dynamique, capable de prospérer dans un contexte de concurrence mondiale acharnée et de fournir les instruments appropriés pour l’autonomie stratégique et la sécurité de l’Europe, est essentiel pour l’avenir de l’Europe ». Pour y parvenir, le rapport Letta estime que l’approche actuelle – notamment caractérisée par la fragmentation des acteurs institutionnels et des règles – doit être révisée. Quant au rapport « Draghi » (15) sur l’avenir de la compétitivité européenne, publié en septembre 2024, il plaide quant à lui en faveur d’un « marché unique opérationnel de l’espace, assorti de normes communes » (16). Plus récemment, la Commission européenne a indiqué que les opérations spatiales étaient cruciales pour une économie connectée (17), et que, souligne sa « boussole pour la compétitivité », le « Space Act préservera et améliorera le fonctionnement du marché intérieur des activités spatiales grâce à un ensemble de mesures qui, au niveau de l’Union, harmonisent les exigences en matière de sécurité, de résilience et de durabilité des activités spatiales, et éliminent la fragmentation découlant des législations nationales » (18).

Harmonisation et extraterritorialité
Enfin, deux communications récentes de la Commission européenne – l’« Approche de l’UE en matière de gestion du trafic spatial » (19) et la « Stratégie spatiale de l’UE pour la sécurité et la défense » (20) – ont également fait écho à la demande des Etats membres d’instaurer un cadre réglementaire harmonisé. Le Space Act (21) s’appuie sur l’article 114 du Traité sur le fonctionnement de l’Union européenne (TFUE), et vise à harmoniser les conditions d’accès et d’exercice des activités spatiales au sein du marché intérieur de l’UE. Cette initiative repose sur trois axes majeurs (22) :
la sécurité, par le renforcement du suivi des objets spatiaux et la prévention de la prolifération des débris, notamment grâce à des obligations de désorbitation en fin de vie ;
la résilience, à travers une évaluation continue des risques tout au long du cycle de vie des satellites ;
la durabilité, fondée sur des règles communes d’évaluation de l’impact environnemental afin de réduire l’empreinte écologique du secteur spatial et de soutenir les objectifs de durabilité de l’UE. Le champ d’application du Space Act est large, et fondé sur la fourniture de données ou de services spatiaux dans l’UE (23). Le texte définit ainsi un « opérateur de pays tiers » comme tout opérateur établi hors des Vingt-sept qui : soit fournit des services spatiaux à des opérateurs de l’UE ou en lien avec des actifs spatiaux pertinents, soit agit comme fournisseur primaire de données spatiales, soit encore fournit des services aux fournisseurs primaires de ces données (24).
L’assujettissement aux exigences du Space Act n’est donc pas lié à la nationalité mais à la nature de l’activité exercée. Ces opérateurs doivent être enregistrés dans le Registre européen des objets spatiaux (URSO), être titulaires d’un e-certificat, et désigner un représentant légal dans l’UE garantissant la coopération effective avec les autorités compétentes (25). La portée extraterritoriale du Space Act se manifeste notamment dans la régulation des constellations de satellites : d’un côté, des projets privés comme Kuiper d’Amazon qui annonce le déploiement de plus de 3.200 satellites, de l’autre, des opérateurs commerciaux comme Starlink de SpaceX qui exploite actuellement la plus vaste constellation mondiale avec plus de 6.750 satellites actuellement en orbite. Cette dimension globale illustre l’enjeu majeur pour l’UE de se doter d’une gouvernance capable d’encadrer des activités spatiales qui dépassent ses frontières terrestres et s’inscrivent dans un environnement orbital désormais mondialisé, qu’il faut organiser et protéger. Le Space Act hiérarchise les obligations selon la taille des constellations (26), en distinguant les constellations (10 à 99 satellites), les mégaconstellations (100 à 999) et les gigaconstellations (≥ 1 000). Pour ces dernières, où Kuiper et Starlink sont pour l’instant les seules de cette taille (loin devant Iris2 de l’UE (27)), des exigences renforcées s’appliquent, notamment la démonstration d’une capacité suffisante de manœuvre pour répondre au nombre anticipé d’évitements de collision. Ces prescriptions, applicables indifféremment aux opérateurs de l’UE et des pays tiers dès lors que leurs services sont proposés dans l’UE, matérialisent l’ambition européenne de préserver la soutenabilité orbitale à l’heure où les systèmes à très grande échelle se multiplient. A titre illustratif, la constellation Iris2 de l’UE est projetée à environ 300 satellites, bien en-deçà du seuil de la gigaconstellation.
Le Space Act organise par ailleurs la reconnaissance des normes étrangères par un mécanismes de décisions d’équivalence (28). Ce dispositif confère à l’Union européenne un rôle de régulateur global de facto, influençant une part importante des activités spatiales internationales dès lors qu’elles interagissent avec le marché européen ou ses infrastructures. Cette approche rappelle les dynamiques déjà observées dans d’autres domaines régulés par l’Europe, tels que la protection des données ou la cybersécurité. Cependant, cette projection internationale comporte certaines limites, quelques prérogatives demeurant du ressort exclusif des Etats membres, notamment en matière de sécurité nationale (29).

Gouvernance spatiale plus structurée
En définitive, le Space Act constitue une étape importante dans la consolidation d’un cadre juridique européen cohérent pour les activités spatiales. Par sa portée et ses ambitions, il pourrait s’affirmer comme une référence normative audelà des frontières de l’UE, en influençant l’élaboration de cadres juridiques similaires dans d’autres régions du monde. Ainsi, le Space Act participe à la définition progressive d’une gouvernance spatiale internationale plus structurée, fondée sur des standards communs et sur la recherche d’un équilibre entre innovation, sécurité et responsabilité. @

* Tous les points de vue ou opinions
exprimés dans cet article sont personnels et
n’appartiennent qu’aux auteurs, et ne reflètent en aucun
cas la position du cabinet Jones Day sur ce sujet.

Gouvernance des autorités pour l’AI Act : multiplier les régulateurs pourrait être contreproductif

La France va se doter – si une loi était adoptée en 2026 – d’une gouvernance sectorielle pour l’IA, pilotée par la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Mais la multiplicité des régulateurs pourrait compliquer la tâche des entreprises.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

La Direction générale des entreprises (DGE), qui dépend du ministère de l’Economie et des Finances, a publié le 9 septembre 2025 un projet de désignation des autorités nationales chargées de la mise en œuvre en France du règlement européen sur l’intelligence artificielle (AI Act). Sous la coordination de la DGE et de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), ce projet instaure un schéma décentralisé et sectoriel de gouvernance s’appuyant sur les régulateurs existants en France.

La DGCCRF centralise la coordination
Ce modèle s’inscrit dans le cadre de l’AI Act (1) et des dispositions de son article 70 qui impose la désignation d’autorités nationales de notification et de surveillance du marché dans chaque Etat membre. Cette proposition de gouvernance sectorielle et décentralisée doit être présentée au Parlement sous la forme d’un projet de loi. Il ne sera donc définitif qu’après un vote législatif, très probablement dans le courant du premier semestre 2026. Le schéma retenu par le gouvernement prévoit que la mise en œuvre effective de ce règlement européen sur l’IA sera supervisée par plusieurs autorités compétentes, conformément aux orientations proposées par cet AI Act. Dès lors, les administrations, agences et autorités spécialisées – selon leur secteur d’intervention – auront la charge de contrôler les systèmes d’intelligence artificielle, une fois mis sur le marché ou en service.
La DGCCRF centralisera la coordination opérationnelle entre diverses autorités sectorielles impliquées dans le contrôle des systèmes d’IA. Elle sera ainsi l’interlocuteur principal pour les autorités européennes et facilitera l’échange d’informations et la coopération entre les différents régulateurs nationaux. Elle agira comme un point de contact unique, pour la France auprès des instances européennes, sur les questions liées à la surveillance du marché de l’IA. Ce rôle de coordination s’inscrit dans une organisation bicéphale où la DGCCRF assurera la supervision pratique sur le terrain, tandis que la DGE apportera son soutien à la mise en œuvre de l’AI Act. A ce titre, la DGE jouera un rôle-clé dans l’organisation de la gouvernance nationale de ce règlement européen, notamment en (suite) assurant la représentation française et en veillant à un alignement dans l’application des règles sur tout le territoire national, au sein du Comité européen de l’IA. Cet « AI Board » (2), dont le secrétariat est assuré par le Bureau de l’IA (« AI Office ») de la Commission européenne (3), est une instance qui rassemble les représentants des autorités nationales compétentes pour coordonner l’application – justement harmonisée – du règlement européen « établissant des règles harmonisées concernant l’intelligence artificielle ».
Le souhait du gouvernement français est de permettre une surveillance adaptée, mobilisant les compétences spécifiques de chaque autorité en fonction des usages et risques associés aux systèmes d’IA concernés. Les autorités nationales s’inscriraient ainsi comme des acteurs pivots dans la chaîne de surveillance et de contrôle. En pratique, chaque entreprise ou organisation continuera de s’adresser prioritairement à son régulateur de secteur pour respecter les exigences de l’AI Act. Pour les aspects techniques, l’Agence nationale de la sécurité des systèmes d’information (Anssi) et le Pôle d’expertise de la régulation numérique (PEReN) fourniront un appui transversal aux régulateurs qui bénéficieront d’un « socle mutualisé d’expertises ». Ils pourront ainsi les accompagner dans l’analyse technique, la cybersécurité et l’audit des algorithmes d’IA. La Commission nationale de l’informatique et des libertés (Cnil) et l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) figurent comme des interlocuteurs majeurs pour les enjeux relatifs à la protection des données et à la régulation des contenus auprès des collectivités publiques. Bercy n’a pas publié le 9 septembre 2025 de rapport complet (4) mais un aperçu du schéma proposé – accompagné d’un graphique (5)) qui identifie le périmètre d’intervention des autorités compétentes selon quatre critères : les pratiques interdites (6), les obligations spécifiques de transparence (7), les systèmes d’IA à haut risque (8), les systèmes d’IA à haut risque (9).

Au titre des pratiques interdites
La DGCCRF et l’Arcom veillent au respect de l’interdiction des systèmes d’IA qui utilisent des techniques subliminales, manipulatrices ou trompeuses, et qui exploitent les vulnérabilités liées à l’âge, au handicap ou à la situation sociale ou économique. La Cnil et la DGCCRF contrôlent le respect de l’interdiction sur les systèmes d’IA dédiés à l’évaluation, la classification ou notation sociale. La Cnil joue un rôle central dans le contrôle des pratiques interdites puisqu’elle est seule chargée du contrôle des autres pratiques interdites : police prédictive, création de bases de données de reconnaissance faciale via moissonnage non ciblé, inférence des émotions sur lieu de travail et établissements d’enseignement, catégorisation biométrique, identification biométrique à distance en temps réel à des fins répressives.

Transparence et IA à haut risque
La DGCCRF et Arcom contrôlent les systèmes d’IA interagissant directement avec les personnes ou générant des contenus synthétiques et hypertrucages. L’Arcom surveille également les systèmes générant ou manipulant des textes destinés à informer le public sur des questions d’intérêt public. La Cnil contrôle, quant à elle, le respect des obligations de transparence concernant les systèmes de reconnaissance des émotions et de catégorisation biométrique. Les autorités de surveillance du marché compétentes pour les systèmes d’IA à haut risque voient leur périmètre élargi pour le contrôle de l’intégration de l’IA dans ces produits classés « à haut risque » selon l’annexe I du règlement IA. Ainsi, par exemple, la DGCCRF est en charge de veiller à la sécurité des jouets, et avec l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) pour les dispositifs médicaux.
Pour les systèmes d’IA à haut risque relevant de l’annexe III, les Hauts fonctionnaires de défense et de sécurité (HFDS) des ministères économiques, financiers, industriels et écologiques contrôlent les IA liées aux infrastructures critiques. L’Autorité de contrôle prudentiel et de résolution (ACPR) contrôle les IA destinées à être utilisées pour évaluer la solvabilité des personnes physiques, établir les notes de crédit, et évaluer les risques et la tarification en matière d’assurance-vie et d’assurance maladie. Le Conseil d’Etat, la Cour de cassation et la Cour des comptes supervisent, quant à eux, les systèmes d’IA mis en service ou utilisés par les autorités judiciaires à des fins d’administration de la justice. Enfin, la Cnil contrôle les IA dans l’enseignement, la formation professionnelle (avec la DGCCRF), les processus démocratiques (avec l’Arcom), la biométrie, la gestion des ressources humaines, les usages répressifs, la migration, l’asile, ainsi que le contrôle des frontières. Le schéma « DGE-DGCCRF » proposé vise à éviter la création d’une superstructure, tout en valorisant l’expertise existante au sein des autorités déjà en place.
Le gouvernement français mise ainsi sur les autorités déjà opérationnelles, qui disposent chacune d’une expertise fine dans leurs domaines respectifs. Cette gouvernance « IA » devrait permettre d’apporter une proximité sectorielle avec les acteurs régulés, ainsi qu’une meilleure compréhension des pratiques spécifiques pour une régulation adaptée et un contrôle plus efficace. Pour autant, et c’est là que le bât blesse, cette gouvernance morcelée pourrait générer une complexité accrue pour les entreprises multi-secteurs, avec des points de contacts multiples et une articulation parfois difficile entre exigences sectorielles et obligations transversales de l’AI Act. Ainsi, les PME risquent d’être confrontées à une multiplicité d’interlocuteurs et à une compréhension plus complexe des règles applicables. En effet, les sociétés devront entreprendre des démarches spécifiques selon leur secteur d’activité, rajoutant alors des points de complexité dans leur mise en conformité aux exigences de l’AI Act. Cette gouvernance éclatée pourrait également entraîner une charge administrative accrue, des difficultés de compréhension des exigences applicables et un risque d’interprétations divergentes entre autorités.
Si la DGCCRF joue un rôle d’orientation clé, la multiplication des intervenants et la fragmentation normative s’avèrent particulièrement complexes pour les PME, qui disposent souvent de ressources juridiques limitées pour mener des programmes de mise en conformité de leurs pratiques. La multiplicité des organismes implique aussi un risque de dilution des responsabilités, surtout en cas d’incidents ou de litiges impliquant différents aspects de l’IA (par exemple, un système de scoring biométrique utilisé à des fins publicitaires). En l’absence d’un chef de file unique clairement identifié, cette configuration peut retarder la prise de décision ou compliquer la coordination des sanctions.
Le Conseil d’Etat, dans une étude publiée en 2022 intitulée « Intelligence artificielle et action publique : construire la confiance, servir la performance » (10), avait préconisé une transformation profonde de la Cnil en autorité nationale de contrôle responsable de la régulation des systèmes d’IA. Il soulignait que pour garantir la cohérence et la sécurité juridique, il serait préférable d’adosser la gouvernance de l’IA à une autorité unique renforcée, la Cnil étant le choix naturel compte tenu de son expérience reconnue en matière de protection des données personnelles et de régulation numérique. Confronté à la diversité des secteurs d’application de l’IA, cette piste a été écartée. La mise en œuvre de l’AI Act et la gouvernance proposée imposent donc aux entreprises une coordination et une gestion rigoureuse de leurs risques. Elles doivent concilier les exigences spécifiques à chaque secteur d’activité tout en assurant une sécurité juridique dans un environnement réglementaire à la fois complexe et en constante évolution.

Les entreprises attendues au tournant
Face aux enjeux de l’intelligence artificielle, les entreprises et organisation devront mettre en place un pilotage rigoureux de leurs pratiques. A ce titre, elles devront identifier et évaluer les risques liés à leurs systèmes d’IA, documenter leur fonctionnement, assurer la transparence des interactions, mettre en place un contrôle humain et des procédures de gestion des incidents, tout en respectant des échéances progressives jusqu’en 2026 pour assurer leur conformité à l’AI Act. Sinon, gare aux sanctions. @

* Antoine Gravereaux est avocat associé chez FTPA Avocats,
au département « Technologies, Data & Cybersécurité ».

20e IGF : la prolongation du mandat du Forum sur la gouvernance de l’Internet en question

La Norvège a accueilli durant une semaine (23-27 juin 2025) la 20e édition de l’Internet Governance Forum (IGF), organisé sous tutelle de l’ONU, sur le thème cette année de « Construire ensemble la gouvernance numérique ». La géopolitique n’a jamais été aussi menaçante pour l’Internet ouvert.

« L’année 2025 est une étape importante pour le Forum sur la gouvernance de l’Internet, car elle marque l’occasion du 20e anniversaire du forum, et c’est un moment charnière pour façonner et améliorer le dialogue multipartite pour les années à venir », souligne Karianne Oldernes Tung (photo), ministre norvégienne de la Numérisation et de la Gouvernance publique. Son pays vient d’organiser durant une semaine (23-27 juin 2025) la 20e édition de l’Internet Governance Forum (IGF), à Lillestrøm, ville située à environ 18 km au nord-est de la capitale de la Norvège, Oslo.

Internet ouvert et fracture numérique
« Ensemble, nous renforcerons la diversité et la collaboration grâce à une gouvernance numérique inclusive, qui est essentielle à un écosystème numérique dynamique et durable », poursuit-elle dans son message de bienvenue, sur le site web dédié à l’événement international (1). Cette vingtième édition de l’IGF, sur le thème cette année de « Construire ensemble la gouvernance numérique » (2), s’est tenue à six mois de la prochaine réunion du « SMSI+ 20 » qui se déroulera en décembre 2025.
Ce grand rendez-vous planétaire de fin d’année doit tirer le bilan des deux décennies qui se sont écoulées depuis le premier Sommet mondial sur la société de l’information (SMSI) qui avait eu lieu en 2005 à Tunis, en débouchant sur l’« Agenda de Tunis » (3) approuvé par les 175 membres des Nations Unies (ONU). Ce document de consensus politique, qui n’est pas un traité international, désigne (suite) le processus multipartite sur la gouvernance de l’Internet et la coopération numérique. Les objectifs sont notamment de fixer « des mécanismes de financement destinés à réduire la fracture numérique » et de garantir « la gouvernance de l’Internet de façon multilatérale, transparente et démocratique, avec la pleine participation des Etats, du secteur privé, de la société civile et des organisations internationales ». C’est ainsi que l’Agenda de Tunis de 2005 a demandé à l’ONU de créer ce Forum sur la gouvernance de l’Internet (IGF) où se tiennent les échanges multipartites justement. Mais force est de constater que vingt ans après, l’Internet n’a jamais été aussi menacé par la géopolitique, les conflits entre Etats, les cyberattaques, les atteintes à la neutralité du Net, le manque de moyens pour résorber la fracture numérique, ou encore par les problématiques liées au changement climatique et à l’impact environnemental du numérique. Sans parler du monde digital où la confiance (trust) qui se le dispute au monopole (trust) des Gafam (4). Et le « Pacte numérique mondial », adopté en septembre 2024 au siège de l’ONU à New York par les dirigeants mondiaux (5), a une nouvelle fois montré que les défis sont encore considérables pour atteindre un numérique plus inclusif. « En ces temps difficiles de géopolitique, il est plus important que jamais de se rencontrer et d’unir nos efforts pour préserver un Internet ouvert et sécurisé au profit de l’humanité », a prévenu la Norvège, qui soutient le renouvellement du mandat de l’IGF lorsqu’il sera examiné lors de la 80e session de l’Assemblée générale des Nations Unies, du 9 au 23 septembre 2025 à New York.
La Norvège fait partie des 46 Etats membres du Conseil de l’Europe (soit 700 millions de citoyens) qui se sont prononcés dès septembre 2024 à Strasbourg (6) pour la prolongation du mandat de l’IGF. En revanche, d’autres pays sont plus critiques sur l’approche multipartie de ce forum onusien dans la gouvernance du Net pour lui préférer une gouvernance plus centralisée et intergouvernementale. C’est le cas de la Chine, la Russie, l’Iran, de Cuba ou encore certains membres du « G77 », groupe de pays en développement (7), notamment certains pays d’Afrique et du Moyen-Orient. Revendiquant une « souveraineté numérique » et un « contrôle d’Internet », ces pays privilégient une autre agence de l’ONU : l’Union internationale des télécommunications (UIT), où seuls les Etats votent.

Internet : basculer de l’Icann à l’ONU ?
Quant à l’organisation américaine Icann (Internet Corporation for Assigned Names and Numbers), qui attribue les noms de domaine et les numéros IP, elle reste toujours critiquée pour sa dépendance aux Etats-Unis. Nombreux sont les Etats qui veulent voir cette gouvernance du Net supervisée par l’ONU et non plus par l’Icann épaulée par Verisign (8). « L’avenir de l’Internet est dans le collimateur », s’inquiète l’Icann, qui craint un prochain basculement de la gouvernance du Net, de l’actuel modèle « multipartite » (ouvert à tous) vers un modèle « multilatéral » (uniquement les Etats). « La prise de décisions pourrait basculer vers un organe unique, tel que l’ONU, et exclure des parties prenantes clés », mettent en garde Rebecca McGilley et Angela Wibawa (9), directrices « organisation gouvernementale et intergouvernementale » à l’Icann. @

Charles de Laubier

La Commission européenne veut contrôler l’AI Office

En fait. Alors que le 30 septembre, la Commission européenne a tenu sa première séance plénière – sur fond de désaccords – sur le « code de bonnes pratiques pour les IA à usage général » (comme ChatGPT ou Mistral), elle cherche son « conseiller scientifique principal » qui sera indépendant de l’AI Office.

En clair. La Commission européenne – via sa DG Connect (alias Cnect) – cherche à recruter son « conseiller scientifique principal » (1) qui sera chargé des dossiers de l’IA, tout en étant indépendant du bureau européen de l’intelligence artificielle (AI Office), lequel comptera 140 salariés. Mais en recherchant en interne, c’est-à-dire au sein des institutions et agences européennes, comme l’ENISA (2), la Commission européenne s’est attirée des critiques. Car cette démarche exclurait la candidature de scientifiques de haut niveau venus de l’extérieur, reconnus internationalement en IA.
De plus, cela montre que la Commission européenne veut garder la main sur l’AI Office. Le Centre international pour les générations futures (ICFG) met en garde : « Le rôle ne peut être correctement rempli que par un scientifique de premier plan. Le conseiller [scientifique principal] aura une forte influence sur les décisions d’embauche et opérationnelles au bureau [de l’IA]. Sans un dirigeant qualifié, l’[AI] Office aura du mal à attirer les talents scientifiques et techniques nécessaires pour remplir sa mission de façonner la gouvernance de l’IA en Europe », écrit-il dans une tribune publiée sur Euractiv (3). Si la Commission européenne souhaite embaucher un candidat hautement qualifié pour ce poste-clé, encore faudrait-il que la DG Connect lance un appel à candidatures pour des scientifiques de classe mondiale puissent postuler. Car, selon l’ICFG, un fonctionnaire interne à l’UE risque de ne pas être à la hauteur. Surtout que l’AI Office a la lourde tâche de dire si tel ou tel modèle d’intelligence artificielle à usage général – ou GPAI (4) – présente des risques systémiques.

Autre poste crucial, cette fois au sein de l’AI Office : celui de chef de l’unité de sécurité IA (5). Il est toujours non pourvu, alors que cela fait près de quatre mois que le conseil d’administration du bureau de l’IA a tenu sa première réunion, le 19 juin (6), suivie d’une seconde le 10 septembre.
L’AI Office a encore trois semaines pour désigner les bonnes personnes hautement qualifiées qui auront à élaborer le « code de bonnes pratiques pour les IA à usage général », alors que des désaccords sont apparus le 30 septembre lors de la première séance plénière du « AI Board » de la Commission européenne sur cette question cruciale dans le cadre de l’application de l’AI Act entré en vigueur le 1er août. @