Gouvernance des autorités pour l’AI Act : multiplier les régulateurs pourrait être contreproductif

La France va se doter – si une loi était adoptée en 2026 – d’une gouvernance sectorielle pour l’IA, pilotée par la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Mais la multiplicité des régulateurs pourrait compliquer la tâche des entreprises.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

La Direction générale des entreprises (DGE), qui dépend du ministère de l’Economie et des Finances, a publié le 9 septembre 2025 un projet de désignation des autorités nationales chargées de la mise en œuvre en France du règlement européen sur l’intelligence artificielle (AI Act). Sous la coordination de la DGE et de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), ce projet instaure un schéma décentralisé et sectoriel de gouvernance s’appuyant sur les régulateurs existants en France.

La DGCCRF centralise la coordination
Ce modèle s’inscrit dans le cadre de l’AI Act (1) et des dispositions de son article 70 qui impose la désignation d’autorités nationales de notification et de surveillance du marché dans chaque Etat membre. Cette proposition de gouvernance sectorielle et décentralisée doit être présentée au Parlement sous la forme d’un projet de loi. Il ne sera donc définitif qu’après un vote législatif, très probablement dans le courant du premier semestre 2026. Le schéma retenu par le gouvernement prévoit que la mise en œuvre effective de ce règlement européen sur l’IA sera supervisée par plusieurs autorités compétentes, conformément aux orientations proposées par cet AI Act. Dès lors, les administrations, agences et autorités spécialisées – selon leur secteur d’intervention – auront la charge de contrôler les systèmes d’intelligence artificielle, une fois mis sur le marché ou en service.
La DGCCRF centralisera la coordination opérationnelle entre diverses autorités sectorielles impliquées dans le contrôle des systèmes d’IA. Elle sera ainsi l’interlocuteur principal pour les autorités européennes et facilitera l’échange d’informations et la coopération entre les différents régulateurs nationaux. Elle agira comme un point de contact unique, pour la France auprès des instances européennes, sur les questions liées à la surveillance du marché de l’IA. Ce rôle de coordination s’inscrit dans une organisation bicéphale où la DGCCRF assurera la supervision pratique sur le terrain, tandis que la DGE apportera son soutien à la mise en œuvre de l’AI Act. A ce titre, la DGE jouera un rôle-clé dans l’organisation de la gouvernance nationale de ce règlement européen, notamment en (suite) assurant la représentation française et en veillant à un alignement dans l’application des règles sur tout le territoire national, au sein du Comité européen de l’IA. Cet « AI Board » (2), dont le secrétariat est assuré par le Bureau de l’IA (« AI Office ») de la Commission européenne (3), est une instance qui rassemble les représentants des autorités nationales compétentes pour coordonner l’application – justement harmonisée – du règlement européen « établissant des règles harmonisées concernant l’intelligence artificielle ».
Le souhait du gouvernement français est de permettre une surveillance adaptée, mobilisant les compétences spécifiques de chaque autorité en fonction des usages et risques associés aux systèmes d’IA concernés. Les autorités nationales s’inscriraient ainsi comme des acteurs pivots dans la chaîne de surveillance et de contrôle. En pratique, chaque entreprise ou organisation continuera de s’adresser prioritairement à son régulateur de secteur pour respecter les exigences de l’AI Act. Pour les aspects techniques, l’Agence nationale de la sécurité des systèmes d’information (Anssi) et le Pôle d’expertise de la régulation numérique (PEReN) fourniront un appui transversal aux régulateurs qui bénéficieront d’un « socle mutualisé d’expertises ». Ils pourront ainsi les accompagner dans l’analyse technique, la cybersécurité et l’audit des algorithmes d’IA. La Commission nationale de l’informatique et des libertés (Cnil) et l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) figurent comme des interlocuteurs majeurs pour les enjeux relatifs à la protection des données et à la régulation des contenus auprès des collectivités publiques. Bercy n’a pas publié le 9 septembre 2025 de rapport complet (4) mais un aperçu du schéma proposé – accompagné d’un graphique (5)) qui identifie le périmètre d’intervention des autorités compétentes selon quatre critères : les pratiques interdites (6), les obligations spécifiques de transparence (7), les systèmes d’IA à haut risque (8), les systèmes d’IA à haut risque (9).

Au titre des pratiques interdites
La DGCCRF et l’Arcom veillent au respect de l’interdiction des systèmes d’IA qui utilisent des techniques subliminales, manipulatrices ou trompeuses, et qui exploitent les vulnérabilités liées à l’âge, au handicap ou à la situation sociale ou économique. La Cnil et la DGCCRF contrôlent le respect de l’interdiction sur les systèmes d’IA dédiés à l’évaluation, la classification ou notation sociale. La Cnil joue un rôle central dans le contrôle des pratiques interdites puisqu’elle est seule chargée du contrôle des autres pratiques interdites : police prédictive, création de bases de données de reconnaissance faciale via moissonnage non ciblé, inférence des émotions sur lieu de travail et établissements d’enseignement, catégorisation biométrique, identification biométrique à distance en temps réel à des fins répressives.

Transparence et IA à haut risque
La DGCCRF et Arcom contrôlent les systèmes d’IA interagissant directement avec les personnes ou générant des contenus synthétiques et hypertrucages. L’Arcom surveille également les systèmes générant ou manipulant des textes destinés à informer le public sur des questions d’intérêt public. La Cnil contrôle, quant à elle, le respect des obligations de transparence concernant les systèmes de reconnaissance des émotions et de catégorisation biométrique. Les autorités de surveillance du marché compétentes pour les systèmes d’IA à haut risque voient leur périmètre élargi pour le contrôle de l’intégration de l’IA dans ces produits classés « à haut risque » selon l’annexe I du règlement IA. Ainsi, par exemple, la DGCCRF est en charge de veiller à la sécurité des jouets, et avec l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) pour les dispositifs médicaux.
Pour les systèmes d’IA à haut risque relevant de l’annexe III, les Hauts fonctionnaires de défense et de sécurité (HFDS) des ministères économiques, financiers, industriels et écologiques contrôlent les IA liées aux infrastructures critiques. L’Autorité de contrôle prudentiel et de résolution (ACPR) contrôle les IA destinées à être utilisées pour évaluer la solvabilité des personnes physiques, établir les notes de crédit, et évaluer les risques et la tarification en matière d’assurance-vie et d’assurance maladie. Le Conseil d’Etat, la Cour de cassation et la Cour des comptes supervisent, quant à eux, les systèmes d’IA mis en service ou utilisés par les autorités judiciaires à des fins d’administration de la justice. Enfin, la Cnil contrôle les IA dans l’enseignement, la formation professionnelle (avec la DGCCRF), les processus démocratiques (avec l’Arcom), la biométrie, la gestion des ressources humaines, les usages répressifs, la migration, l’asile, ainsi que le contrôle des frontières. Le schéma « DGE-DGCCRF » proposé vise à éviter la création d’une superstructure, tout en valorisant l’expertise existante au sein des autorités déjà en place.
Le gouvernement français mise ainsi sur les autorités déjà opérationnelles, qui disposent chacune d’une expertise fine dans leurs domaines respectifs. Cette gouvernance « IA » devrait permettre d’apporter une proximité sectorielle avec les acteurs régulés, ainsi qu’une meilleure compréhension des pratiques spécifiques pour une régulation adaptée et un contrôle plus efficace. Pour autant, et c’est là que le bât blesse, cette gouvernance morcelée pourrait générer une complexité accrue pour les entreprises multi-secteurs, avec des points de contacts multiples et une articulation parfois difficile entre exigences sectorielles et obligations transversales de l’AI Act. Ainsi, les PME risquent d’être confrontées à une multiplicité d’interlocuteurs et à une compréhension plus complexe des règles applicables. En effet, les sociétés devront entreprendre des démarches spécifiques selon leur secteur d’activité, rajoutant alors des points de complexité dans leur mise en conformité aux exigences de l’AI Act. Cette gouvernance éclatée pourrait également entraîner une charge administrative accrue, des difficultés de compréhension des exigences applicables et un risque d’interprétations divergentes entre autorités.
Si la DGCCRF joue un rôle d’orientation clé, la multiplication des intervenants et la fragmentation normative s’avèrent particulièrement complexes pour les PME, qui disposent souvent de ressources juridiques limitées pour mener des programmes de mise en conformité de leurs pratiques. La multiplicité des organismes implique aussi un risque de dilution des responsabilités, surtout en cas d’incidents ou de litiges impliquant différents aspects de l’IA (par exemple, un système de scoring biométrique utilisé à des fins publicitaires). En l’absence d’un chef de file unique clairement identifié, cette configuration peut retarder la prise de décision ou compliquer la coordination des sanctions.
Le Conseil d’Etat, dans une étude publiée en 2022 intitulée « Intelligence artificielle et action publique : construire la confiance, servir la performance » (10), avait préconisé une transformation profonde de la Cnil en autorité nationale de contrôle responsable de la régulation des systèmes d’IA. Il soulignait que pour garantir la cohérence et la sécurité juridique, il serait préférable d’adosser la gouvernance de l’IA à une autorité unique renforcée, la Cnil étant le choix naturel compte tenu de son expérience reconnue en matière de protection des données personnelles et de régulation numérique. Confronté à la diversité des secteurs d’application de l’IA, cette piste a été écartée. La mise en œuvre de l’AI Act et la gouvernance proposée imposent donc aux entreprises une coordination et une gestion rigoureuse de leurs risques. Elles doivent concilier les exigences spécifiques à chaque secteur d’activité tout en assurant une sécurité juridique dans un environnement réglementaire à la fois complexe et en constante évolution.

Les entreprises attendues au tournant
Face aux enjeux de l’intelligence artificielle, les entreprises et organisation devront mettre en place un pilotage rigoureux de leurs pratiques. A ce titre, elles devront identifier et évaluer les risques liés à leurs systèmes d’IA, documenter leur fonctionnement, assurer la transparence des interactions, mettre en place un contrôle humain et des procédures de gestion des incidents, tout en respectant des échéances progressives jusqu’en 2026 pour assurer leur conformité à l’AI Act. Sinon, gare aux sanctions. @

* Antoine Gravereaux est avocat associé chez FTPA Avocats,
au département « Technologies, Data & Cybersécurité ».

Depuis le rapport du CSPLA sur le métavers face au droit d’auteur, « des travaux » se poursuivent

Si le rapport sur le métavers adopté mi-2024 par le CSPLA n’a pas identifié d’évolutions juridiques « nécessaires et urgentes », il a cependant appelé à des « réflexions ». Selon nos informations, « des travaux » sont en cours à la Direction générale des entreprises (DGE) à Bercy.

Par Véronique Dahan, avocate associée, avocat, Joffe & Associés

Dans la continuité des travaux menés par le Conseil supérieur de la propriété littéraire et artistique (CSPLA) sur d’autres innovations technologiques majeures comme les jetons non fongibles en 2022, la réalité virtuelle ou la réalité augmentée en 2020 ou la « blockchain » en 2018, cette instance consultative chargée de conseiller le ministère de la Culture s’est vue remettre, le 10 juillet 2024, un rapport sur le métavers. L’objectif assigné à leurs auteurs – Jean Martin, avocat et président de la commission sur le métavers (1), et Nicolas Jau, auditeur au Conseil d’Etat et le rapporteur de la mission – était de mener une analyse de l’impact du phénomène du développement du métavers en matière littéraire et artistique.

Le spectre de la création « métaversique »
Le rapport débute par le constat selon lequel le métavers – particulièrement convoité par les géants de la tech au début des années 2020 – est un concept qui se laisse difficilement appréhender. Dans le prolongement de la mission exploratoire gouvernementale de 2022 sur le métavers (2), le rapport le définit, sans prendre trop de risque, comme un service en ligne offrant un espace immersif et persistant où les utilisateurs peuvent interagir en temps réel via des avatars. Il s’agit d’un environnement virtuel permettant de développer une « vie virtuelle », notamment culturelle. Ce concept est souvent perçu comme une extension de l’Internet actuel, intégrant des technologies de réalité virtuelle et augmentée. (suite)

Le rapport de la commission sur le métavers finit alors par constater que cette définition du métavers n’emportait pas par elle-même de conséquences en matière de propriété littéraire et artistique. « Tout est alors affaire d’espèce », ajoute-t-il (3). Le rapport conclut classiquement que les raisonnements appliqués à l’Internet sont applicables au métavers. En tout état de cause, la définition à retenir, selon la commission, est nécessairement neutre. Ceci s’explique par la diversité des options retenues par les opérateurs de métavers, qu’il s’agisse des technologies dites immersives à la réalité étendue (casque VR) ou des technologies liées à la blockchain ou au Web3. Le métavers permet la création d’œuvres diverses, que l’on peut nommer « œuvres métaversiques », destinées à être exploitées dans le métavers. La propriété et la portabilité de ces créations entre différents métavers restent des défis majeurs, le régime de la création étant largement dépendante des choix de l’opérateur du métavers concerné. Le rapport opère une double distinction entre, d’une part, les créations réalisées par les prestataires de services de métavers et celles réalisées par les utilisateurs, et, d’autre part, les œuvres préexistantes et les œuvres créées spécifiquement pour le métavers. Toutefois, cette distinction n’est pas absolue, car les œuvres préexistantes doivent généralement être adaptées pour le métavers.
En outre, le rapport préconise de soumettre le métavers au régime prétorien des œuvres multimédias, œuvres complexes, à l’instar du jeu vidéo. Ses principaux éléments caractéristiques sont ainsi : la réunion d’éléments de genres différents (images fixes ou animées, textes, sons, etc.) ; l’interactivité avec l’utilisateur, c’est-à-dire une navigation non-linéaire à l’intérieur d’un programme dont l’utilisateur opère des choix de parcours ; une identité propre de l’ensemble, qui ne se limite pas à la somme de ses éléments constitutifs. A l’inverse, le rapport du CSPLA écarte logiquement la qualification d’œuvre audiovisuelle définie comme « consistant dans des séquences animées d’images, sonorisées ou non » (4). Pour autant, dans la mesure où il n’est pas exclu d’identifier à l’intérieur du métavers des œuvres non-multimédias, une logique distributive semble prévaloir : chacune de ses composantes est soumise au régime qui lui est applicable en fonction de sa nature juridique. Par exemple, les auteurs de la partie audiovisuelle seront soumis au régime spécial des œuvres audiovisuelles, tandis que les auteurs de la musique se verront appliquer un droit d’auteur spécial dédié.

Contenus générés par les utilisateurs
Le rapport, adoptant une interprétation extensive de la notion d’œuvre, considère que les contenus « métaversiques » – c’est-à-dire les contenus générés par des utilisateurs dans un métavers, qu’ils soient directement créés dans le métavers ou importés – peuvent relever du droit d’auteur et ainsi constituer des œuvres. Conformément à la logique distributive de l’œuvre multimédia, l’utilisateur n’a aucun droit sur le logiciel faisant fonctionner l’environnement du métavers, mais il est titulaire des droits sur l’œuvre graphique et/ou sonore qu’il a produite. Toutefois, le rapport exclut catégoriquement toute cotitularité associant le prestataire de métavers, sauf hypothèse de l’œuvre composite.

Œuvre de collaboration et statut d’avatar
Poussant le raisonnement à l’extrême, le rapport s’interroge sur la possibilité – pour l’instant théorique – de reconnaître aux utilisateurs les plus actifs le statut d’auteur du métavers pris dans son ensemble. Ceci reviendrait à considérer le métavers comme une « œuvre de collaboration » entre le prestataire de métavers et certains utilisateurs. Par exemple, il est possible d’acheter ou de louer des « lands », – parcelles de terrains sur la plateforme The Sandbox (5), sur lesquels les utilisateurs peuvent créer des jeux ou placer des jetons. Les utilisateurs participent ainsi à la modélisation de l’univers de la plateforme.
Quoi qu’il en soit, la difficulté d’assurer la portabilité et l’interopérabilité des créations entre les différents métavers tend à remettre en cause la qualité d’auteur des utilisateurs sur leur « œuvre métaversique » puisque ceux-ci se trouvent fatalement dans une situation de dépendance vis-à-vis des prestataires du métavers.
Enfin, le rapport s’interroge sur la qualification d’atteinte au droit moral, notamment au droit au respect de l’intégrité de l’œuvre : dans les métavers, les utilisateurs peuvent, par exemple, détruire ou altérer des objets virtuels (c’est le cas dans les jeux dits « bac à sable » comme Minecraft). Afin de garantir le respect de ce droit moral, le rapport préconise d’insérer des mentions dans les conditions générales d’utilisation ou, à défaut, de laisser au juge le soin d’apprécier au cas par cas le respect de ce droit.
Concernant cette fois la contrefaçon, le rapport du CSPLA alerte sur le risque d’apparition de « métavers pirates », également appelés « darkverses » (ou « métavers sombres » en français), lesquels sont susceptibles de générer de nouvelles menaces de contrefaçon. Il observe que les droits des « utilisateurs-créateurs » sur les contenus qu’ils génèrent sont souvent négligés par les prestataires de métavers. En particulier, la commission considère que le régime de responsabilité prévu par l’article 17 de la directive « Droit d’auteur et droits voisins dans le marché unique numérique » du 17 avril 2019, directive dite « Copyright » (6), s’applique aux services en ligne de métavers dès lors qu’il y a un partage de contenus par les utilisateurs. « Les droits voisins ont également vocation à s’appliquer dans le métavers, qu’il s’agisse des prérogatives morales ou patrimoniales », soulignent les auteurs (7). Les opérateurs doivent obtenir ou faire état de leurs « meilleurs efforts » pour obtenir une autorisation des titulaires de droits concernant les actes accomplis par les utilisateurs non-commerciaux. Il leur appartient de respecter les meilleures pratiques en matière d’identification et de blocage des contenus contrefaisants. Ce qui n’est pas forcément chose aisée dans un secteur en rapide et constante évolution. A ce titre, le rapport s’interroge, sans apporter de réponse nette, sur la manière dont la blockchain pourrait être utilisée par les métavers décentralisés – fondée sur une propriété partagée par les utilisateurs – pour respecter l’article 17 dans le cadre de la lutte contre la contrefaçon (8). Le rapport indique que les exceptions au droit d’auteur et aux droits voisins s’appliquent, comme la copie privée (9), « sous réserve que le métavers permette effectivement de séparer l’espace personnel et l’espace public et de réserver l’accès au premier » comme le fait Second Life (10). La commission sur le métavers s’est aussi interrogée sur l’application d’une « licence légale » et d’une « rémunération équitable » (11), mais sans parvenir à un consensus sur cette question (12).
Quant à l’avatar, représentation de l’utilisateur dans l’environnement virtuel, il est un élément central du métavers. Bien que l’avatar puisse être considéré comme une œuvre protégée par le droit d’auteur, son statut juridique est complexe. Les avatars peuvent être des créations originales, mais leur utilisation et leur protection dépendent des conditions générales d’utilisation des plateformes de métavers. La commission du CSPLA explique que « la relation entre l’avatar et l’utilisateur est complexe » car un avatar peut représenter une personne physique ou morale, ou être un « personnage non joueur » (PNJ) sans lien avec un utilisateur réel. Un utilisateur peut disposer de plusieurs avatars, même au sein d’un même métavers. La commission écarte fort logiquement l’idée que l’avatar puisse être reconnu comme auteur des œuvres, car il n’a pas de personnalité propre. Cependant, l’avatar peut constituer un pseudonyme au sens de l’article L. 113-6 du code de la propriété intellectuelle.
Le rapport conclut que, « si les évolutions rapides du secteur doivent être suivies avec attention, la commission [sur le métavers] n’a pas identifié à ce stade d’évolutions nécessaires et urgentes » du cadre juridique existant.

« Réflexions » et « travaux » se poursuivent
Cependant, le CSPLA a demandé à ce que des « réflexions » soient menées : « sur la prise en compte du droit moral dès la conception des services en ligne de métavers » (13), d’une part, et « sur les garanties techniques et juridiques permettant, sans conservation généralisée des données, aux personnes victimes, notamment de contrefaçons, d’en faire constater l’existence et d’en apporter la preuve » (14), d’autre part. Contacté par Edition Multimédi@, Jean-Philippe Mochon, président du CSPLA, nous indique que, d’après le ministère de la Culture, « des travaux étaient en cours à Bercy auprès de la Direction générale des entreprises (DGE) ». @

Gratuité des données géographiques et concurrence des Gafam : l’ancien monopole IGN est fragilisé

L’Institut national de l’information géographique et forestière (IGN), établissement public que dirige depuis 2021 Sébastien Soriano, se retrouve en difficulté financière chronique malgré une hausse de 5 % de ses subventions en 2025, à 96,8 millions d’euros, sur un budget de plus de 180 millions d’euros.

Sur les 518,8 millions d’euros de crédits du programme « Expertise, information géographique et météorologie » inscrits dans la loi de finances 2025 promulguée le 15 février dernier (1), près de 20 % seront versés à l’Institut national de l’information géographique et forestière (IGN), soit une subvention de 96,8 millions d’euros au titre de ses missions de service public. Mais cette manne de l’Etat (2) ne couvre que la moitié de son budget.
L’an dernier, l’IGN a dépensé 192 millions d’euros (dont près des deux-tiers en masse salariale), en hausse de 3 % sur un an, tandis que ses recettes ont été de 185 millions d’euros, en hausse de 2 %, dont seulement 32,5 millions en chiffre d’affaires propre. Résultat : son déficit budgétaire en 2024 atteint 7 millions d’euros (voir tableau page suivante). C’est que l’ancien monopole public français des données géographiques – monopole aboli il y a près de quinze ans par la Commission européenne (3) – est de plus en plus confronté à la volonté politique de rendre les données publiques accessibles gratuitement (en open data), et à la concurrence accrue des Gafam (Google en tête).

Budget 2025 : « L’IGN “va dans le mur” »
C’est dans ce contexte budgétaire complexe que Sébastien Soriano (photo), ancien président de l’Arcep (2015-2021) et par ailleurs auteur de l’ouvrage « Un avenir pour le service public » (Odile Jacob, 2020), a débuté en janvier 2025 un second mandat de quatre ans comme directeur général de l’IGN – renouvelé par décret présidentiel (4). Contacté par Edition Multimédi@, un porte-parole de cet établissement public administratif placé sous la double tutelle des ministres chargés de l’écologie et des forêts indique que « le contrat d’objectifs et de performance (COP) de l’IGN pour 2025-2029 devrait être signé avec l’Etat en juin » – le COP 2020-2024 étant arrivé à échéance. Dans une note de la commission des finances du Sénat, que nous avons consultée, le rapporteur Vincent Capo-Calellas (centriste) a (suite)

tiré en novembre 2024 la sonnette d’alarme au sujet des finances de l’IGN, à l’occasion de l’examen du projet de loi de finances 2025. Pour la commission des finances du Sénat, « budgétairement et à très court terme, l’IGN “va dans le mur” » et « le modèle économique de l’IGN se trouve aujourd’hui dans une impasse ». Le rapporteur se réfère aussi à son précédent rapport sur l’IGN, de 2022 cette fois, où déjà il s’« inquiét[ait] quant à la fragilité du nouveau modèle économique de l’IGN » sujet à « trou d’air »

Bouleversement de l’économie de la donnée
La nouvelle boussole de l’IGN consiste à « outiller la Nation pour comprendre son territoire à l’heure des grands bouleversements écologiques et numériques ». Il y a six ans, en mars 2019, la Cour des comptes s’inquiétait déjà elle aussi du modèle économique de l’IGN « remis en cause » par « la transformation générale de l’économie de la donnée ». D’autant que l’institut de SaintMandé (commune du Val-de-Marne où est son siège historique), est soumis depuis plusieurs années à une « injonction paradoxale » (dixit la Cour des comptes) : développer ses ressources propres, notamment par la commercialisation des données géographiques, tout en procédant à leur diffusion gratuite dans le cadre de la politique de l’open data des données publiques.
« A quoi peut encore servir un institut cartographique à l’heure où chacun se promène avec des cartes dans son smartphone ? », s’interrogeait justement la présidente du conseil d’administration de l’IGN, Emmanuelle Prada-Bordenave (photo ci-dessus), dans le dernier rapport d’activité 2023 de l’institut publié l’été dernier. « L’IGN [devenu] un organisme résolument numérique […] est un atout majeur pour aider notre pays à […]se réapproprier la représentation de ses territoires, laquelle risquait sinon d’être accaparée par les géants du numérique », assure-t-elle. A l’ère de la gratuité des données publiques et des applications géolocalisées, l’IGN se retrouve entre le marteau et l’enclume – après avoir été remis en question et même contesté dans sa légitimité. La chute de son chiffre d’affaires réalisé auprès du grand public, passant de plus de 10 millions d’euros en 2017 à 6 millions d’euros en 2024 illustre cette démonétisation des données géographiques due à la gratuité et à une nouvelle concurrence. Car sur le marché mondial du partage de données géographiques, des Big Tech américaines – championnes du Big Data – règnent en maître avec leurs outils numériques tels que Street View de Google, Mapillary de Meta ou encore Look Around d’Apple. Pour tenter de faire une place dans ce domaine de la photo-cartographie des territoires, l’IGN et OpenStreetMap ont lancé en 2022 une « start-up d’Etat » baptisée Panoramax. Elle se veut une alternative aux Gafam, gratuite et libre d’utilisation, relevant des « géocommuns » de l’IGN (5), déclinaison géographique des communs numériques (6). « Toute personne peut prendre des photographies des lieux afin d’alimenter la base de données », invite Panoramax. Aujourd’hui, selon les constatations de Edition Multimédi@, sa base de données atteint à ce jour 50 millions de photos composent, pour plus de 425.000 kilomètres carrés couverts grâce à plus de 741 contributeurs grand public et collectivités (7). Autre initiative de taille en open data, donc gratuite et accessible à tous une fois aboutie : la cartographie en 3D de l’intégralité de la France, pour créer un « jumeau numérique » de tous ses territoires (8). Il s’agit pour l’IGN de modéliser le pays en haute densité, soit 10 points par mètre carré en moyenne. Cette France en 3D sera utile pour le grand public, la prévention des risques, l’observation de la ressource forestière, ou encore l’aménagement du territoire. Gratuit, Panoramax a un coût : 60 millions d’euros sur cinq ans, financés non pas par l’IGN mais par l’Etat. « L’ensemble du territoire (hors Guyane) devrait être couvert d’ici fin 2025 », précise l’établissement public (9).

Un opérateur de data, d’IA et de 3D face aux Gafam
Pour le grand public encore, une application mobile gratuite « Cartes IGN » a été lancée en mai 2024, téléchargeable sur smartphones et tablettes via Google Play (plus de 1 million de téléchargements) et l’App Store, présenté par l’institut de Saint-Mandé comme « une application qui permet à tous les citoyens de “découvrir le territoire”, ses évolutions, et de s’y repérer sans dépendre de représentations biaisées d’acteurs économiques comme les Gafam »… Cartes IGN (10) est une réponse à la française aux Google Maps, Waze (racheté par Google en 2023) et autres Apple Plans. Plus largement, l’IGN a lancé en 2024 la version bêta publique du site web Cartes.gouv.fr qui s’appuie sur Géoplateforme, une infrastructure « communauté » qui a nécessité 23,8 millions d’euros sur cinq ans, financés par l’IGN avec un soutien de l’Etat pour 3,6 millions d’euros.
Devenu grand opérateur data en France, l’institut géographique est aussi en pleine mutation avec l’intelligence artificielle (IA), la data science, l’altimétrie 3D ou encore la géovisualisation. L’IA est mise au service de la carte d’occupation du sol, dit OCS GE, projet distingué en février 2025 par Bercy (DGE) lors du Sommet de l’IA (11). Par ailleurs, Bercy utilise l’IA, via son service des impôts (DGFiP), pour traquer la fraude fiscale en détectant automatiquement des piscines non déclarées (12) sur la base d’images aériennes de l’IGN. @

Charles de Laubier