L’Agence France-Presse (AFP) se retrouve en proie à de sérieuses difficultés financières en 2025 et 2026

Parmi les trois grandes agences de presse mondiales, l’AFP entre dans une zone de turbulences, décidée à faire jusqu’à 14 millions d’euros d’économies entre 2025 et 2026 (dont 70 postes à supprimer d’ici le printemps prochain), tout en essayant de continuer à se désendetter. Les aides de l’Etat ne suffisent plus.

« Rayonnement international de la France » et « rempart contre la désinformation », l’Agence France-Presse (AFP) poursuit sa trajectoire de désendettement et de réduction de ses dépenses, telle que prévue dans son contrat d’objectifs et de moyens (COM) 2024-2028, signé avec l’Etat français il y a plus d’un an.
Alors que le projet de loi de finances 2026 a été présenté in extremis le 14 octobre par le gouvernement « Lecornu 2 », l’agence de presse française a la confirmation des aides d’Etat qui lui seront versées : 147,2 millions d’euros l’an prochain, soit 3 % d’augmentation. En plein déficits publics chroniques de la France, en quête désespérée de réductions budgétaires et surtout de recettes fiscales, l’AFP – que dirige Fabrice Fries (photo) – n’a pas à se plaindre. Cette manne de l’Etat – 124 millions d’euros pour assurer ses missions d’intérêt général et 23,2 millions d’euros d’abonnements payés par l’administration – a augmenté chaque année depuis le début de l’actuel COM en 2024. Et il va continuer comme prévu sa hausse jusqu’à la fin de ce contrat quinquennal, à 149 millions d’euros en 2028. Parmi les engagements pris auprès de l’Etat, l’AFP doit générer 9 millions d’euros d’économies sur ces cinq ans, tout en ramenant sa dette à zéro d’ici la fin 2028 – dans près de trois ans – contre 20,4 millions d’euros à fin 2024 (son endettement était supérieur à 50 millions d’euros en 2017).

Recettes en berne et suite de l’arrêt « Facebook »
Alors que l’Agence France-Presse peut se targuer d’avoir enchaîné depuis six années consécutives un résultat net positif (même de seulement 200.000 euros en 2024), les dépenses, elles, augmentent sérieusement car il lui faut assurer la couverture des guerres Russie-Ukraine et Israël-Gaza. Rien qu’en 2024, les « charge d’exploitation » se sont élevées à 303,5 millions d’euros, en augmentation de 2,5 % sur un an. Mais 2025 s’avère plus difficile que prévue. Les conflits armés n’expliquent pas tout : d’une part, les médias clients de l’AFP sont de plus en plus à la peine dans le monde entier en raison notamment du tsunami IA, et, d’autre part, un gros contrat que l’AFP avait signé avec Facebook s’est arrêté en début d’année. Sans parler du démantèlement de la radio publique Voice of America (VOA), engagé par l’administration Trump, provoquant en mars 2025 l’arrêt brutal du contrat avec l’AFP. Les recettes commerciales l’agence de presse de la place de la Bourse (son siège social à Paris) représentent Continuer la lecture

Gouvernance des autorités pour l’AI Act : multiplier les régulateurs pourrait être contreproductif

La France va se doter – si une loi était adoptée en 2026 – d’une gouvernance sectorielle pour l’IA, pilotée par la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Mais la multiplicité des régulateurs pourrait compliquer la tâche des entreprises.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

La Direction générale des entreprises (DGE), qui dépend du ministère de l’Economie et des Finances, a publié le 9 septembre 2025 un projet de désignation des autorités nationales chargées de la mise en œuvre en France du règlement européen sur l’intelligence artificielle (AI Act). Sous la coordination de la DGE et de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), ce projet instaure un schéma décentralisé et sectoriel de gouvernance s’appuyant sur les régulateurs existants en France.

La DGCCRF centralise la coordination
Ce modèle s’inscrit dans le cadre de l’AI Act (1) et des dispositions de son article 70 qui impose la désignation d’autorités nationales de notification et de surveillance du marché dans chaque Etat membre. Cette proposition de gouvernance sectorielle et décentralisée doit être présentée au Parlement sous la forme d’un projet de loi. Il ne sera donc définitif qu’après un vote législatif, très probablement dans le courant du premier semestre 2026. Le schéma retenu par le gouvernement prévoit que la mise en œuvre effective de ce règlement européen sur l’IA sera supervisée par plusieurs autorités compétentes, conformément aux orientations proposées par cet AI Act. Dès lors, les administrations, agences et autorités spécialisées – selon leur secteur d’intervention – auront la charge de contrôler les systèmes d’intelligence artificielle, une fois mis sur le marché ou en service.
La DGCCRF centralisera la coordination opérationnelle entre diverses autorités sectorielles impliquées dans le contrôle des systèmes d’IA. Elle sera ainsi l’interlocuteur principal pour les autorités européennes et facilitera l’échange d’informations et la coopération entre les différents régulateurs nationaux. Elle agira comme un point de contact unique, pour la France auprès des instances européennes, sur les questions liées à la surveillance du marché de l’IA. Ce rôle de coordination s’inscrit dans une organisation bicéphale où la DGCCRF assurera la supervision pratique sur le terrain, tandis que la DGE apportera son soutien à la mise en œuvre de l’AI Act. A ce titre, la DGE jouera un rôle-clé dans l’organisation de la gouvernance nationale de ce règlement européen, notamment en (suite) assurant la représentation française et en veillant à un alignement dans l’application des règles sur tout le territoire national, au sein du Comité européen de l’IA. Cet « AI Board » (2), dont le secrétariat est assuré par le Bureau de l’IA (« AI Office ») de la Commission européenne (3), est une instance qui rassemble les représentants des autorités nationales compétentes pour coordonner l’application – justement harmonisée – du règlement européen « établissant des règles harmonisées concernant l’intelligence artificielle ».
Le souhait du gouvernement français est de permettre une surveillance adaptée, mobilisant les compétences spécifiques de chaque autorité en fonction des usages et risques associés aux systèmes d’IA concernés. Les autorités nationales s’inscriraient ainsi comme des acteurs pivots dans la chaîne de surveillance et de contrôle. En pratique, chaque entreprise ou organisation continuera de s’adresser prioritairement à son régulateur de secteur pour respecter les exigences de l’AI Act. Pour les aspects techniques, l’Agence nationale de la sécurité des systèmes d’information (Anssi) et le Pôle d’expertise de la régulation numérique (PEReN) fourniront un appui transversal aux régulateurs qui bénéficieront d’un « socle mutualisé d’expertises ». Ils pourront ainsi les accompagner dans l’analyse technique, la cybersécurité et l’audit des algorithmes d’IA. La Commission nationale de l’informatique et des libertés (Cnil) et l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) figurent comme des interlocuteurs majeurs pour les enjeux relatifs à la protection des données et à la régulation des contenus auprès des collectivités publiques. Bercy n’a pas publié le 9 septembre 2025 de rapport complet (4) mais un aperçu du schéma proposé – accompagné d’un graphique (5)) qui identifie le périmètre d’intervention des autorités compétentes selon quatre critères : les pratiques interdites (6), les obligations spécifiques de transparence (7), les systèmes d’IA à haut risque (8), les systèmes d’IA à haut risque (9).

Au titre des pratiques interdites
La DGCCRF et l’Arcom veillent au respect de l’interdiction des systèmes d’IA qui utilisent des techniques subliminales, manipulatrices ou trompeuses, et qui exploitent les vulnérabilités liées à l’âge, au handicap ou à la situation sociale ou économique. La Cnil et la DGCCRF contrôlent le respect de l’interdiction sur les systèmes d’IA dédiés à l’évaluation, la classification ou notation sociale. La Cnil joue un rôle central dans le contrôle des pratiques interdites puisqu’elle est seule chargée du contrôle des autres pratiques interdites : police prédictive, création de bases de données de reconnaissance faciale via moissonnage non ciblé, inférence des émotions sur lieu de travail et établissements d’enseignement, catégorisation biométrique, identification biométrique à distance en temps réel à des fins répressives.

Transparence et IA à haut risque
La DGCCRF et Arcom contrôlent les systèmes d’IA interagissant directement avec les personnes ou générant des contenus synthétiques et hypertrucages. L’Arcom surveille également les systèmes générant ou manipulant des textes destinés à informer le public sur des questions d’intérêt public. La Cnil contrôle, quant à elle, le respect des obligations de transparence concernant les systèmes de reconnaissance des émotions et de catégorisation biométrique. Les autorités de surveillance du marché compétentes pour les systèmes d’IA à haut risque voient leur périmètre élargi pour le contrôle de l’intégration de l’IA dans ces produits classés « à haut risque » selon l’annexe I du règlement IA. Ainsi, par exemple, la DGCCRF est en charge de veiller à la sécurité des jouets, et avec l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) pour les dispositifs médicaux.
Pour les systèmes d’IA à haut risque relevant de l’annexe III, les Hauts fonctionnaires de défense et de sécurité (HFDS) des ministères économiques, financiers, industriels et écologiques contrôlent les IA liées aux infrastructures critiques. L’Autorité de contrôle prudentiel et de résolution (ACPR) contrôle les IA destinées à être utilisées pour évaluer la solvabilité des personnes physiques, établir les notes de crédit, et évaluer les risques et la tarification en matière d’assurance-vie et d’assurance maladie. Le Conseil d’Etat, la Cour de cassation et la Cour des comptes supervisent, quant à eux, les systèmes d’IA mis en service ou utilisés par les autorités judiciaires à des fins d’administration de la justice. Enfin, la Cnil contrôle les IA dans l’enseignement, la formation professionnelle (avec la DGCCRF), les processus démocratiques (avec l’Arcom), la biométrie, la gestion des ressources humaines, les usages répressifs, la migration, l’asile, ainsi que le contrôle des frontières. Le schéma « DGE-DGCCRF » proposé vise à éviter la création d’une superstructure, tout en valorisant l’expertise existante au sein des autorités déjà en place.
Le gouvernement français mise ainsi sur les autorités déjà opérationnelles, qui disposent chacune d’une expertise fine dans leurs domaines respectifs. Cette gouvernance « IA » devrait permettre d’apporter une proximité sectorielle avec les acteurs régulés, ainsi qu’une meilleure compréhension des pratiques spécifiques pour une régulation adaptée et un contrôle plus efficace. Pour autant, et c’est là que le bât blesse, cette gouvernance morcelée pourrait générer une complexité accrue pour les entreprises multi-secteurs, avec des points de contacts multiples et une articulation parfois difficile entre exigences sectorielles et obligations transversales de l’AI Act. Ainsi, les PME risquent d’être confrontées à une multiplicité d’interlocuteurs et à une compréhension plus complexe des règles applicables. En effet, les sociétés devront entreprendre des démarches spécifiques selon leur secteur d’activité, rajoutant alors des points de complexité dans leur mise en conformité aux exigences de l’AI Act. Cette gouvernance éclatée pourrait également entraîner une charge administrative accrue, des difficultés de compréhension des exigences applicables et un risque d’interprétations divergentes entre autorités.
Si la DGCCRF joue un rôle d’orientation clé, la multiplication des intervenants et la fragmentation normative s’avèrent particulièrement complexes pour les PME, qui disposent souvent de ressources juridiques limitées pour mener des programmes de mise en conformité de leurs pratiques. La multiplicité des organismes implique aussi un risque de dilution des responsabilités, surtout en cas d’incidents ou de litiges impliquant différents aspects de l’IA (par exemple, un système de scoring biométrique utilisé à des fins publicitaires). En l’absence d’un chef de file unique clairement identifié, cette configuration peut retarder la prise de décision ou compliquer la coordination des sanctions.
Le Conseil d’Etat, dans une étude publiée en 2022 intitulée « Intelligence artificielle et action publique : construire la confiance, servir la performance » (10), avait préconisé une transformation profonde de la Cnil en autorité nationale de contrôle responsable de la régulation des systèmes d’IA. Il soulignait que pour garantir la cohérence et la sécurité juridique, il serait préférable d’adosser la gouvernance de l’IA à une autorité unique renforcée, la Cnil étant le choix naturel compte tenu de son expérience reconnue en matière de protection des données personnelles et de régulation numérique. Confronté à la diversité des secteurs d’application de l’IA, cette piste a été écartée. La mise en œuvre de l’AI Act et la gouvernance proposée imposent donc aux entreprises une coordination et une gestion rigoureuse de leurs risques. Elles doivent concilier les exigences spécifiques à chaque secteur d’activité tout en assurant une sécurité juridique dans un environnement réglementaire à la fois complexe et en constante évolution.

Les entreprises attendues au tournant
Face aux enjeux de l’intelligence artificielle, les entreprises et organisation devront mettre en place un pilotage rigoureux de leurs pratiques. A ce titre, elles devront identifier et évaluer les risques liés à leurs systèmes d’IA, documenter leur fonctionnement, assurer la transparence des interactions, mettre en place un contrôle humain et des procédures de gestion des incidents, tout en respectant des échéances progressives jusqu’en 2026 pour assurer leur conformité à l’AI Act. Sinon, gare aux sanctions. @

* Antoine Gravereaux est avocat associé chez FTPA Avocats,
au département « Technologies, Data & Cybersécurité ».

L’incarcération d’un ancien président de la République consacre aussi un média numérique, Mediapart

C’est une condamnation historique d’un ancien président de la République française à de la prison ferme – avec incarcération – dans une affaire que Mediapart a révélée il y a treize ans. La sentence rendue à l’encontre de Nicolas Sarkozy le 25 septembre 2025 est aussi la consécration d’un média en ligne.

Depuis une trentaine d’années que les pure players de la presse en ligne existent, c’est la première fois que l’un d’eux se retrouve sous le feu des projecteurs et consacré pour son journalisme d’investigation – en l’occurrence pour avoir été à l’origine d’une affaire retentissante ayant conduit un ancien président de la République derrière les barreaux – un fait inédit et historique depuis la naissance de la République française en… 1792.
Le média numérique Mediapart, cofondé en 2008 par Edwy Plenel (photo de gauche) et présidé depuis 2024 par Carine Fouteau (photo de droite), s’est déjà fait une renommée avec de grandes enquêtes telles que les affaires Woerth-Bettencourt (2010), Cahuzac (2013), Baupin (2016), Ramadan (2017), Benalla (2019), Perdriau (2022) ou encore Azov/Courtine (2024). Mais cette fois, avec l’affaire Sarkozy-Kadhafi (2012-2025), Mediapart devient le premier nouveau média – qui plus est 100 % digital – à voir un ancien chef d’Etat – Nicolas Sarkozy, 6e président de la Ve République (2007-2012) et le 23e président de toutes les républiques françaises – être écroué (1). Et ce, treize ans après avoir révélé en avril 2012 un financement illégal de la campagne présidentielle de Nicolas Sarkozy en 2007 par des fonds provenant du régime libyen de Mouammar Kadhafi. Un scandale d’Etat.

Plus de 10,1 millions de visites par mois
Mediapart, c’est plus de 245.000 abonnés numériques et ce nombre ne cesse de grandir au fur et à mesure que les affaires révélées s’enchaînent. A fin décembre 2024, ils étaient 233.277, puis, d’après sa directrice de la publication Carine Fouteau au moment de la présentation des résultats annuels en mars 2025, les 245.000 abonnés ont été atteints. Mais le site de presse en ligne mediapart.fr, c’est aussi plus de 10,1 millions de visites par mois (2), d’après le relevé de Similarweb, dont près de 12 % provenant hors de France (3). Pour cette année 2025, le chiffre d’affaires de l’entreprise – employant plus de 150 personnes – devrait franchir la barre des 25 millions d’euros de chiffre d’affaires – pour dépasser les 27,7 millions d’euros si l’on applique la même croissance de 11,4 % constatée sur l’année précédente. « Notre modèle économique ne (suite) repose que sur le soutien et la fidélité de nos lectrices et lecteurs, 99 % de nos recettes provenant de l’abonnement », souligne l’entreprise de presse Société éditrice de Mediapart, dont le journal est « non cessible et non achetable » (4).

Contre les aides d’Etat et l’argent de Google
Créée il y aura 18 ans le 24 octobre, l’entreprise affiche dans ses comptes – publiés en toute transparence au greffe (5), contrairement à de nombreux médias – une rentabilité qui était de plus de 3,3 millions d’euros en 2024. Cette success story, dans un paysage médiatique français morose, force l’admiration. Alors que beaucoup ne croyaient pas à la viabilité économique d’un tel média numérique dépourvu de publicités et financé sur ses seuls abonnés payants, la profitabilité a très vite été au rendez-vous depuis 2011, sauf pour l’année 2014.
Cette année-là, 4,7 millions d’euros ont été provisionnés pour le contentieux fiscal sur la TVA : entre 2008 et 2014, Mediapart avait appliqué un taux réduit (2,1 %) sur ses abonnements numériques, équivalent à celui de la presse imprimée. Or, à l’époque, la loi imposait aux services numériques un taux de 19,6 % puis 20 %. D’où un redressement fiscal de 4,7 millions d’euros – dont 1,4 million de pénalités que conteste toujours Mediapart en invoquant sa bonne foi devant la Cour européenne des droits de l’Homme (CEDH). Cette dernière avait proposé début 2025 un accord amiable entre Société éditrice de Mediapart et l’Etat français, mais les deux parties ont refusé (6). « L’instruction est toujours en cours », indique à Edition Multimédi@ Cécile Sourd (photo ci-dessus), directrice générale de Mediapart.
Ce média en ligne indépendant l’est d’autant plus qu’il a toujours refusé de bénéficier des aides d’Etat auxquelles il a pourtant droit en tant que journal d’information politique et générale (IPG). En 2024, pas moins de 527 médias français ont reçu un total de 327 millions d’euros d’aides publiques (7). Par exemple : Le Monde – dont l’ancien président de Mediapart Edwy Plenel a été directeur de la rédaction de 1996 à 2004 – a touché de l’Etat près de 7,8 millions d’euros en 2024 ; Le Figaro a perçu près de 9,9 millions d’euros ; Aujourd’hui en France et Le Parisien ont empoché respectivement 12,2 millions d’euros et 1,7 million d’euros – soit un record 2024 de 13,9 millions d’euros au total pour Le Parisien/Aujourd’hui en France, propriété de Bernard Arnault (à qui des rumeurs prêtent l’intention de vendre ce quotidien à son homologue milliardaire Vincent Bolloré) ; Les Echos, également à Bernard Arnault, a été aidé par l’Etat à hauteur de plus de 2 millions d’euros ; La Croix a encaissé 8,7 millions d’euros. Pour ne citer qu’eux. Même des sites de presse pure players – sauf Mediapart – demandent l’aide de l’Etat : 69 titres pour un montant total de 4 millions d’euros, dont Arrêt sur Images (349.425 euros) Blast-info (316.464 euros), Contexte (289.476 euros), ou encore Le Huffington Post (242.000 euros).
« Seuls nos lecteurs peuvent nous acheter, assure le média d’investigation. Afin de garantir la liberté totale de sa rédaction, Mediapart a fait le choix de ne pas être financé par des milliardaires (pour pouvoir enquêter sur leurs intérêts industriels), de ne pas recourir à la publicité (pour ne pas être soumis aux pressions des annonceurs), de ne pas recevoir d’aides publiques à la presse (pour ne pas dépendre du bon vouloir politique), de ne pas accepter de contrats commerciaux avec les grandes plateformes numériques ». Parmi les Gafam, le géant Google est accusé par Mediapart depuis 2022 d’être opaque et non transparent sur les centaines de millions d’euros qu’il verse aux éditeurs de presse en France au titre des droits voisins, en contrepartie de l’utilisation de leurs articles de presse sur son moteur de recherche et ses agrégateurs d’actualité (Google Search, Google News et Google Discover).
Depuis que l’Autorité de la concurrence a condamné en 2024 Google à verser 250 millions d’euros aux éditeurs de presse « pour ne pas avoir respecté [s]es engagements rendus obligatoires par la décision du 21 juin 2022 », notamment sur la transparence (8), Mediapart refuse depuis d’encaisser les millions d’euros de Google qui lui sont dus. De même que lorsque la Société des droits voisins de la presse (DVP) – organisme de gestion collective dont Carine Fouteau est membre du conseil de surveillance – collecte auprès des plateformes numériques et réseaux sociaux (Google, Facebook, Microsoft, LinkedIn ou encore X) la rémunération qui est due à ses membres éditeurs, Mediapart ne récupère pas non plus sa part, « une substantielle somme, en attendant que le voile sur les chiffres soit levé » (9).

Mediapart, aussi en vidéo et… au cinéma
Mediapart se diversifie de plus en plus dans la vidéo, notamment sur YouTube (10) où sa chaîne dépasse 1 million d’abonnés, mais aussi au cinéma. L’incarcération de l’ancien président de la République relance l’intérêt du public pour le documentaire « Personne n’y comprend rien », sur l’affaire Sarkozy-Kadhafi, cofinancé par Mediapart grâce à un financement participatif – record pour un documentaire (11). Sorti en salles de cinéma en janvier 2025, il a totalisé plus de 154.059 entrées en six mois. Il est disponible en ligne à la location ou à l’achat sur Arte VOD (12) ou sur Mediapart VOD (13). @

Charles de Laubier

SEO, GEO et LLMO : visibilité en ligne chamboulée

En fait. Le 17 septembre, la société américaine Zeta Global – cotée en Bourse à New-York et spécialisée dans les solutions de marketing multicanal – a lancé sur sa plateforme le Generative Engine Optimization (GEO), la solution tendance pour que les marques restent visibles dans les réponses des IA génératives.

En clair. Signe des temps, la société de marketing direct Zeta Global – fondée en 2007 par par David Steinberg, son actuel PDG, et John Sculley, ancien PDG d’Apple (1983-1993) – plonge dans le grand bain mondial de l’optimisation pour les moteurs génératifs. Les spécialistes du marketing et les annonceurs publicitaires ont aimé le Search Engine Optimization (SEO), pour rendre plus visibles leurs marques et sites web dans les résultats des moteurs de recherche ; ils adorent déjà le Generative Engine Optimization (GEO). Car les moteurs de recherche traditionnels voient de plus en plus leurs utilisateurs passer aux intelligences artificielles génératives, même si Google est pour l’instant encore en position dominante avec son search. L’institut d’études Gartner a prédit « une baisse de 25 % du volume des moteurs de recherche d’ici 2026, en raison des chatbots IA et autres agents virtuels » (1).
De son côté, le cabinet de conseil Bain & Company a relevé en février 2025 que « 80 % des consommateurs (suite) s’appuient désormais sur les résultats écrits par l’IA pour au moins 40 % de leurs recherches, ce qui réduit le trafic web organique de 15 à 25 % » (2). Pas de temps à perdre : les marques et les sites web ne veulent pas être engloutis dans les classements des chat-search. Dans cette nouvelle donne de la visibilité en ligne, où l’IA générative formules les réponses, il s’agit aussi d’identifier et de corriger les lacunes de citation, les hallucinations ou les réponses. Pour être fin prêt au GEO, il faut désormais « optimiser les contenus pour qu’ils soient LLM-ready (questions-réponses, résumés, métadonnées) », comme l’explique Zeta Global, faisant référence aux grands modèles de langage – Large language model (LLM).
« Si vous n’êtes pas présent et précis dans la boîte de réponse, vous êtes invisible », prévient David Steinberg, PDG cofondateur de Zeta Global (3), qui se positionne comme « cloud marketing d’IA » (4). « Le nouvel outil permet aux spécialistes du marketing de contrôler l’apparition de leurs marques dans les principaux systèmes d’IA, notamment ChatGPT [d’OpenAI], Gemini [de Google] et Claude [d’Anthropic], et d’optimiser leurs réponses avec des recommandations ciblées et exploitables » (5). En France, des agences GEO voire LLMO (Large Language Model Optimization) montent en puissance, telles que Archipel AI, Eskimoz, Primelis, Upto1 ou Sales Odyssey. @

Réviser la DADVSI en faveur de l’ebook d’occasion

En fait. Le 28 septembre, deux mois ont passé depuis l’avis du Conseil d’Etat estimant que « la rémunération des auteurs sur la vente de livres [imprimés] d’occasion » est constitutionnelle, mais contraire à la directive européenne « DADVSI » de 2001. La réviser en incluant aussi les ebooks d’occasion ?

En clair. Le gouvernement français devra convaincre la Commission européenne de réviser la directive « Droit d’auteur et des droits voisins dans la société de l’information » (DADVSI) de 2001 pour y prévoir la taxe sur la vente de livres d’occasion imprimés. Car le Conseil d’Etat, qu’il avait saisi le 2 mai 2025, lui a répondu que son projet d’instaurer « un principe de rémunération sur les livres d’occasion [papier] au bénéfice des auteurs » serait contraire au droit de l’Union européenne, notamment à la directive DADVSI. L’avis consultatif a été publié le 28 juillet dernier (1).
Si les sages du Palais-Royal estiment que le projet de taxation (officiellement « mécanisme de rémunération ») respecte les principes constitutionnels, ils sont en revanche catégoriques : « La règle de l’épuisement du droit de distribution à première cession [une fois un livre vendu, sa revente échappe au droit d’auteur, ndlr], telle qu’elle résulte de la directive [DADVSI], fait obstacle à la création d’un dispositif de droit national […] imposant la perception d’une rémunération lors du commerce ultérieur de livres imprimés d’occasion » (2). Le Syndicat national de l’édition (SNE) (suite) et le Conseil permanent des écrivains (CPE), qui sont à l’origine d’un lobbying soutenu auprès du gouvernement pour instaurer cette taxe sur les livres d’occasion papier, n’ont, eux, pas la même lecture que le Conseil d’Etat (3). Qu’à cela ne tienne, la révision de la directive DADVSI sera nécessaire pour y parvenir. Aussi, Edition Multimédi@ se demande si cette révision européenne ne serait pas l’occasion – justement ! – d’y inclure aussi les ebooks d’occasion ? Alors que le gouvernement français, aiguillonné par le duo SNE-CPE qui avait demandé à la juriste Sarah Dormont un avis portant sur le seul livre imprimé, exclut d’emblée les ebooks. Sous quel prétexte ? « Le livre numérique n’est pas concerné par l’épuisement, n’étant pas un exemplaire matériel », a justifié Sarah Dormont, comme l’a fait la CJUE dans son arrêt « Kabinet » de 2019.
Sauf à changer la « DADVSI », car la blockchain et les NFT permettent désormais de sécuriser la vente d’ebooks d’occasion. Cela pourrait être une première législative mondiale. La société française Liwé (lire EM@316, p. 3) et les américaines Book.io et Publica sont parmi les pionniers à avoir essuyé les plâtres pour montrer la voie de l’ebook d’occasion. @