« Guerre informationnelle » et lutte contre la « désinformation étrangère » agitent l’Etat français

Face à la désinformation, l’Etat français s’érige de plus en plus en régulateur des contenus. Le secrétariat général de la défense et de la sécurité nationale (SGDSN) joue un rôle central avec son « service de vigilance et de protection contre les ingérences numériques étrangères » (Viginum).

Cela fait maintenant quatre ans jour pour jour – au 15 octobre 2025 – qu’un « comité éthique et scientifique », institué auprès du Secrétariat général de la défense et de la sécurité nationale (SGDSN), lequel dépend directement du Premier ministre, est chargé de suivre l’activité du « service de vigilance et de protection contre les ingérences numériques étrangères », plus connu sous le nom de Viginum, créé en 2021. Son comité est présidé depuis près deux ans par Jean-Luc Sauron (photo), conseiller d’Etat, et est composé de sept « personnalités qualifiées ».

Désinformation : le conseil de défense attendra
C’est le SGDSN, installé dans le 7e arrondissement de Paris et à proximité immédiate des Invalides et du ministère des Armées, qui est censé coordonner la tenue de ce que des médias ont appelé le « conseil de défense sur la guerre informationnelle » (1). Convoqué par le président de la République, Emmanuel Macron, ce conseil de défense (2) devrait se tenir initialement le 10 septembre 2025, dans le but de faire le point sur la stratégie et les capacités françaises en matière d’influence, de lutte contre les manipulations de l’information et les tentatives de déstabilisation venues de l’étranger. Mais il a été reporté et devait être « reprogrammé au mois d’octobre », d’après La Lettre (3). Cependant, les démissions successives de deux Premier ministre – François Bayrou le 9 septembre et Sébastien Lecornu le 6 octobre, ce dernier ayant été le plus éphémère locataire de Matignon de toute la Ve République (27 jours), avec un gouvernement « Lecornu 1 » mort-né en seulement 14h30 – ne permettront pas de réunir d’ici la fin du mois d’octobre ce conseil de défense sur la guerre informationnelle. Même avec « Lecornu 2 ». Les raisons du report initial du conseil de défense sur la guerre informationnelle ne sont pas (suite) claires, mais certaines sources font état de divergences entre l’Elysée et Matignon sur la manière pour la France de se mettre en ordre de bataille informationnelle : la présidence de la République souhaiterait une approche plus offensive et centralisée, tandis que les services du Premier ministre voudraient une coordination interministérielle plus prudente, notamment avec les ministères de la Culture et de l’Education nationale. Autre divergence dans l’approche de cette « guerre informationnelle » : le rôle de Viginum « contre les ingérences numériques étrangères ». Certains veulent amplifier les capacités d’action et donc ses moyens financiers. Or l’extension des prérogatives de Viginum au sein du SGDSN, notamment en matière de détection algorithmique et de signalement public, soulève des réserves sur la transparence et les garanties éthiques de ses actions informationnelles. D’autant que depuis sa création, le Viginum qui surveille la « désinformation étrangère » est lui-même aussi sous double surveillance : d’une part de son comité éthique et scientifique, d’autre part de la Cnil. Car il s’agit d’éviter que Viginum ne porte atteinte aux droits et libertés fondamentaux, dont la liberté d’expression et la liberté d’opinion, ni n’empiète sur la liberté de la presse (des médias) et le droit de savoir (pour le public).
Le comité éthique et scientifique est chargé de suivre l’activité de Viginum. Si l’arrêté de 2021 de nomination de ses huit membres (dont sa présidence) n’indique pas que leur mandat est de cinq ans non renouvelables, le décret de la même année le précise (4). Mis à part le remplacement en novembre 2023 de sa présidente Béatrice Bourgeois par Jean-Luc Sauron (5), les autres membres sont toujours en place. « Oui, je suis toujours membre », nous répond Aymeril Hoang, consultant numérique et innovation, ex-directeur de cabinet du Secrétaire d’Etat chargé du numérique Mounir Mahjoubi (2018-2019). « Oui, il me reste encore un an », nous précise aussi Benoît Loutrel, membre de l’Arcom (désigné du temps du CSA). Ils sont parmi les sept « personnalités qualifiées » qui constituent ce comité éthique et scientifique de Viginum.

Liberté de la presse et liberté d’expression
Y siègent aussi : Jean-Maurice Ripert, vice-président de l’Association française pour les Nations Unies (Afnu) et ex-Ambassadeur de France en Chine, et en Russie ; Marie-Christine Tarrare, procureure générale ; Claude Kirchner, président du Comité consultatif national d’éthique du numérique. Seuls deux membres sont issus des médias : Pauline Talagrand, adjointe à la rédaction en chef centrale de l’AFP et Julie Joly, exdirectrice générale du Nouvel Obs et ex-rédactrice en chef adjointe de L’Express. Quant à Jean-Luc Sauron, président de ce comité depuis près de deux ans, il est conseiller d’Etat, délégué au droit européen,chargé parmi les sages du Palais-Royal du suivi des questions liées au droit de l’Union européenne et de la Convention européenne des droits de l’homme. Ainsi encadré, Viginum doit rester circonscrit aux « ingérences numériques étrangères » sans porter atteinte à la liberté de la presse et à la liberté d’expression.

Surveillance web et données personnelles
La Commission nationale de l’informatique et des libertés (Cnil) a déjà mis en garde l’Etat français contre les risques de dérapages de Viginum. Si « le traitement [automatisé de données à caractère personnel visant à détecter et caractériser les opérations d’ingérence numérique étrangères] est justifié par l’objectif légitime de préserver la sincérité du débat démocratique et de lutter contre les atteintes aux intérêts fondamentaux de la Nation », le gendarme des données personnelles « estime néanmoins que la mise en œuvre d’un tel traitement n’est pas neutre sur l’exercice des libertés publiques compte tenu de l’économie générale du traitement et des conséquences que ce traitement est susceptible d’avoir sur certains droits et libertés fondamentaux, dont la liberté d’expression et la liberté d’opinion ».
Ces sérieuses réserves sur Viginum, formulées par la Cnil dans son avis du 7 octobre 2021, s’accompagnent d’inquiétudes sur des « atteintes » aux droits fondamentaux par « une veille permanente et, parce qu’il peut concerner tous les champs du débat public, [qui] est susceptible de permettre à tout instant une collecte massive de données ». Et de prévenir : « De telles atteintes ne peuvent être admises que si des garanties suffisantes sont prévues. […] Une attention particulière doit être accordée au principe de transparence à l’égard du grand public et aux principes de minimisation des données et de respect de la vie privée dès la conception, en limitant le traitement de données non pertinentes » (6). La surveillance généralisée du Web n’est pas loin, à l’instar de ce que pratique la Chine, la Russie ou l’Iran. La Cnil évoque « potentiellement plusieurs centaines de milliers de personnes » peuvent être concernées en France. Car Viginum, au sein du SGDSN que dirige depuis six mois Nicolas Roche (photo ci-dessus), ancien ambassadeur de France en Iran, n’y va pas par quatre chemins pour aspirer les contenus en ligne selon des techniques automatisées – désormais optimisées par l’intelligence artificielle. Et ce, par « des techniques d’extraction du contenu de sites [web], via des scripts ou des programmes automatisés (webscraping) ou l’utilisation d’interfaces de mise à disposition des données fournies par les plateformes (ou API), durant une période initiale de sept jours ». Et c’est Viginum et son comité éthique et scientifique qui vont « séparer les informations à conserver de celles qui doivent être immédiatement supprimées […], afin de confirmer, le cas échéant, la présence d’une opération d’ingérence numérique étrangères ». La Cnil a considéré en outre qu’« une atteinte particulièrement importante au droit au respect de la vie privée et à la protection des données à caractère personnel est caractérisée ». Le gendarme des données avait donc vivement recommandé au gouvernement que le comité éthique et scientifique veille « effectivement » sur les opérations de collecte déclenchées par Viginum (à partir des fiches de traçabilité transmises), et que « les moyens du comité devraient être proportionnés à ses missions, afin qu’il puisse réagir rapidement ».
Pour plus de transparence sur leurs actions, le comité éthique et scientifique de Viginum est censé publier ses rapports annuels. Le premier l’a été pour la période juillet 2021-décembre 2022. Mais force est de constater (7) qu’à mioctobre 2025 aucun rapport n’a été diffusé pour les années 2023 ou 2024, ni pour le début de 2025. Selon une information d’Intelligence Online l’été dernier, la Cour des comptes va lancer un audit sur le SGDSN et Viginum « lors du second semestre 2025 » (8). Malgré les risques de dérapages pouvant porter à la démocratie, certains prônent un renforcement accru du SGDSN et de son Viginum, au lieu de multiplier les acteurs dans la guerre informationnelle (SGDSN, Anssi, Délégation interministérielle, les Armées, le Quai d’Orsay, Services de renseignement, …).

Le SGDSN renforcé : appel au privé ?
C’est le cas de Benoît Thieulin, ex-président de feu le Conseil national du numérique (CNnum), et de Arnaud Dassier, entrepreneur et ancien membre du cabinet d’Alain Madelin et ancien consultant communication de Jacques Chirac puis de Nicolas Sarkozy, qui dénoncent « la dilution des responsabilités et le saupoudrage des moyens ». « Une autorité unique – qui pourrait être le SGDSN – devrait coordonner la riposte sous l’autorité directe du Président de la République, avec des moyens dédiés et une doctrine offensive assumée », affirmentils, quitte à ce que le SGDSN puisse « s’appuyer sur des proxys : agences privées, relais médias et influenceurs extérieurs » (9). Benoît Thieulin a cofondé en juillet 2025 La Warroom (10) qu’il dirige, une agence privée justement, « pour armer les récits, de l’analyse prédictive à la riposte informationnelle ». @

Charles de Laubier

Gouvernance des autorités pour l’AI Act : multiplier les régulateurs pourrait être contreproductif

La France va se doter – si une loi était adoptée en 2026 – d’une gouvernance sectorielle pour l’IA, pilotée par la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Mais la multiplicité des régulateurs pourrait compliquer la tâche des entreprises.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

La Direction générale des entreprises (DGE), qui dépend du ministère de l’Economie et des Finances, a publié le 9 septembre 2025 un projet de désignation des autorités nationales chargées de la mise en œuvre en France du règlement européen sur l’intelligence artificielle (AI Act). Sous la coordination de la DGE et de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), ce projet instaure un schéma décentralisé et sectoriel de gouvernance s’appuyant sur les régulateurs existants en France.

La DGCCRF centralise la coordination
Ce modèle s’inscrit dans le cadre de l’AI Act (1) et des dispositions de son article 70 qui impose la désignation d’autorités nationales de notification et de surveillance du marché dans chaque Etat membre. Cette proposition de gouvernance sectorielle et décentralisée doit être présentée au Parlement sous la forme d’un projet de loi. Il ne sera donc définitif qu’après un vote législatif, très probablement dans le courant du premier semestre 2026. Le schéma retenu par le gouvernement prévoit que la mise en œuvre effective de ce règlement européen sur l’IA sera supervisée par plusieurs autorités compétentes, conformément aux orientations proposées par cet AI Act. Dès lors, les administrations, agences et autorités spécialisées – selon leur secteur d’intervention – auront la charge de contrôler les systèmes d’intelligence artificielle, une fois mis sur le marché ou en service.
La DGCCRF centralisera la coordination opérationnelle entre diverses autorités sectorielles impliquées dans le contrôle des systèmes d’IA. Elle sera ainsi l’interlocuteur principal pour les autorités européennes et facilitera l’échange d’informations et la coopération entre les différents régulateurs nationaux. Elle agira comme un point de contact unique, pour la France auprès des instances européennes, sur les questions liées à la surveillance du marché de l’IA. Ce rôle de coordination s’inscrit dans une organisation bicéphale où la DGCCRF assurera la supervision pratique sur le terrain, tandis que la DGE apportera son soutien à la mise en œuvre de l’AI Act. A ce titre, la DGE jouera un rôle-clé dans l’organisation de la gouvernance nationale de ce règlement européen, notamment en (suite) assurant la représentation française et en veillant à un alignement dans l’application des règles sur tout le territoire national, au sein du Comité européen de l’IA. Cet « AI Board » (2), dont le secrétariat est assuré par le Bureau de l’IA (« AI Office ») de la Commission européenne (3), est une instance qui rassemble les représentants des autorités nationales compétentes pour coordonner l’application – justement harmonisée – du règlement européen « établissant des règles harmonisées concernant l’intelligence artificielle ».
Le souhait du gouvernement français est de permettre une surveillance adaptée, mobilisant les compétences spécifiques de chaque autorité en fonction des usages et risques associés aux systèmes d’IA concernés. Les autorités nationales s’inscriraient ainsi comme des acteurs pivots dans la chaîne de surveillance et de contrôle. En pratique, chaque entreprise ou organisation continuera de s’adresser prioritairement à son régulateur de secteur pour respecter les exigences de l’AI Act. Pour les aspects techniques, l’Agence nationale de la sécurité des systèmes d’information (Anssi) et le Pôle d’expertise de la régulation numérique (PEReN) fourniront un appui transversal aux régulateurs qui bénéficieront d’un « socle mutualisé d’expertises ». Ils pourront ainsi les accompagner dans l’analyse technique, la cybersécurité et l’audit des algorithmes d’IA. La Commission nationale de l’informatique et des libertés (Cnil) et l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) figurent comme des interlocuteurs majeurs pour les enjeux relatifs à la protection des données et à la régulation des contenus auprès des collectivités publiques. Bercy n’a pas publié le 9 septembre 2025 de rapport complet (4) mais un aperçu du schéma proposé – accompagné d’un graphique (5)) qui identifie le périmètre d’intervention des autorités compétentes selon quatre critères : les pratiques interdites (6), les obligations spécifiques de transparence (7), les systèmes d’IA à haut risque (8), les systèmes d’IA à haut risque (9).

Au titre des pratiques interdites
La DGCCRF et l’Arcom veillent au respect de l’interdiction des systèmes d’IA qui utilisent des techniques subliminales, manipulatrices ou trompeuses, et qui exploitent les vulnérabilités liées à l’âge, au handicap ou à la situation sociale ou économique. La Cnil et la DGCCRF contrôlent le respect de l’interdiction sur les systèmes d’IA dédiés à l’évaluation, la classification ou notation sociale. La Cnil joue un rôle central dans le contrôle des pratiques interdites puisqu’elle est seule chargée du contrôle des autres pratiques interdites : police prédictive, création de bases de données de reconnaissance faciale via moissonnage non ciblé, inférence des émotions sur lieu de travail et établissements d’enseignement, catégorisation biométrique, identification biométrique à distance en temps réel à des fins répressives.

Transparence et IA à haut risque
La DGCCRF et Arcom contrôlent les systèmes d’IA interagissant directement avec les personnes ou générant des contenus synthétiques et hypertrucages. L’Arcom surveille également les systèmes générant ou manipulant des textes destinés à informer le public sur des questions d’intérêt public. La Cnil contrôle, quant à elle, le respect des obligations de transparence concernant les systèmes de reconnaissance des émotions et de catégorisation biométrique. Les autorités de surveillance du marché compétentes pour les systèmes d’IA à haut risque voient leur périmètre élargi pour le contrôle de l’intégration de l’IA dans ces produits classés « à haut risque » selon l’annexe I du règlement IA. Ainsi, par exemple, la DGCCRF est en charge de veiller à la sécurité des jouets, et avec l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) pour les dispositifs médicaux.
Pour les systèmes d’IA à haut risque relevant de l’annexe III, les Hauts fonctionnaires de défense et de sécurité (HFDS) des ministères économiques, financiers, industriels et écologiques contrôlent les IA liées aux infrastructures critiques. L’Autorité de contrôle prudentiel et de résolution (ACPR) contrôle les IA destinées à être utilisées pour évaluer la solvabilité des personnes physiques, établir les notes de crédit, et évaluer les risques et la tarification en matière d’assurance-vie et d’assurance maladie. Le Conseil d’Etat, la Cour de cassation et la Cour des comptes supervisent, quant à eux, les systèmes d’IA mis en service ou utilisés par les autorités judiciaires à des fins d’administration de la justice. Enfin, la Cnil contrôle les IA dans l’enseignement, la formation professionnelle (avec la DGCCRF), les processus démocratiques (avec l’Arcom), la biométrie, la gestion des ressources humaines, les usages répressifs, la migration, l’asile, ainsi que le contrôle des frontières. Le schéma « DGE-DGCCRF » proposé vise à éviter la création d’une superstructure, tout en valorisant l’expertise existante au sein des autorités déjà en place.
Le gouvernement français mise ainsi sur les autorités déjà opérationnelles, qui disposent chacune d’une expertise fine dans leurs domaines respectifs. Cette gouvernance « IA » devrait permettre d’apporter une proximité sectorielle avec les acteurs régulés, ainsi qu’une meilleure compréhension des pratiques spécifiques pour une régulation adaptée et un contrôle plus efficace. Pour autant, et c’est là que le bât blesse, cette gouvernance morcelée pourrait générer une complexité accrue pour les entreprises multi-secteurs, avec des points de contacts multiples et une articulation parfois difficile entre exigences sectorielles et obligations transversales de l’AI Act. Ainsi, les PME risquent d’être confrontées à une multiplicité d’interlocuteurs et à une compréhension plus complexe des règles applicables. En effet, les sociétés devront entreprendre des démarches spécifiques selon leur secteur d’activité, rajoutant alors des points de complexité dans leur mise en conformité aux exigences de l’AI Act. Cette gouvernance éclatée pourrait également entraîner une charge administrative accrue, des difficultés de compréhension des exigences applicables et un risque d’interprétations divergentes entre autorités.
Si la DGCCRF joue un rôle d’orientation clé, la multiplication des intervenants et la fragmentation normative s’avèrent particulièrement complexes pour les PME, qui disposent souvent de ressources juridiques limitées pour mener des programmes de mise en conformité de leurs pratiques. La multiplicité des organismes implique aussi un risque de dilution des responsabilités, surtout en cas d’incidents ou de litiges impliquant différents aspects de l’IA (par exemple, un système de scoring biométrique utilisé à des fins publicitaires). En l’absence d’un chef de file unique clairement identifié, cette configuration peut retarder la prise de décision ou compliquer la coordination des sanctions.
Le Conseil d’Etat, dans une étude publiée en 2022 intitulée « Intelligence artificielle et action publique : construire la confiance, servir la performance » (10), avait préconisé une transformation profonde de la Cnil en autorité nationale de contrôle responsable de la régulation des systèmes d’IA. Il soulignait que pour garantir la cohérence et la sécurité juridique, il serait préférable d’adosser la gouvernance de l’IA à une autorité unique renforcée, la Cnil étant le choix naturel compte tenu de son expérience reconnue en matière de protection des données personnelles et de régulation numérique. Confronté à la diversité des secteurs d’application de l’IA, cette piste a été écartée. La mise en œuvre de l’AI Act et la gouvernance proposée imposent donc aux entreprises une coordination et une gestion rigoureuse de leurs risques. Elles doivent concilier les exigences spécifiques à chaque secteur d’activité tout en assurant une sécurité juridique dans un environnement réglementaire à la fois complexe et en constante évolution.

Les entreprises attendues au tournant
Face aux enjeux de l’intelligence artificielle, les entreprises et organisation devront mettre en place un pilotage rigoureux de leurs pratiques. A ce titre, elles devront identifier et évaluer les risques liés à leurs systèmes d’IA, documenter leur fonctionnement, assurer la transparence des interactions, mettre en place un contrôle humain et des procédures de gestion des incidents, tout en respectant des échéances progressives jusqu’en 2026 pour assurer leur conformité à l’AI Act. Sinon, gare aux sanctions. @

* Antoine Gravereaux est avocat associé chez FTPA Avocats,
au département « Technologies, Data & Cybersécurité ».

L’incarcération d’un ancien président de la République consacre aussi un média numérique, Mediapart

C’est une condamnation historique d’un ancien président de la République française à de la prison ferme – avec incarcération – dans une affaire que Mediapart a révélée il y a treize ans. La sentence rendue à l’encontre de Nicolas Sarkozy le 25 septembre 2025 est aussi la consécration d’un média en ligne.

Depuis une trentaine d’années que les pure players de la presse en ligne existent, c’est la première fois que l’un d’eux se retrouve sous le feu des projecteurs et consacré pour son journalisme d’investigation – en l’occurrence pour avoir été à l’origine d’une affaire retentissante ayant conduit un ancien président de la République derrière les barreaux – un fait inédit et historique depuis la naissance de la République française en… 1792.
Le média numérique Mediapart, cofondé en 2008 par Edwy Plenel (photo de gauche) et présidé depuis 2024 par Carine Fouteau (photo de droite), s’est déjà fait une renommée avec de grandes enquêtes telles que les affaires Woerth-Bettencourt (2010), Cahuzac (2013), Baupin (2016), Ramadan (2017), Benalla (2019), Perdriau (2022) ou encore Azov/Courtine (2024). Mais cette fois, avec l’affaire Sarkozy-Kadhafi (2012-2025), Mediapart devient le premier nouveau média – qui plus est 100 % digital – à voir un ancien chef d’Etat – Nicolas Sarkozy, 6e président de la Ve République (2007-2012) et le 23e président de toutes les républiques françaises – être écroué (1). Et ce, treize ans après avoir révélé en avril 2012 un financement illégal de la campagne présidentielle de Nicolas Sarkozy en 2007 par des fonds provenant du régime libyen de Mouammar Kadhafi. Un scandale d’Etat.

Plus de 10,1 millions de visites par mois
Mediapart, c’est plus de 245.000 abonnés numériques et ce nombre ne cesse de grandir au fur et à mesure que les affaires révélées s’enchaînent. A fin décembre 2024, ils étaient 233.277, puis, d’après sa directrice de la publication Carine Fouteau au moment de la présentation des résultats annuels en mars 2025, les 245.000 abonnés ont été atteints. Mais le site de presse en ligne mediapart.fr, c’est aussi plus de 10,1 millions de visites par mois (2), d’après le relevé de Similarweb, dont près de 12 % provenant hors de France (3). Pour cette année 2025, le chiffre d’affaires de l’entreprise – employant plus de 150 personnes – devrait franchir la barre des 25 millions d’euros de chiffre d’affaires – pour dépasser les 27,7 millions d’euros si l’on applique la même croissance de 11,4 % constatée sur l’année précédente. « Notre modèle économique ne (suite) repose que sur le soutien et la fidélité de nos lectrices et lecteurs, 99 % de nos recettes provenant de l’abonnement », souligne l’entreprise de presse Société éditrice de Mediapart, dont le journal est « non cessible et non achetable » (4).

Contre les aides d’Etat et l’argent de Google
Créée il y aura 18 ans le 24 octobre, l’entreprise affiche dans ses comptes – publiés en toute transparence au greffe (5), contrairement à de nombreux médias – une rentabilité qui était de plus de 3,3 millions d’euros en 2024. Cette success story, dans un paysage médiatique français morose, force l’admiration. Alors que beaucoup ne croyaient pas à la viabilité économique d’un tel média numérique dépourvu de publicités et financé sur ses seuls abonnés payants, la profitabilité a très vite été au rendez-vous depuis 2011, sauf pour l’année 2014.
Cette année-là, 4,7 millions d’euros ont été provisionnés pour le contentieux fiscal sur la TVA : entre 2008 et 2014, Mediapart avait appliqué un taux réduit (2,1 %) sur ses abonnements numériques, équivalent à celui de la presse imprimée. Or, à l’époque, la loi imposait aux services numériques un taux de 19,6 % puis 20 %. D’où un redressement fiscal de 4,7 millions d’euros – dont 1,4 million de pénalités que conteste toujours Mediapart en invoquant sa bonne foi devant la Cour européenne des droits de l’Homme (CEDH). Cette dernière avait proposé début 2025 un accord amiable entre Société éditrice de Mediapart et l’Etat français, mais les deux parties ont refusé (6). « L’instruction est toujours en cours », indique à Edition Multimédi@ Cécile Sourd (photo ci-dessus), directrice générale de Mediapart.
Ce média en ligne indépendant l’est d’autant plus qu’il a toujours refusé de bénéficier des aides d’Etat auxquelles il a pourtant droit en tant que journal d’information politique et générale (IPG). En 2024, pas moins de 527 médias français ont reçu un total de 327 millions d’euros d’aides publiques (7). Par exemple : Le Monde – dont l’ancien président de Mediapart Edwy Plenel a été directeur de la rédaction de 1996 à 2004 – a touché de l’Etat près de 7,8 millions d’euros en 2024 ; Le Figaro a perçu près de 9,9 millions d’euros ; Aujourd’hui en France et Le Parisien ont empoché respectivement 12,2 millions d’euros et 1,7 million d’euros – soit un record 2024 de 13,9 millions d’euros au total pour Le Parisien/Aujourd’hui en France, propriété de Bernard Arnault (à qui des rumeurs prêtent l’intention de vendre ce quotidien à son homologue milliardaire Vincent Bolloré) ; Les Echos, également à Bernard Arnault, a été aidé par l’Etat à hauteur de plus de 2 millions d’euros ; La Croix a encaissé 8,7 millions d’euros. Pour ne citer qu’eux. Même des sites de presse pure players – sauf Mediapart – demandent l’aide de l’Etat : 69 titres pour un montant total de 4 millions d’euros, dont Arrêt sur Images (349.425 euros) Blast-info (316.464 euros), Contexte (289.476 euros), ou encore Le Huffington Post (242.000 euros).
« Seuls nos lecteurs peuvent nous acheter, assure le média d’investigation. Afin de garantir la liberté totale de sa rédaction, Mediapart a fait le choix de ne pas être financé par des milliardaires (pour pouvoir enquêter sur leurs intérêts industriels), de ne pas recourir à la publicité (pour ne pas être soumis aux pressions des annonceurs), de ne pas recevoir d’aides publiques à la presse (pour ne pas dépendre du bon vouloir politique), de ne pas accepter de contrats commerciaux avec les grandes plateformes numériques ». Parmi les Gafam, le géant Google est accusé par Mediapart depuis 2022 d’être opaque et non transparent sur les centaines de millions d’euros qu’il verse aux éditeurs de presse en France au titre des droits voisins, en contrepartie de l’utilisation de leurs articles de presse sur son moteur de recherche et ses agrégateurs d’actualité (Google Search, Google News et Google Discover).
Depuis que l’Autorité de la concurrence a condamné en 2024 Google à verser 250 millions d’euros aux éditeurs de presse « pour ne pas avoir respecté [s]es engagements rendus obligatoires par la décision du 21 juin 2022 », notamment sur la transparence (8), Mediapart refuse depuis d’encaisser les millions d’euros de Google qui lui sont dus. De même que lorsque la Société des droits voisins de la presse (DVP) – organisme de gestion collective dont Carine Fouteau est membre du conseil de surveillance – collecte auprès des plateformes numériques et réseaux sociaux (Google, Facebook, Microsoft, LinkedIn ou encore X) la rémunération qui est due à ses membres éditeurs, Mediapart ne récupère pas non plus sa part, « une substantielle somme, en attendant que le voile sur les chiffres soit levé » (9).

Mediapart, aussi en vidéo et… au cinéma
Mediapart se diversifie de plus en plus dans la vidéo, notamment sur YouTube (10) où sa chaîne dépasse 1 million d’abonnés, mais aussi au cinéma. L’incarcération de l’ancien président de la République relance l’intérêt du public pour le documentaire « Personne n’y comprend rien », sur l’affaire Sarkozy-Kadhafi, cofinancé par Mediapart grâce à un financement participatif – record pour un documentaire (11). Sorti en salles de cinéma en janvier 2025, il a totalisé plus de 154.059 entrées en six mois. Il est disponible en ligne à la location ou à l’achat sur Arte VOD (12) ou sur Mediapart VOD (13). @

Charles de Laubier

SEO, GEO et LLMO : visibilité en ligne chamboulée

En fait. Le 17 septembre, la société américaine Zeta Global – cotée en Bourse à New-York et spécialisée dans les solutions de marketing multicanal – a lancé sur sa plateforme le Generative Engine Optimization (GEO), la solution tendance pour que les marques restent visibles dans les réponses des IA génératives.

En clair. Signe des temps, la société de marketing direct Zeta Global – fondée en 2007 par par David Steinberg, son actuel PDG, et John Sculley, ancien PDG d’Apple (1983-1993) – plonge dans le grand bain mondial de l’optimisation pour les moteurs génératifs. Les spécialistes du marketing et les annonceurs publicitaires ont aimé le Search Engine Optimization (SEO), pour rendre plus visibles leurs marques et sites web dans les résultats des moteurs de recherche ; ils adorent déjà le Generative Engine Optimization (GEO). Car les moteurs de recherche traditionnels voient de plus en plus leurs utilisateurs passer aux intelligences artificielles génératives, même si Google est pour l’instant encore en position dominante avec son search. L’institut d’études Gartner a prédit « une baisse de 25 % du volume des moteurs de recherche d’ici 2026, en raison des chatbots IA et autres agents virtuels » (1).
De son côté, le cabinet de conseil Bain & Company a relevé en février 2025 que « 80 % des consommateurs (suite) s’appuient désormais sur les résultats écrits par l’IA pour au moins 40 % de leurs recherches, ce qui réduit le trafic web organique de 15 à 25 % » (2). Pas de temps à perdre : les marques et les sites web ne veulent pas être engloutis dans les classements des chat-search. Dans cette nouvelle donne de la visibilité en ligne, où l’IA générative formules les réponses, il s’agit aussi d’identifier et de corriger les lacunes de citation, les hallucinations ou les réponses. Pour être fin prêt au GEO, il faut désormais « optimiser les contenus pour qu’ils soient LLM-ready (questions-réponses, résumés, métadonnées) », comme l’explique Zeta Global, faisant référence aux grands modèles de langage – Large language model (LLM).
« Si vous n’êtes pas présent et précis dans la boîte de réponse, vous êtes invisible », prévient David Steinberg, PDG cofondateur de Zeta Global (3), qui se positionne comme « cloud marketing d’IA » (4). « Le nouvel outil permet aux spécialistes du marketing de contrôler l’apparition de leurs marques dans les principaux systèmes d’IA, notamment ChatGPT [d’OpenAI], Gemini [de Google] et Claude [d’Anthropic], et d’optimiser leurs réponses avec des recommandations ciblées et exploitables » (5). En France, des agences GEO voire LLMO (Large Language Model Optimization) montent en puissance, telles que Archipel AI, Eskimoz, Primelis, Upto1 ou Sales Odyssey. @

Réviser la DADVSI en faveur de l’ebook d’occasion

En fait. Le 28 septembre, deux mois ont passé depuis l’avis du Conseil d’Etat estimant que « la rémunération des auteurs sur la vente de livres [imprimés] d’occasion » est constitutionnelle, mais contraire à la directive européenne « DADVSI » de 2001. La réviser en incluant aussi les ebooks d’occasion ?

En clair. Le gouvernement français devra convaincre la Commission européenne de réviser la directive « Droit d’auteur et des droits voisins dans la société de l’information » (DADVSI) de 2001 pour y prévoir la taxe sur la vente de livres d’occasion imprimés. Car le Conseil d’Etat, qu’il avait saisi le 2 mai 2025, lui a répondu que son projet d’instaurer « un principe de rémunération sur les livres d’occasion [papier] au bénéfice des auteurs » serait contraire au droit de l’Union européenne, notamment à la directive DADVSI. L’avis consultatif a été publié le 28 juillet dernier (1).
Si les sages du Palais-Royal estiment que le projet de taxation (officiellement « mécanisme de rémunération ») respecte les principes constitutionnels, ils sont en revanche catégoriques : « La règle de l’épuisement du droit de distribution à première cession [une fois un livre vendu, sa revente échappe au droit d’auteur, ndlr], telle qu’elle résulte de la directive [DADVSI], fait obstacle à la création d’un dispositif de droit national […] imposant la perception d’une rémunération lors du commerce ultérieur de livres imprimés d’occasion » (2). Le Syndicat national de l’édition (SNE) (suite) et le Conseil permanent des écrivains (CPE), qui sont à l’origine d’un lobbying soutenu auprès du gouvernement pour instaurer cette taxe sur les livres d’occasion papier, n’ont, eux, pas la même lecture que le Conseil d’Etat (3). Qu’à cela ne tienne, la révision de la directive DADVSI sera nécessaire pour y parvenir. Aussi, Edition Multimédi@ se demande si cette révision européenne ne serait pas l’occasion – justement ! – d’y inclure aussi les ebooks d’occasion ? Alors que le gouvernement français, aiguillonné par le duo SNE-CPE qui avait demandé à la juriste Sarah Dormont un avis portant sur le seul livre imprimé, exclut d’emblée les ebooks. Sous quel prétexte ? « Le livre numérique n’est pas concerné par l’épuisement, n’étant pas un exemplaire matériel », a justifié Sarah Dormont, comme l’a fait la CJUE dans son arrêt « Kabinet » de 2019.
Sauf à changer la « DADVSI », car la blockchain et les NFT permettent désormais de sécuriser la vente d’ebooks d’occasion. Cela pourrait être une première législative mondiale. La société française Liwé (lire EM@316, p. 3) et les américaines Book.io et Publica sont parmi les pionniers à avoir essuyé les plâtres pour montrer la voie de l’ebook d’occasion. @