La présomption d’exploitation des contenus culturels par les IA reste incertaine voire inconstitutionnelle

La proposition de loi instaurant une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle » a été déposée au Sénat le 12 décembre 2025. Ce projet de texte ne fait pas l’unanimité, ni en France ni au Parlement européen, et soulève des questions.

(La commission juridique du Parlement européen a voté le 28 janvier 2026 pour le rapport de l’eurodéputé Alex Voss, mais expurgé de l’irrebuttable presumption of use).

La proposition de loi instaurant une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle », déposée au Sénat le 12 décembre 2025, sera-t-elle examinée en ce début 2026 ? Rien n’est moins sûr, car ce texte – concocté en plein lobbying d’organisations d’ayants droits et sur recommandation d’une mission du ministère de la Culture conduite par le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – soulève des questions et des réserves de la part des entreprises visées et du gouvernement.

Les deux objectifs poursuivis par le Sénat
Pour les sénatrices Agnès Evren (LR) et Laure Darcos (Indépendants) ainsi que le sénateur Pierre Ouzoulias (communiste/CRCE), qui ont publié le 9 juillet 2025 un rapport d’information intitulé « Création et IA : de la prédation au partage de la valeur » (1), il s’agit d’instaurer une inversion de la charge de la preuve ou tout du moins d’alléger la charge de la preuve pesant sur les ayants droit lorsque ces derniers forment un recours. En clair : ce serait aux entreprises de systèmes d’IA de démontrer qu’elles n’utilisent pas de contenus culturels pour l’entraînement de leurs systèmes d’IA.
« La présomption proposée ici est dite simple ou réfragable [réfutable, pouvant être contredits, ou mis en défaut par un raisonnement ou une preuve, ndlr]. Elle peut donc être renversée par la preuve contraire, c’est-à-dire la démonstration au juge que le ou les contenus n’ont pas été utilisés », justifient les sénateurs emmenés par Laure Darcos (photo). D’autant que pour les auteurs de la proposition de loi, « il serait difficilement audible de soutenir que la charge de la preuve, qui incombe aujourd’hui aux titulaires de droits, alors qu’ils n’ont pas la maîtrise technique de l’outil IA, est trop lourde pour des professionnels de l’exploitation de la donnée ». La proposition de loi vise donc à instaurer cette présomption légale, en poursuivant un double objectif comme (suite)

Premier jugement historique en Europe condamnant OpenAI pour atteinte au droit d’auteur

Même si ce jugement historique du 11 novembre 2025 – prononcé par le tribunal de Munich contre de l’éditeur américain de ChatGPT accusé de contrefaçon musicale – est provisoire (OpenAI ayant fait appel), il sonne comme un avertissement planétaire à toutes les sociétés d’IA génératives.

Tobias Holzmüller (photo), le PDG de la Gema, qui est en Allemagne ce que la Sacem est en France, peut être fier du verdict historique obtenu en première instance du tribunal régional de Munich le 11 novembre 2025 : la manière dont OpenAI gère actuellement ChatGPT viole les lois européennes applicables sur le droit d’auteur. « Pour la première fois en Europe, l’argument en faveur de l’utilisation par les systèmes d’IA générative d’œuvres protégées par le droit d’auteur a été examiné juridiquement et statué en faveur des créateurs des œuvres », s’est félicitée la Société pour les droits d’exécution musicale et de reproduction mécanique (Gema).

Copyright : Internet n’est pas open bar
Cette décision judiciaire allemande – première de ce type dans l’Union européenne (UE) et au retentissement mondial – a clairement jugé que la licorne américaine OpenAI aurait dû acquérir les droits sur les paroles des paroliers et auteurs-compositeurs du répertoire de la Gema, avant de les utiliser pour entraîner ses modèles d’IA et de les exploiter avec son chatbot ChatGPT. De telles reproductions sans autorisations constituent aux yeux du tribunal de Munich des violations du droit d’auteur, et pour lesquelles OpenAI aurait dû obtenir une licence qui offre aux titulaires des droits une rémunération appropriée.
C’est la première fois dans l’UE qu’une décision clarifie aujourd’hui des questions juridiques-clés concernant la manière dont les nouvelles technologies interagissent avec le copyright européen. « Internet n’est pas une sorte de buffet en libre-service, et les réalisations créatives des êtres humains ne sont pas simplement des modèles à utiliser gratuitement. Aujourd’hui, nous avons établi un précédent qui protège et clarifie les droits des détenteurs de droits d’auteur créatifs : les opérateurs d’outils d’IA tels que ChatGPT doivent (suite)

La France, devenue championne du blocage DNS au risque de porter atteinte à des sites web légaux

La plateforme chinoise Shein est assignée par le gouvernement français pour que la justice ordonne le blocage en France de son nom de domaine (DNS), le tribunal de Paris devant se prononcer le 26 novembre 2025. La France est déjà championne dans le « blocage DNS », contre le piratage. Excessif ?

« Sur instruction du Premier ministre, le gouvernement engage la procédure de suspension de Shein le temps nécessaire pour que la plateforme démontre aux pouvoirs publics que l’ensemble de ses contenus soient enfin en conformité avec nos lois et règlements », a annoncé le gouvernement français le 5 novembre. La plateforme chinoise de e-commerce (1) sera fixée sur son sort à l’issue de l’audience devant le tribunal de Paris prévue le 5 décembre 2025 (au lieu du 26 novembre initialement prévu) : déréférencement des moteurs de recherche, blocage par nom de domaine via les fournisseurs d’accès à Internet (FAI) et suspension de l’accès par l’éditeur de Shein lui-même (Infinite Style Services) sous 48 heures et pour au moins 3 mois (2) ?

Blocage d’accès par décision du juge
Le blocage par nom de domaine – ou blocage DNS (Domain Name System) – consiste à empêcher les utilisateurs d’accéder au site web incriminé via son nom de domaine, ou via plusieurs comme pour Shein si le tribunal devait le décider (shein.com et fr.shein.com). En France, le blocage DNS est généralement ordonné par un juge, souvent en référé, à la demande d’une autorité administrative ou judiciaire. Cette mesure de blocage est utilisée dans des cas de contenus illicites, de contrefaçon (piratage d’œuvres ou de retransmissions sportives, par exemple), ou non-conformité grave. La procédure de blocage DNS peut s’appuyer en France sur un article du code de la consommation (3) qui a été introduit par la loi « Confiance dans l’économie numérique » (LCEN) de 2004, modifiée par la loi « Sécuriser et réguler l’espace numérique » (SREN) de 2024.
Cet article donne pouvoir (4) à la Direction générale de la concurrence de la consommation et de la répression des fraudes (DGCCRF), que dirige Sarah Lacoche (photo), de : (suite)

Le Space Act veut « européaniser » le droit spatial à l’heure des très grandes constellations

Alors que les deux seules gigaconstellations, dont la commercialisation débutera en Europe début 2026, sont américaines (Kuiper d’Amazon avec 3.200 satellites et Starlink de SpaceX avec 6.750), le Parlement européen a commencé à examiner la législation spatiale pour l’UE – le « Space Act ».

Par Mathilde Dubois, collaboratrice, Marta Lahuerta Escolano, associée, Jones Day

Le projet de législation spatiale pour l’Union européenne (UE), le « Space Act » présenté le 25 juin 2025 par la Commission européenne, affiche clairement son ambition de doter l’Europe – avant 2030 – d’un cadre normatif unifié régissant les activités spatiales civiles et commerciales. Attendu depuis plusieurs années, ce texte s’inscrit dans un contexte de profonde mutation du secteur spatial, marqué par l’essor d’acteurs privés, la multiplication des lancements, la congestion des orbites et la montée en puissance de nouvelles nations spatiales hors Europe.

Défragmenter le cadre spatial européen
A travers cette initiative législative, actuellement examinée par les commissions du Parlement européen (1) en vue de l’adoption du règlement en 2026 ou 2027, l’UE s’apprête à franchir un tournant majeur dans la construction de son autonomie stratégique et juridique dans le domaine spatial. Jusqu’à présent, la régulation des activités spatiales au sein des Vingt-sept relevait principalement de la compétence de chaque Etat membre. D’après le registre des Nations Unies listant les législations spatiales des Etats (2), treize législations nationales étaient en vigueur dans l’UE à la fin de l’année 2024. En France, le cadre national repose sur la loi « Opérations spatiales » (3) de 2008. En Italie, la loi « Economie spatiale » (4) est entrée en vigueur le 25 juin 2025 – soit le même jour que la présentation du Space Act. Quelques pays comme l’Espagne ou l’Estonie ont également annoncé préparer des dispositifs législatifs régissant les activités spatiales (5).
Les dispositifs nationaux européens s’adossent aux traités spatiaux des Nations Unies (6). Parmi eux, le Traité de l’Espace (7), entré en vigueur le 10 octobre 1967, ou encore la Convention sur l’immatriculation des objets lancés dans l’espace extra-atmosphérique, entrée en vigueur le 15 septembre 1976. Au niveau de l’UE, (suite)

Gouvernance des autorités pour l’AI Act : multiplier les régulateurs pourrait être contreproductif

La France va se doter – si une loi était adoptée en 2026 – d’une gouvernance sectorielle pour l’IA, pilotée par la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Mais la multiplicité des régulateurs pourrait compliquer la tâche des entreprises.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

La Direction générale des entreprises (DGE), qui dépend du ministère de l’Economie et des Finances, a publié le 9 septembre 2025 un projet de désignation des autorités nationales chargées de la mise en œuvre en France du règlement européen sur l’intelligence artificielle (AI Act). Sous la coordination de la DGE et de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), ce projet instaure un schéma décentralisé et sectoriel de gouvernance s’appuyant sur les régulateurs existants en France.

La DGCCRF centralise la coordination
Ce modèle s’inscrit dans le cadre de l’AI Act (1) et des dispositions de son article 70 qui impose la désignation d’autorités nationales de notification et de surveillance du marché dans chaque Etat membre. Cette proposition de gouvernance sectorielle et décentralisée doit être présentée au Parlement sous la forme d’un projet de loi. Il ne sera donc définitif qu’après un vote législatif, très probablement dans le courant du premier semestre 2026. Le schéma retenu par le gouvernement prévoit que la mise en œuvre effective de ce règlement européen sur l’IA sera supervisée par plusieurs autorités compétentes, conformément aux orientations proposées par cet AI Act. Dès lors, les administrations, agences et autorités spécialisées – selon leur secteur d’intervention – auront la charge de contrôler les systèmes d’intelligence artificielle, une fois mis sur le marché ou en service.
La DGCCRF centralisera la coordination opérationnelle entre diverses autorités sectorielles impliquées dans le contrôle des systèmes d’IA. Elle sera ainsi l’interlocuteur principal pour les autorités européennes et facilitera l’échange d’informations et la coopération entre les différents régulateurs nationaux. Elle agira comme un point de contact unique, pour la France auprès des instances européennes, sur les questions liées à la surveillance du marché de l’IA. Ce rôle de coordination s’inscrit dans une organisation bicéphale où la DGCCRF assurera la supervision pratique sur le terrain, tandis que la DGE apportera son soutien à la mise en œuvre de l’AI Act. A ce titre, la DGE jouera un rôle-clé dans l’organisation de la gouvernance nationale de ce règlement européen, notamment en (suite)