Premier jugement historique en Europe condamnant OpenAI pour atteinte au droit d’auteur

Même si ce jugement historique du 11 novembre 2025 – prononcé par le tribunal de Munich contre de l’éditeur américain de ChatGPT accusé de contrefaçon musicale – est provisoire (OpenAI ayant fait appel), il sonne comme un avertissement planétaire à toutes les sociétés d’IA génératives.

Tobias Holzmüller (photo), le PDG de la Gema, qui est en Allemagne ce que la Sacem est en France, peut être fier du verdict historique obtenu en première instance du tribunal régional de Munich le 11 novembre 2025 : la manière dont OpenAI gère actuellement ChatGPT viole les lois européennes applicables sur le droit d’auteur. « Pour la première fois en Europe, l’argument en faveur de l’utilisation par les systèmes d’IA générative d’œuvres protégées par le droit d’auteur a été examiné juridiquement et statué en faveur des créateurs des œuvres », s’est félicitée la Société pour les droits d’exécution musicale et de reproduction mécanique (Gema).

Copyright : Internet n’est pas open bar
Cette décision judiciaire allemande – première de ce type dans l’Union européenne (UE) et au retentissement mondial – a clairement jugé que la licorne américaine OpenAI aurait dû acquérir les droits sur les paroles des paroliers et auteurs-compositeurs du répertoire de la Gema, avant de les utiliser pour entraîner ses modèles d’IA et de les exploiter avec son chatbot ChatGPT. De telles reproductions sans autorisations constituent aux yeux du tribunal de Munich des violations du droit d’auteur, et pour lesquelles OpenAI aurait dû obtenir une licence qui offre aux titulaires des droits une rémunération appropriée.
C’est la première fois dans l’UE qu’une décision clarifie aujourd’hui des questions juridiques-clés concernant la manière dont les nouvelles technologies interagissent avec le copyright européen. « Internet n’est pas une sorte de buffet en libre-service, et les réalisations créatives des êtres humains ne sont pas simplement des modèles à utiliser gratuitement. Aujourd’hui, nous avons établi un précédent qui protège et clarifie les droits des détenteurs de droits d’auteur créatifs : les opérateurs d’outils d’IA tels que ChatGPT doivent (suite)

La France, devenue championne du blocage DNS au risque de porter atteinte à des sites web légaux

La plateforme chinoise Shein est assignée par le gouvernement français pour que la justice ordonne le blocage en France de son nom de domaine (DNS), le tribunal de Paris devant se prononcer le 26 novembre 2025. La France est déjà championne dans le « blocage DNS », contre le piratage. Excessif ?

« Sur instruction du Premier ministre, le gouvernement engage la procédure de suspension de Shein le temps nécessaire pour que la plateforme démontre aux pouvoirs publics que l’ensemble de ses contenus soient enfin en conformité avec nos lois et règlements », a annoncé le gouvernement français le 5 novembre. La plateforme chinoise de e-commerce (1) sera fixée sur son sort à l’issue de l’audience devant le tribunal de Paris prévue le 5 décembre 2025 (au lieu du 26 novembre initialement prévu) : déréférencement des moteurs de recherche, blocage par nom de domaine via les fournisseurs d’accès à Internet (FAI) et suspension de l’accès par l’éditeur de Shein lui-même (Infinite Style Services) sous 48 heures et pour au moins 3 mois (2) ?

Blocage d’accès par décision du juge
Le blocage par nom de domaine – ou blocage DNS (Domain Name System) – consiste à empêcher les utilisateurs d’accéder au site web incriminé via son nom de domaine, ou via plusieurs comme pour Shein si le tribunal devait le décider (shein.com et fr.shein.com). En France, le blocage DNS est généralement ordonné par un juge, souvent en référé, à la demande d’une autorité administrative ou judiciaire. Cette mesure de blocage est utilisée dans des cas de contenus illicites, de contrefaçon (piratage d’œuvres ou de retransmissions sportives, par exemple), ou non-conformité grave. La procédure de blocage DNS peut s’appuyer en France sur un article du code de la consommation (3) qui a été introduit par la loi « Confiance dans l’économie numérique » (LCEN) de 2004, modifiée par la loi « Sécuriser et réguler l’espace numérique » (SREN) de 2024.
Cet article donne pouvoir (4) à la Direction générale de la concurrence de la consommation et de la répression des fraudes (DGCCRF), que dirige Sarah Lacoche (photo), de : (suite)

Le Space Act veut « européaniser » le droit spatial à l’heure des très grandes constellations

Alors que les deux seules gigaconstellations, dont la commercialisation débutera en Europe début 2026, sont américaines (Kuiper d’Amazon avec 3.200 satellites et Starlink de SpaceX avec 6.750), le Parlement européen a commencé à examiner la législation spatiale pour l’UE – le « Space Act ».

Par Mathilde Dubois, collaboratrice, Marta Lahuerta Escolano, associée, Jones Day

Le projet de législation spatiale pour l’Union européenne (UE), le « Space Act » présenté le 25 juin 2025 par la Commission européenne, affiche clairement son ambition de doter l’Europe – avant 2030 – d’un cadre normatif unifié régissant les activités spatiales civiles et commerciales. Attendu depuis plusieurs années, ce texte s’inscrit dans un contexte de profonde mutation du secteur spatial, marqué par l’essor d’acteurs privés, la multiplication des lancements, la congestion des orbites et la montée en puissance de nouvelles nations spatiales hors Europe.

Défragmenter le cadre spatial européen
A travers cette initiative législative, actuellement examinée par les commissions du Parlement européen (1) en vue de l’adoption du règlement en 2026 ou 2027, l’UE s’apprête à franchir un tournant majeur dans la construction de son autonomie stratégique et juridique dans le domaine spatial. Jusqu’à présent, la régulation des activités spatiales au sein des Vingt-sept relevait principalement de la compétence de chaque Etat membre. D’après le registre des Nations Unies listant les législations spatiales des Etats (2), treize législations nationales étaient en vigueur dans l’UE à la fin de l’année 2024. En France, le cadre national repose sur la loi « Opérations spatiales » (3) de 2008. En Italie, la loi « Economie spatiale » (4) est entrée en vigueur le 25 juin 2025 – soit le même jour que la présentation du Space Act. Quelques pays comme l’Espagne ou l’Estonie ont également annoncé préparer des dispositifs législatifs régissant les activités spatiales (5).
Les dispositifs nationaux européens s’adossent aux traités spatiaux des Nations Unies (6). Parmi eux, le Traité de l’Espace (7), entré en vigueur le 10 octobre 1967, ou encore la Convention sur l’immatriculation des objets lancés dans l’espace extra-atmosphérique, entrée en vigueur le 15 septembre 1976. Au niveau de l’UE, (suite)

Gouvernance des autorités pour l’AI Act : multiplier les régulateurs pourrait être contreproductif

La France va se doter – si une loi était adoptée en 2026 – d’une gouvernance sectorielle pour l’IA, pilotée par la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Mais la multiplicité des régulateurs pourrait compliquer la tâche des entreprises.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

La Direction générale des entreprises (DGE), qui dépend du ministère de l’Economie et des Finances, a publié le 9 septembre 2025 un projet de désignation des autorités nationales chargées de la mise en œuvre en France du règlement européen sur l’intelligence artificielle (AI Act). Sous la coordination de la DGE et de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), ce projet instaure un schéma décentralisé et sectoriel de gouvernance s’appuyant sur les régulateurs existants en France.

La DGCCRF centralise la coordination
Ce modèle s’inscrit dans le cadre de l’AI Act (1) et des dispositions de son article 70 qui impose la désignation d’autorités nationales de notification et de surveillance du marché dans chaque Etat membre. Cette proposition de gouvernance sectorielle et décentralisée doit être présentée au Parlement sous la forme d’un projet de loi. Il ne sera donc définitif qu’après un vote législatif, très probablement dans le courant du premier semestre 2026. Le schéma retenu par le gouvernement prévoit que la mise en œuvre effective de ce règlement européen sur l’IA sera supervisée par plusieurs autorités compétentes, conformément aux orientations proposées par cet AI Act. Dès lors, les administrations, agences et autorités spécialisées – selon leur secteur d’intervention – auront la charge de contrôler les systèmes d’intelligence artificielle, une fois mis sur le marché ou en service.
La DGCCRF centralisera la coordination opérationnelle entre diverses autorités sectorielles impliquées dans le contrôle des systèmes d’IA. Elle sera ainsi l’interlocuteur principal pour les autorités européennes et facilitera l’échange d’informations et la coopération entre les différents régulateurs nationaux. Elle agira comme un point de contact unique, pour la France auprès des instances européennes, sur les questions liées à la surveillance du marché de l’IA. Ce rôle de coordination s’inscrit dans une organisation bicéphale où la DGCCRF assurera la supervision pratique sur le terrain, tandis que la DGE apportera son soutien à la mise en œuvre de l’AI Act. A ce titre, la DGE jouera un rôle-clé dans l’organisation de la gouvernance nationale de ce règlement européen, notamment en (suite)

Entre l’AI Act, le RGPD, le droit d’auteur et la protection des bases de données, l’articulation est cornélienne

Les fournisseurs de système d’IA et les entreprises utilisatrices de ces solutions – exploitant quantités de données, personnelles comprises – doivent se conformer à plusieurs réglementations européennes : de l’AI Act au RGPD, en passant les directives « Copyright » et « Bases de données ».

Par Arnaud Touati, avocat associé, et Mathilde Enouf, juriste, Hashtag Avocats

L’AI Act – règlement européen sur l’intelligence artificielle (1) – représente un changement significatif dans la régulation technologique au sein des Vingt-sept. Il ne substitue pas aux régimes existants, mais les enrichit, engendrant une superposition complexe avec le règlement général sur la protection des données (RGPD) et la législation sur le droit d’auteur. Cela nécessite des entreprises de mettre en place une gouvernance juridique intégrée, impliquant juristes, techniciens et responsables de la conformité.

Pas d’IA contre les droits fondamentaux
L’incertitude jurisprudentielle, l’accroissement des obligations et le danger financier associé aux sanctions exigent une vigilance accrue. Cependant, cette contrainte peut se transformer en atout concurrentiel : les entreprises qui réussissent à prévoir et à incorporer la conformité progressive gagneront la confiance de leurs utilisateurs et de leurs partenaires. La capacité des acteurs à convertir ces obligations en normes de qualité et de confiance déterminera l’avenir de l’intelligence artificielle (IA) en Europe. La régulation, plutôt que d’être un simple obstacle, pourrait se transformer en un outil stratégique de souveraineté numérique et de développement durable de l’IA.
Première législation mondiale dédiée à cette innovation technologique, l’AI Act est entré en vigueur le 1er août 2024, mais ses obligations sont mises en œuvre progressivement. Les mesures prohibées ont commencé à s’appliquer en février 2025 ; les normes relatives aux modèles d’IA à usage général ont commencé à s’appliquer en août 2025 (2) ; les règles concernant les systèmes à haut risque seront mises en œuvre en août 2026. Cette mise en application progressive a pour but de donner aux entreprises le temps nécessaire pour s’adapter, tout en se concentrant d’abord sur les risques considérés comme les plus critiques. A l’inverse du RGPD, qui a mis en place en 2018 un cadre uniforme immédiatement applicable à tous les traitements de données, l’AI Act opère (suite)