Copyright & GenAI : la résolution des eurodéputés adoucit la « présomption » en faveur de l’innovation

Depuis que les eurodéputés ont adopté, en séance plénière le 10 mars 2026, une résolution sur le droit d’auteur et l’intelligence artificielle générative, texte qui n’a pas de caractère contraignant, la balle est dans le camp de la Commission européenne pour qu’elle clarifie les règles du jeu.

Le texte sur le copyright et l’IA adopté le 10 mars 2026 à Strasbourg par le Parlement européen – intitulé « Résolution sur le droit d’auteur et l’intelligence artificielle générative – opportunités et défis » (1) – posent des principes mais ne résout pas à ce stade les relations compliquées entre l’innovation qu’est l’IA et le copyright. D’autant que cette résolution politique issue du rapport de l’eurodéputé Axel Voss (photo) est non contraignante, le rapport lui-même dit « d’initiative » (du Parlement européen) étant non législatif, et n’a pas vocation à être publié au Journal Officiel de l’Union européenne (JOUE).

Les « ambiguïtés » de la directive « Copyright »
Il faudra attendre que la Commission européenne suive éventuellement les recommandations de cette résolution « Copyright & GenAI », notamment dans le cadre de la révision de la directive « Droit d’auteur et droits voisins dans le marché unique numérique » de 2019, dite « Copyright » (2), voire dans de futures lignes directrices sur l’entraînement des IA, pour que de nouvelles clarifications soient publiées au JOUE après adoption par le Parlement européen. Or il est justement prévu dans cette directive « Copyright » que la Commission européenne doit procéder – « au plus tôt le 7 juin 2026 » – au réexamen de la présente directive et présente un rapport exposant ses principales conclusions au Parlement européen, au Conseil de l’UE et au Comité économique et social européen.
C’est dire que cette perspective devient hautement politique à l’approche de cette échéance, tandis que les lobbies sont à la manœuvre pour défendre d’ici là leurs points de vue. Les organisations européennes de gestion collective des droits d’auteurs et représentants des ayants droit ont déjà les oreilles des eurodéputés, lesquels ont adopté cette résolution « Copyright & GenAI » par 460 voix pour, 71 voix contre et 88 abstentions. Ils font notamment observer dans leur résolution que « l’application de la directive [« Copyright » de 2019] est, à ce jour, ambiguë dans le contexte de l’entraînement de l’IA générative, et recommande d’apporter rapidement des clarifications à l’égard de son application et de sa mise en œuvre ». Les eurodéputés se font les porte-paroles des ayants droit en estimant que « la législation actuelle sur le droit d’auteur est insuffisante pour répondre aux enjeux de la concession de licences, pour l’IA générative, sur du matériel protégé par le droit d’auteur », et dès lors préconisent d’« instaurer un cadre juridique supplémentaire pour clarifier les règles d’octroi de licences pour l’IA générative et lutter contre les éventuelles violations de la législation actuelle en matière de droit d’auteur ». Les parlementaires européens insistent même sur le fait qu’« un tel cadre devrait inclure des dispositions garantissant la coopération effective des fournisseurs d’IA générative avec les créateurs et les autres titulaires de droits, y compris au regard d’un marché des licences opérationnel qui rétablit le pouvoir de négociation des titulaires de droits et des solutions de protection viables ». Pas question ici de licence légale (« contribution obligatoire »), comme l’a préconisée le 20 mars Arthur Mensch, patron du français Mistral AI (3).
Les eurodéputés rappellent en tout cas que « toute exception aux droits actuels relevant de l’acquis en matière de droit d’auteur, y compris en matière d’IA, doit être en conformité avec le test en trois étapes » prévu par la directive « Droit d’auteur et des droits voisins dans la société de l’information » de 2001, dite « DADVSI » (4). Celle-ci encadre strictement les exceptions et limitations aux droits exclusifs des auteurs par ce que l’on appelle le « test en trois étapes », qui consiste à faire respecter trois conditions cumulatives énoncées de cette manière : « Les exceptions et limitations […] ne sont applicables que dans certains cas spéciaux [première étape, ndlr] qui ne portent pas atteinte à l’exploitation normale de l’œuvre ou autre objet protégé [deuxième étape, ndlr] ni ne causent un préjudice injustifié aux intérêts légitimes du titulaire du droit [troisième étape, ndlr] » (5). Ce test en trois étapes provient à l’origine de la Convention de Berne (1886, révisée) et a été repris dans l’accord de l’OMC sur les droits de propriété intellectuelle (ADPIC (6)) ou encore dans les traités de l’Organisation mondiale de la propriété intellectuelle (OMPI).

Le copyright ne doit pas tuer l’innovation
Dans la foulée du Sommet pour l’action sur l’IA, qui s’était tenu à Paris en février 2025, la Commission européenne avait présenté en avril 2025 son « Plan d’action pour le continent de l’IA » (7), dont l’objectif est de faire de l’Europe un leader mondial dans le domaine de l’intelligence artificielle. Et ce, en promouvant – plutôt qu’en entravant – les progrès des technologies et services d’IA générative « dans l’intérêt général au sein de l’Union européenne afin de protéger la souveraineté technologique de l’Europe, sa compétitivité, sa culture plurilingue ainsi que sa capacité d’innovation, tout en restant fidèle à ses valeurs et en veillant à ce que le développement technologique favorise durablement la croissance économique, la compétitivité et l’innovation ». Il s’agit aussi de faciliter un large accès aux technologies de l’IA dans les Vingt-sept. Dans leur résolution « Copyright & GenAI », les eurodéputés considèrent, eux, que « pour rester compétitif dans la course à l’amélioration de l’IA générative, il faut également un accès à des contenus de haute qualité, ce qui souligne l’importance d’un secteur créatif équitablement rémunéré en tant que source de données d’entraînement de qualité pour l’IA ».

De présomption « irréfragable » à « réfragable »
Si les parlementaires européens reconnaissent que l’innovation IA ne doit être compromise par le droit d’auteur, ils estiment cependant « nécessaire d’établir un mécanisme en vertu duquel, dans certaines conditions, l’absence de transparence totale de la part de fournisseurs ou de déployeurs d’IA donne lieu à une présomption réfragable que tout œuvre ou objet concerné protégé par le droit d’auteur a été utilisé à des fins d’entraînement, d’inférence ou de génération augmentée par récupération ». Ce principe de « présomption réfragable » (rebuttable presumption), reprise par la résolution « Copyright & GenAI » dans le rapport final Voss adopté le 10 mars 2026, tient compte de la version amendée de celui-ci.
En effet, dans sa version initiale datée de l’été 2025 (8), le projet de rapport Voss suggérait au Parlement européen d’introduire un principe différent dit « présomption irréfragable » (irrebuttable presumption). Ce que des amendements en commission « Juri » du Parlement européen ont changé, en janvier 2026, pour « présomption réfragable » – autrement dit réfutable. C’est une nuance de taille et fondamentale en droit : le concept a été ainsi adouci pour permettre aux fournisseurs d’IA de renverser la présomption par des preuves contraires (transparence partielle, opt-out respecté, etc.) ; la présomption réfragable est provisoire et considérée comme vraie jusqu’à preuve(s) du contraire apportée(s) par la partie adverse (les ayants droit en l’occurrence). Alors que la présomption irréfragable, elle, aurait été absolue et conclusive, étant considérée comme un fait établi de manière définitive, sans possibilité de la contredire par des preuves. Concrètement : si un fournisseur d’IA générative ne respecte pas pleinement les obligations de transparence (liste détaillée des contenus utilisés pour l’entraînement, l’inférence lorsque le modèle raisonne et livre une réponse, la RAG (9) ou génération augmentée par récupération, etc.), il y a présomption réfragable que les œuvres concernées ont été utilisées. Mais : le fournisseur d’IA peut renverser cette présomption en prouvant le contraire, comme démontrer qu’il n’a pas utilisé telle œuvre, via des logs, des filtres, des opt-out respectés, etc. Ce changement de pied du rapport Voss est une victoire pour les Mistral AI (français), OpenAI/ChatGPT (américain), Google/Gemini (américain) ou encore Anthropic/Claude (américain), voire DeepSeek (chinois), grâce aux pressions des groupes progressistes et proinnovation (S&D, Greens, Renew) qui critiquaient la version initiale du rapport Voos comme trop punitive et risquant d’être incompatible avec l’AI Act et les principes de proportionnalité. « Le texte actuel contient encore une présomption d’usage, mais celle-ci est désormais devenue réfutable, ce qui est une exigence plus raisonnable », s’est félicitée l’association CommunIA, cofondée à Bruxelles par Wikimedia Europe (éditeur de Wikipedia) et défenseuse du domaine public et de l’accès ouvert à la connaissance et à la culture. « Le projet initial du député européen Voss affirmait que la formation des systèmes d’IA générative échappait au cadre existant du droit d’auteur. Cette interprétation contredisait directement l’approche adoptée dans le règlement sur l’IA et introduisait une incertitude juridique inutile. Cette incertitude s’est fait particulièrement sentir par les acteurs cherchant à se conformer à la loi, tels que les chercheurs et les développeurs de systèmes d’IA d’intérêt public », avait notamment pointé dès janvier 2026.
Cette association pro-domaine public critique le rapport Voos et la résolution « Copyright & GenAI ». « Le texte de compromis recule de cette position, faisant plutôt référence à des “ambiguïtés” supposées dans l’application des exceptions de l’exploration de texte et de données (TDM) à l’entraînement des modèles d’IA générative. Bien que cela représente une nette amélioration par rapport à la version originale, cela reste problématique », estime-t-elle (10).

La France veut sa présomption réfragable
En France, une proposition de loi pour l’instauration d’une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle » a obtenu le 19 mars 2026 l’aval du Conseil d’Etat (11). Le texte, dont la rapporteure est la sénatrice Laure Darcos (photo ci-dessus), sera débattu au Sénat le 8 avril 2026. La présomption française est bien réfragable ; elle peut donc être renversée par la preuve contraire (12). « En soutenant l’instauration d’une présomption réfutable d’utilisation des œuvres, [le rapport Voss] renforce la dynamique engagée en France avec la proposition de loi transpartisane déposée [au Sénat] », s’est félicitée le 1er mars la SACD (13). Tout comme la Sacem : « Faisons en sorte que la dynamique européenne soit confortée par le parlement en France », a déclaré le 10 mars sur LinkedIn (14) sa directrice générale, Cécile Rap-Veber. @

Charles de Laubier

La présomption d’exploitation des contenus culturels par les IA reste incertaine voire inconstitutionnelle

La proposition de loi instaurant une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle » a été déposée au Sénat le 12 décembre 2025. Ce projet de texte ne fait pas l’unanimité, ni en France ni au Parlement européen, et soulève des questions.

(La commission juridique du Parlement européen a voté le 28 janvier 2026 pour le rapport de l’eurodéputé Alex Voss, mais expurgé de l’irrebuttable presumption of use).

La proposition de loi instaurant une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle », déposée au Sénat le 12 décembre 2025, sera-t-elle examinée en ce début 2026 ? Rien n’est moins sûr, car ce texte – concocté en plein lobbying d’organisations d’ayants droits et sur recommandation d’une mission du ministère de la Culture conduite par le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – soulève des questions et des réserves de la part des entreprises visées et du gouvernement.

Les deux objectifs poursuivis par le Sénat
Pour les sénatrices Agnès Evren (LR) et Laure Darcos (Indépendants) ainsi que le sénateur Pierre Ouzoulias (communiste/CRCE), qui ont publié le 9 juillet 2025 un rapport d’information intitulé « Création et IA : de la prédation au partage de la valeur » (1), il s’agit d’instaurer une inversion de la charge de la preuve ou tout du moins d’alléger la charge de la preuve pesant sur les ayants droit lorsque ces derniers forment un recours. En clair : ce serait aux entreprises de systèmes d’IA de démontrer qu’elles n’utilisent pas de contenus culturels pour l’entraînement de leurs systèmes d’IA.
« La présomption proposée ici est dite simple ou réfragable [réfutable, pouvant être contredits, ou mis en défaut par un raisonnement ou une preuve, ndlr]. Elle peut donc être renversée par la preuve contraire, c’est-à-dire la démonstration au juge que le ou les contenus n’ont pas été utilisés », justifient les sénateurs emmenés par Laure Darcos (photo). D’autant que pour les auteurs de la proposition de loi, « il serait difficilement audible de soutenir que la charge de la preuve, qui incombe aujourd’hui aux titulaires de droits, alors qu’ils n’ont pas la maîtrise technique de l’outil IA, est trop lourde pour des professionnels de l’exploitation de la donnée ». La proposition de loi vise donc à instaurer cette présomption légale, en poursuivant un double objectif comme (suite) cela est expliqué dans les motifs (2) :
Le premier objectif est de restaurer l’effectivité des droits en allégeant la charge de la preuve. Au lieu de la preuve de l’exploitation d’un contenu culturel pour entraîner un modèle d’IA, quasi impossible à rapporter sans une transparence totale de la part des fournisseurs d’IA, le mécanisme de présomption requiert la preuve d’un fait connu, plus simple à rapporter.
Le second objectif de cette présomption est de dissuader les acteurs de l’intelligence artificielle d’adopter certains comportements ou, à l’inverse, de les inciter à en suivre d’autres. La règle de droit a un effet prophylactique. Aussi, la présomption n’est pas qu’un outil contentieux. Elle a également pour objectif de favoriser l’émergence d’un marché éthique et compétitif, conciliant soutien à l’innovation et préservation de la culture, hors de tout procès, par le simple effet incitatif de la règle.
Mais qu’est-ce que la présomption ? « La présomption est fondée sur la vraisemblance de ce qui advient le plus souvent. Lorsqu’une IA générative produit un contenu à la manière d’un contenu protégé ou dans le style d’un créateur ou d’un auteur, il est vraisemblable qu’elle a utilisé les contenus de ce dernier. Il en est de même lorsque l’IA “régurgite” des extraits ou des éléments d’une œuvre ou d’un objet protégé, lorsqu’elle en développe une analyse, ou lorsqu’il existe des ressemblances entre l’objet protégé et le contenu généré », expliquent les sénateurs pour justifier leur proposition de loi qui inverse la charge de la preuve.
Quoi qu’il en soit, la France devra notifier cette mesure législative à la Commission européenne, via le Tris (Technical Regulation Information System), avant son éventuelle adoption – donc avant l’examen parlementaire. Cette procédure déclencherait alors une période de statu quo de trois mois, durant laquelle le texte ne peut pas être adopté. Selon les constatations de Edition Multimédi@, la base Tris (3) ne fait pas encore état d’une notification de la France sur ce texte.

De Laure Darcos à l’eurodéputé Axel Voss
« Par cette proposition de loi, le législateur français entend être précurseur et susciter un élan auprès de ses partenaires européens pour rééquilibrer le rapport de force entre titulaires de droits et fournisseurs d’IA », assurent les porteurs de la proposition de loi. Le lobbying des ayants droits s’est d’ailleurs intensifié au niveau de de l’Union européenne, où l’idée d’une présomption d’utilisation des contenus culturels par les fournisseurs d’IA est poussée par député européen Axel Voss (photo ci-dessous). Ce démocrate-chrétien allemand – membre de la CDU dans son pays et membre du PPE (4) au Parlement européen – est l’un des principaux architectes des politiques européennes sur le droit d’auteur (ex- rapporteur de la directive droit d’auteur de 2019), la régulation numérique et l’IA, ainsi que sur la protection des données. Il est régulièrement perçu comme proche des positions des ayants droit.

Vote européen incertain le 9 mars 2026
C’est Axel Voss qui suggère au Parlement européen d’introduire le principe de « présomption irréfragable d’utilisation » (irrebuttable presumption of use) de contenus protégés par le droit d’auteur utilisés pour la formation des systèmes d’IA, lorsque les obligations de transparence complètes n’ont pas été pleinement respectées. Porte-parole du PPE au sein de la commission des affaires juridiques (Juri) du Parlement européen, il est l’auteur du rapport « Copyright et IA générative – opportunités et challenges » (5) pour cette dernière qui examine le rapport « Voss » amendé, contenant cette disposition de présomption, en vue d’un vote en plénière prévu initialement le 19 janvier 2026 mais renvoyé au 9 mars. Il recommande à la Commission européenne de « proposer l’établissement d’une présomption irréfragable selon laquelle, pour tout modèle ou système d’IA à usage général (GenAI) mis sur le marché de l’Union, les œuvres et autres objets protégés par le droit d’auteur ou les droits voisins ont été utilisés pour sa formation lorsque les obligations légales de transparence énoncées dans la présente résolution n’ont pas été pleinement respectées » (6). Ainsi, lorsque les fournisseurs ou les diffuseurs d’IA ne font pas preuve d’une transparence complète, cela donne lieu à une présomption irréfragable selon laquelle toute œuvre protégée par un droit d’auteur ou tout autre objet protégé pertinent a été utilisé à des fins de formation (7). Le rapport « Voss » recommande en outre que « lorsqu’un titulaire de droits obtient gain de cause dans une procédure judiciaire, soit sur la base de cette présomption, soit en présentant des preuves, tous les frais de justice et autres dépenses raisonnables et proportionnés engagés […] sont à la charge du fournisseur du modèle ou système d’IA ».
Qu’est-ce que la transparence des systèmes d’IA ? Le rapport « Copyright & GenAI » estime que cette transparence doit consister en « une liste détaillée identifiant chaque contenu protégé par le droit d’auteur utilisé pour la formation » et cette même exigence devrait « s’appliquer mutatis mutandis à toute utilisation ultérieure du contenu à des fins d’inférence, de génération augmentée par récupération ou de fine-réglage non seulement par les fournisseurs de modèles d’IA, comme le stipule [l’AI Act (8)], mais aussi par les fournisseurs ou les déploiements de systèmes d’IA ». Il suggère en outre qu’une telle transparence pourrait être facilitée par un intermédiaire de confiance, tel que l’Office de l’Union européenne pour la propriété intellectuelle (EUIPO), lequel serait chargé d’informer les titulaires de droits de l’utilisation de leur contenu, leur permettant ainsi de faire valoir des revendications en lien avec son utilisation pour la formation des systèmes d’IA (9).
Mais les débats en commission Juri du Parlement européen, avant le vote en plénière le 19 janvier, ont révélé de sérieuses divergences sur le rapport « Voss » et sur les nombreux amendements déposés et consignés le 15 septembre 2025 dans un document de… 193 pages – en lien ici (10), environ 300 selon le rapporteur Axel Voss. Sans préjuger de l’issu des travaux législatifs européens, les titulaires de droits français, eux, se sont réjouis le 17 décembre 2025 du dépôt au Sénat de la proposition de loi « Présomption d’exploitation des contenus culturels par les fournisseurs de systèmes d’IA » : « Ce dépôt s’inscrit dans la droite ligne de l’impulsion donnée par la ministre de la Culture, Rachida Dati, depuis son arrivée rue de Valois en matière de défense du droit d’auteur et des droits voisins, en venant traduire l’une des principales recommandations de la mission confiée par le CSPLA à la professeure Alexandra Bensamoun (11) sur la rémunération des contenus culturels utilisés par les systèmes d’intelligence artificielle (volet juridique) », ont acclamé une quinzaine d’organisations professionnels (12) telles que la SACD (13), la Sacem (14), l’Apig (15), la Scam (16) ou encore le SNE (17). Mais cette présomption légale d’exploitation des contenus culturels par les IA génératives soulève des questions constitutionnelles au regard du droit français.

La présomption IA : anticonstitutionnelle ?
C’est ce que se demande Vincent Fauchoux, avocat associé chez Deprez Guignot Associés (DDG), et président de l’International Law Association for Artificial Intelligence (ILAAI). « Si la jurisprudence constitutionnelle admet le recours à des présomptions légales, c’est à la condition qu’elles soient réfragables, proportionnées à l’objectif poursuivi et qu’elles ne portent pas une atteinte excessive aux droits de la défense, à la présomption d’innocence et à la liberté d’entreprendre. […] L’avenir normatif de cette proposition apparaît, à tout le moins, incertain », prévient-il dans une note juridique publiée le 19 décembre (18). Les start-up françaises de l’IA, Mistral AI en tête, s’inquiètent d’une telle mesure, tandis que les ministères de la Culture et du Numérique s’interrogent sur la viabilité juridique de cette présomption IA. @

Charles de Laubier

Premier jugement historique en Europe condamnant OpenAI pour atteinte au droit d’auteur

Même si ce jugement historique du 11 novembre 2025 – prononcé par le tribunal de Munich contre de l’éditeur américain de ChatGPT accusé de contrefaçon musicale – est provisoire (OpenAI ayant fait appel), il sonne comme un avertissement planétaire à toutes les sociétés d’IA génératives.

Tobias Holzmüller (photo), le PDG de la Gema, qui est en Allemagne ce que la Sacem est en France, peut être fier du verdict historique obtenu en première instance du tribunal régional de Munich le 11 novembre 2025 : la manière dont OpenAI gère actuellement ChatGPT viole les lois européennes applicables sur le droit d’auteur. « Pour la première fois en Europe, l’argument en faveur de l’utilisation par les systèmes d’IA générative d’œuvres protégées par le droit d’auteur a été examiné juridiquement et statué en faveur des créateurs des œuvres », s’est félicitée la Société pour les droits d’exécution musicale et de reproduction mécanique (Gema).

Copyright : Internet n’est pas open bar
Cette décision judiciaire allemande – première de ce type dans l’Union européenne (UE) et au retentissement mondial – a clairement jugé que la licorne américaine OpenAI aurait dû acquérir les droits sur les paroles des paroliers et auteurs-compositeurs du répertoire de la Gema, avant de les utiliser pour entraîner ses modèles d’IA et de les exploiter avec son chatbot ChatGPT. De telles reproductions sans autorisations constituent aux yeux du tribunal de Munich des violations du droit d’auteur, et pour lesquelles OpenAI aurait dû obtenir une licence qui offre aux titulaires des droits une rémunération appropriée.
C’est la première fois dans l’UE qu’une décision clarifie aujourd’hui des questions juridiques-clés concernant la manière dont les nouvelles technologies interagissent avec le copyright européen. « Internet n’est pas une sorte de buffet en libre-service, et les réalisations créatives des êtres humains ne sont pas simplement des modèles à utiliser gratuitement. Aujourd’hui, nous avons établi un précédent qui protège et clarifie les droits des détenteurs de droits d’auteur créatifs : les opérateurs d’outils d’IA tels que ChatGPT doivent (suite) également se conformer à la loi sur le droit d’auteur. Aujourd’hui, nous avons défendu avec succès les moyens de subsistance des créateurs de musique », a déclaré Tobias Holzmüller. Et ce n’est pas faute pour la Gema de ne pas proposer un modèle de licence développé spécifiquement pour les fournisseurs de systèmes d’IA. Depuis septembre 2024, la « Sacem » allemande (basée à Berlin) propose ce type de licence IA comme « base juridique sûre » pour utiliser la musique afin de faire fonctionner et d’entraîner les modèles d’IA, « en garantissant que les créateurs de musique soient équitablement rémunérés, de manière à continuer d’encourager l’innovation musicale ». Or, jusqu’à présent, la Gema constate qu’OpenAI a montré « une réticence générale » à suivre tout modèle de licence quel qu’il soit. L’organisation berlinoise, qui lance ainsi un avertissement à toutes les sociétés d’IA dans le monde, a par ailleurs déposé plainte contre une autre entreprise américaine, Suno, qui, elle, fournit des contenus audios générés par une IA entraînée sur des enregistrements originaux d’œuvres du répertoire de la Gema. L’audience devrait avoir lieu le 26 janvier 2026. A noter que par ailleurs Suno a annoncé le 25 novembre 2025 un accord avec Warner Music (1). « La décision du tribunal régional de Munich montre que la manière dont les systèmes d’IA fonctionnent porte systématiquement atteinte aux droits des auteurs. Il y a un besoin urgent d’agir ici. Le modèle de licence de la Gema propose une solution, mais le cadre juridique doit également être amélioré en faveur des artistes créatifs, afin que l’acquisition des licences par les entreprises devienne la règle. Nous continuerons à travailler vers cet objectif », a prévenu Kai Welp, le directeur juridique de la société allemande de gestion collective des musiciens (2).
La justice allemande a clairement indiqué qu’OpenAI n’est pas une organisation de recherche bénéficiant de privilèges et que l’autorisation légale de ce que l’on appelle l’exploration de texte et de données – Text and Data Mining (TDM) – ne justifie en aucun cas le stockage et la production de paroles de chansons protégées par le droit d’auteur. Or la Gema a pu démontrer que ChatGPT reproduit des paroles protégées par le droit d’auteur, en réponse à de simples prompts. Le tribunal munichois a confirmé que cette utilisation suppose une obligation de délivrance de licences.

OpenAI Ireland Ltd et OpenAI LLC
Le groupe OpenAI a donc été condamné pour violation du droit d’auteur. La Gema représente les droits d’auteur détenus par plus de 100.000 membres – compositeurs, paroliers et éditeurs de musique – et plus de 2 millions de détenteurs de droits de propriété intellectuelle dans le monde. C’est l’une des plus grandes sociétés de gestion collective des droits d’auteur dans l’industrie musicale. La 42e chambre civile du tribunal régional de Munich lui a donné raison en confirmant l’essentiel de ses demandes de mesures injonctives, d’informations et de dommages-intérêts, contre deux sociétés du groupe OpenAI : la filiale européenne opératrice du chatbot ChatGPT, OpenAI Ireland Ltd (à Dublin), et la maison mère américaine – du moins l’entité commerciale à but lucratif OpenAI LLC (3) – basée en Californie (à San Francisco). La Gema a porté plainte contre ces deux sociétés du groupe d’IA génératives pour avoir mémorisé les paroles de la chanson dans des grands modèles de langage (LLM), permettant ainsi à ChatGPT de donner des réponses aux utilisateurs en grande partie fidèles aux paroles originales.

Pas de Text and Data Mining (TDM)
Les accusations de la Gema à l’encontre de la firme de Sam Altman (photo ci-contre) pour contrefaçon portent sur les paroles de neuf auteurs allemands célèbres : « Atemlos » de Kristina Bach, « 36 Grad » de Thomas Eckart, Inga Humpe, Peter Plate et Ulf Leo Sommer, « Bochum » et « Männer » de Herbert Grönemeyer, « Über den Wolken » de Reinhard Mey, « June » de Jan Vetter ainsi que « Es schneit », « In der Weihnachtsbäckerei » et « Wie schön, dass du geboren bist » de Rolf Zuckowski. OpenAI avait contesté les affirmations de la Gema, en prétendant qu’au contraire ses « modèles linguistiques » ne sauvegardaient pas ou ne copiaient pas de données d’entraînement spécifiques, mais reflétaient dans leurs paramètres ce qu’ils auraient appris sur la base de l’ensemble des données d’entraînement.
L’éditeur de ChatGPT estimait que les réponses du chatbot ne seraient générées qu’à la suite de saisies d’utilisateurs (prompts), et que par conséquence ce n’était pas OpenAI mais l’utilisateur en tant que producteur de la sortie qui serait responsable de celles-ci. De plus, dans tous les cas, OpenAI a invoqué les limites au droit d’auteur, en particulier l’exception pour ce que l’on appelle la fouille de textes et de données (TDM). Le jury allemand ne l’a pas entendu de cette oreille, et a décidé que « la mémorisation dans les modèles de langage et la reproduction des paroles des chansons dans les sorties du chatbot empiètent sur les droits d’exploitation du droit d’auteur. Celles-ci ne sont pas couvertes par les dispositions de restriction, en particulier la limitation de l’exploration de texte et de données ». Selon la 42e chambre civile, les paroles de la chanson en question étaient « reproductiblement » contenues dans les modèles linguistiques 4 (GPT 4) et 4o (GPT4Turbo) d’OpenAI. En effet, les données d’entraînement d’IA peuvent être contenues dans des modèles de langage et extraites en tant que résultats. C’est ce qu’on appelle la « mémorisation ». Une telle situation existe si les modèles de langage non seulement prennent des informations de l’ensemble de données d’entraînement pendant l’entraînement, mais trouvent également un transfert complet des données d’entraînement dans les paramètres spécifiés après l’entraînement. « Cette mémorisation a été établie en comparant les paroles des chansons contenues dans les données d’entraînement avec les reproductions dans les sorties. Compte tenu de la complexité et de la longueur des paroles, la coïncidence a été écartée comme cause de la reproduction des paroles. La mémorisation donnait une incarnation, comme condition préalable à la reproduction par droit d’auteur, des paroles contestées par des données dans les paramètres spécifiés du modèle. Les paroles des chansons en question étaient  »reproductiblement » définies dans les modèles », a expliqué le tribunal régional de Munich dans une communication (4) émise le 11 novembre 2025 dans la foulée du rendu de sa décision. A l’appui de son jugement, le jury s’est appuyé sur la directive européenne « Droit d’auteur et des droits voisins dans la société de l’information » de 2001 – ou DADVSI (5), parfois appelée « InfoSoc » – où il est précisé « par quelque moyen et sous quelque forme que ce soit » lorsqu’il est question de « reproduction directe ou indirecte, provisoire ou permanente » (6). Ce que l’Allemagne a, elle, transposé dans sa législation nationale dans sa loi sur le droit d’auteur dite « UrhG » (7). Aussi, selon la jurisprudence de la Cour de justice de l’Union européenne (CJUE), « une perceptibilité indirecte suffit à caractériser une reproduction dès lors que l’œuvre peut être perçue au moyen d’un dispositif technique ».
Et le tribunal insiste sur le fait que cette reproduction dans les modèles d’IA n’est pas couverte par les dispositions de limitation de l’exploration de texte et de données (TDM). Selon lui, la formation des IA extrait non seulement des informations des données d’entraînement, mais reproduit également des œuvres, ce qui ne constitue pas du TDM. « Le principe de l’exploration de texte et de données – ainsi que les dispositions de limitation associées selon lesquelles aucun intérêt d’exploitation n’est affecté par l’évaluation automatisée de la simple information elle-même – ne s’applique pas à [OpenAI]. Au contraire, les reproductions données dans le modèle empiètent sur le droit d’exploitation des titulaires de droits. […] Dans le cas des reproductions du modèle, l’exploitation de l’œuvre est définitivement compromise et les intérêts légitimes des titulaires des droits en sont violés », développe la décision judicaire.

En France, SACD et Scam réjouies
Autant l’homologue française de la Gema – la Société des auteurs, compositeurs et éditeurs de musique (Sacem) – n’a pas publié de communiqué sur cette première victoire européenne, autant la Société des auteurs et compositeurs dramatiques (SACD) et la Société civile des auteurs multimédia (Scam) ont fait communiqué commun (8) le 14 novembre 2025 pour se réjouir de cette décision historique et se dire « prêtes à négocier » des licences : « Cette décision crée un précédent essentiel que les services d’IA, qu’ils s’agissent des licornes européennes ou des multinationales américaines ou chinoises, ne peuvent ignorer : l’innovation ne peut se faire au détriment des créateurs et au mépris de leurs droits ». @

Charles de Laubier

YouTube se dit « spécifique, unique, pérenne » et « ancré dans l’exception audiovisuelle française »

Alors que YouTube fête en 2025 ses 20 ans, la filiale de Google a profité des 35es Rencontres cinématographiques de L’ARP (début novembre au Touquet) pour assurer que la plateforme de partage vidéo est désormais « ancrée dans l’exception culturelle française » au profit des créateurs.

« Il est important d’apporter des clarifications sur des croyances, ou peut-être des raccourcis qui sont faits, par rapport à la nature de YouTube – lequel est bien spécifique, bien unique et pérenne puisque cela faire 20 ans que nous accompagnons et soutenons la création. Et cela veut dire d’abord par commencer à la protéger, avec un modèle économique », a déclaré Justine Ryst (photo), directrice générale YouTube France et Europe du Sud, le 8 novembre lors des 35es Rencontres cinématographiques de L’ARP (1), qui ont eu lieu au Touquet début novembre.

YouTube contribue au PIB et à la création
« Soutenir la création, cela veut dire avoir un ancrage local. Cela fait 17 ans que l’on existe en France (2) et que l’on s’est ancré dans “l’exception culturelle française” – je devrais même dire “l’exception audiovisuelle française”. Cela a commencé par des accords-cadres avec la SACD (3), la Scam (4), l’ADAGP (5), … Mais mes négociations les plus difficiles sont celles menées en interne [au sein de YouTube, ndlr], pour défendre cette exception culturelle française, a confié Justine Ryst. Ensuite, nous nous sommes rapprochés du CNC (6) pour notamment payer la taxe sur les services vidéo, qui fut surnommée pendant longtemps – car étions les seuls à la payer – la “taxe YouTube” – génial ! Mais on est content de contribuer à toutes ces taxes, dont la “taxe streaming” venues pour financer le CNM (7), et la taxe sur les services numériques [TSN, ou “taxe Gafam”, ndlr]. C’est tout à faire normal ».
Entrée chez YouTube il y a huit ans et demi en tant que directrice des partenariats de contenu pour YouTube en Europe du Sud, avant de prendre la tête de la filiale française durant cinq ans (2019-2023), puis d’être promue sur toute l’Europe de Sud, elle se félicite que « la filière YouTube – les créateurs endémiques – représente 6,4 milliards d’euros de contribution au PIB européen et 185.000 emplois équivalent temps-plein ». Et rien que pour la France, c’est (suite) 850 millions d’euros de contribution au PIB français et 21.000 emplois. « YouTube consiste en un concept unique – et nous sommes les seuls à avoir ce modèle-là – qui reverse plus de la moitié de notre chiffre d’affaires à ce que l’on appelle ‘’les chaînes YouTube’’, c’est-à-dire aux détenteurs de contenus et les ayants droit sur notre plateforme de partage de vidéos », a rappelé Justine Ryst. La plateforme mondiale aux 2 milliards d’utilisateurs par mois en moyenne (8) considère que son modèle économique est à la genèse de la « Creator Economy », « une nouvelle vague de création » qui s’est professionnalisée petit à petit au cours de ses deux décennies d’existence. « Aujourd’hui, les youtubeurs, ce sont des producteurs, ce sont des entreprises médias, a-t-elle affirmé aux Rencontres cinématographiques. Mais il n’y a pas que les youtubeurs endémiques : il y a aussi tout l’écosystème audiovisuel qui est sur YouTube, notamment l’écosystème cinématographique. Sur YouTube, vous pouvez acheter ou louer des films de cinéma. Ce sont les studios eux-mêmes qui décident, en fonction de leurs fenêtres de droit [dans la chronologie des médias, ndlr],de profiter de la fenêtre mondiale qu’est YouTube pour diffuser leurs œuvres. Il y a 10 millions de références “cinéma” qui peuvent être trouvées sur YouTube, véritable écrin pour la cinéphilie ».
Ce n’est pas la première fois que YouTube est invité par L’ARP à ses Rencontres créées en 1990 à Beaune (1990- 1993), avant de déménager à Dijon (1994–2020, où Google pratiquait plutôt la politique de la chaise vide avec de rares interventions comme celle de Laurent Samama (9), ancien directeur des partenariats de Google Europe en 2018). Depuis 2021, ce rendez-vous annuel du cinéma a lieu au Touquet-Paris-Plage (Haut-de-France). La plateforme vidéo de Google y a désormais son rond de serviette. A l’issue de cette 35e édition, L’ARP s’en est d’ailleurs félicitée le 7 novembre : « De toute évidence ce nouvel acteur [YouTube] montre sa bonne volonté. […] YouTube, comme les autres, contribue au modèle cinématographique français » (10). YouTube prendrait-il des airs de « Canal+ » visà-vis du 7e Art français ?

Content ID pour « neutraliser les pirates »
« Protéger la création, cela veut dire lutter contre le piratage, a en outre assuré Justine Ryst. Dès sa création, YouTube a mis en place des infrastructures de protection des œuvres – qui a nécessité un investissement de 100 millions de dollars – pour pouvoir neutraliser les pirates ». Concernant son outil d’empreinte numérique, elle a indiqué le 16 octobre 2025 lors du Marché international du film classique (MIFC) que Content ID est utilisé par « plus de 10.000 ayants droit dans le monde [pour] 800 millions d’empreintes revendiquées en 2024 » (11). Et depuis le lancement de Content ID en décembre 2007, « plus de 12 milliards de dollars ont été reversés aux ayants droit ». @

Charles de Laubier

Le Bureau européen de l’IA forme son bataillon

En fait. Le 27 mars à midi est la date limite pour se porter candidat à l’une des offres d’emploi du « Bureau de l’IA » (AI Office) créé au sein de la Commission européenne par l’AI Act dont la version finale sera soumise le 22 avril au vote du Parlement européen. Sont recrutés des techniciens et des administratifs.

En clair. « Postulez dès maintenant en tant que spécialiste technologique ou assistant administratif pour une occasion unique de façonner une IA digne de confiance. […] Le Bureau européen de l’IA jouera un rôle-clé dans la mise en œuvre du règlement sur l’intelligence artificielle – en particulier pour l’IA générale [ou AGI pour Artificial General Intelligence, aux capacités humaines, ndlr] – en favorisant le développement et l’utilisation d’une IA fiable, et la coopération internationale. […] La date limite de manifestation d’intérêt est le 27 mars 2024 à 12h00 CET », indique la Commission européenne (1).
Avant même l’adoption définitivement de l’AI Act (2) par le Parlement européen, prévue en séance plénière le 22 avril (pour entrer en vigueur l’été prochain), la DG Connect, alias DG Cnect (3), embauche déjà pour son Bureau de l’IA nouvellement créé. Les entretiens auront lieu à la fin du printemps et les prises de fonction à partir de l’automne 2024. Sont recherchés : chercheurs scientifiques, informaticiens, ingénieurs logiciels, data scientists ou encore spécialistes matériels, avec « une expérience technique avérée en IA » (marchine learning, deep learning, éthique et vie privée, cybersécurité, …).

Parmi les nouvelles recrues, les experts techniques – sous statut d’agents contractuels – s’intéresseront non seulement aux IA génératives mais surtout aux AGI ou, comme les appelle l’AI Act, les General Purpose AI models (GPAI models). Des outils, méthodologies et benchmarks permettront à ces agents d’évaluer les capacités et la portée des modèles de ces AGI, et d’identifier les modèles de langage (LLM) présentant des risques systémiques. « Une expérience en test et évaluation des modèles et des IA avancées, y compris l’alignement des modèles, les biais, la désinformation et l’équipe rouge [ennemi fictif pour améliorer la sécurité, ndlr], serait un atout important », est-il précisé. Les agents de l’AI Office, organisation unique au monde (4), seront assermentés pour enquêter sur d’éventuelles infractions à l’AI Act.
Par ailleurs, « le futur Bureau de l’IA sera aussi le garant de l’indispensable protection des œuvres et des droits ! », a souligné début mars Manon Montrouge, chargée des affaires européennes à la SACD (5). L’AI Office sera notamment chargé par l’AI Act d’« établir un modèle du résumé des œuvres utilisées par les IA à usage général (ChatGPT, Gemini, Large, …) qui devra être rendu public ». @