Les enjeux du droit d’auteur à l’ère de l’intelligence artificielle (IA) : entre exceptions et interprétations

La propriété intellectuelle est entrée dans une zone de turbulences provoquées par les IA génératives. L’utilisation d’œuvres reste soumise à l’autorisation des auteurs, mais le droit d’auteur est limité dans certains cas comme la fouille de textes et de données. L’AI Act sera à interpréter.

Par Jade Griffaton et Emma Hanoun, avocates, DJS Avocats*

La récente législation européenne sur l’intelligence artificielle (IA) – l’AI Act dans sa dernière version de compromis final datée du 26 janvier 2024 (1) (*) (**) – adopte une définition flexible de « système d’IA », désigné comme « un système basé sur des machines conçues pour fonctionner avec différents niveaux d’autonomie et d’adaptabilité après leur déploiement et qui, à partir des données qu’il reçoit, génère des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels » (2).

Exception de « fouille de textes et de données »
La question de la relation entre le droit de la propriété littéraire et artistique et l’IA est une préoccupation ancienne. Lors de la phase d’entraînement, le système d’IA reçoit des données. A ce stade, se pose la question de l’intégration de contenus protégés par le droit d’auteur aux fins du développement du système. Lors de la phase de génération, le système d’IA génère des résultats, voire des créations, à la demande de l’humain. Se pose alors la question de l’encadrement juridique de ces créations générées, en tout ou partie, par un système d’IA. Ces problématiques juridiques actuelles doivent être envisagées à la lumière des nouveaux textes destinés à réguler le domaine de l’IA, et notamment la récente proposition de règlement européen sur l’IA, et la proposition de loi française visant à encadrer l’utilisation de l’IA par le droit d’auteur (3).
De nouveaux contours de la possibilité d’utiliser des œuvres pour entraîner l’IA ? Les systèmes d’IA ont besoin, au stade de leur apprentissage et développement, d’avoir accès à de grands volumes de textes, images, vidéos et autres données. Ces contenus sont susceptibles d’être protégés par le droit d’auteur. L’objectif principal du règlement IA, dévoilé en 2021 par la Commission européenne, consiste à réguler les systèmes d’IA introduits sur le marché européen, en adoptant une approche axée sur les risques et en assurant un niveau élevé de protection des droits fondamentaux, de la santé publique, de la sécurité et de l’environnement. Ainsi, l’AI Act n’a pas vocation à traiter les questions relatives au droit d’auteur. Et pourtant, il n’ignore pas totalement leur importance en présence d’un système d’IA. A ce propos, le règlement renvoie à une exception – au principe d’obtention d’une autorisation de l’auteur pour toute utilisation de son œuvre – issue du droit de l’Union européenne (UE), celle de la fouille de textes et de données (text and data mining ou TDM). Cette exception – non spécifique aux systèmes d’IA – permet, semble-t-il, de justifier juridiquement l’utilisation de contenus protégés par le droit d’auteur en dispensant les opérateurs d’IA d’obtenir l’autorisation des auteurs qui ne se sont pas opposés expressément. Elle n’est pas nouvelle. C’est la directive européenne « Droit d’auteur et les droits voisins dans le marché unique numérique » de 2019 (4) qui a voulu rendre obligatoire pour les Etats membres de prévoir une exception aux droits de reproduction d’une œuvre et d’extraction d’une base de données, à des fins d’utilisation de technologies de fouille de textes et de données – technologies qui permettent une analyse informatique automatisée de textes, sons, images ou données sous forme numérique, en grande quantité, en vue d’acquérir de nouvelles connaissances. En y faisant ce renvoi, la proposition de règlement confirme, semble-t-il, que cette exception s’applique aux systèmes d’IA mais n’apporte aucune nouveauté en la matière. La proposition de loi française – dont l’objet même est, contrairement à la proposition européenne, d’encadrer l’IA par le droit d’auteur – envisage d’incorporer dans le code de propriété intellectuelle (CPI), au sein de l’article L.131-3, un alinéa prévoyant que l’intégration d’œuvres protégées par le droit d’auteur dans le système d’IA est soumise « à une autorisation par les auteurs ». Une telle formulation – « L’intégration par un logiciel d’intelligence artificielle d’œuvres de l’esprit protégées par le droit d’auteur dans son système et a fortiori leur exploitation est soumise aux dispositions générales du présent code et donc à autorisation des auteurs ou ayants droit » (5) – pourrait recevoir diverses interprétations.

Question de l’« autorisation des auteurs »
L’intégration des œuvres dans un système d’IA est un nouveau mode d’exploitation que la proposition semble avoir voulu prendre en compte. Doit-on comprendre que l’intégration dans une IA est une forme de reproduction de l’œuvre à laquelle s’applique, comme pour toutes formes de reproduction, l’exception de fouilles de textes et de données ? Dans ce cas, le régime actuel est inchangé : donc, les développeurs d’IA peuvent encore intégrer des œuvres à la phase d’entraînement, sauf opposition des auteurs. Doit-on plutôt comprendre que cette formulation veut rompre avec le régime actuel en consacrant expressément une exigence d’obtention d’autorisation de auteurs en écartant l’exception de fouilles de textes et de données ? Dans ce cas, le nombre d’œuvres pouvant être intégrées dans les systèmes d’IA serait réduit à celles dont une autorisation a été donnée, et non celles ne faisant pas l’objet d’opposition. La première interprétation semble la plus appropriée, notamment eu égard à la formulation de l’alinéa précisant que « [l’intégration] est soumise aux dispositions générales du présent code et donc à autorisation des auteurs », et à sa place dans le CPI (6).

Pays de « common law » et pays de « civil law »
Nouvelle exigence de transparence lorsque des œuvres sont utilisées par l’IA. La proposition AI Act, bien qu’elle n’ait pas vocation à traiter de la question du droit d’auteur, exige des fournisseurs de systèmes d’IA une certaine transparence lorsque des contenus protégés par un droit d’auteur ont été utilisés au stade du développement dudit système. En effet, le texte contraint les fournisseurs de modèles d’IA à finalité générale (« general purpose IA models ») à mettre en place une politique pour respecter le droit d’auteur de l’UE, et à rendre public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à finalité générale (7). La mise en place de la politique aurait pour objectif d’identifier et respecter les réservations de droits – ou oppositions – au titre de l’exception de fouilles de textes et de données.
La publication du résumé suffisamment détaillé devrait se faire à partir d’un modèle publié par l’Office de l’intelligence artificiel (OIA, ou AI Office), organe instauré par la proposition de législation. Il aurait pour objet – sans être techniquement détaillé – « par exemple d’énumérer les principales collections ou ensembles de données qui ont servi à la formation du modèle, tels que les grandes bases de données privées ou publiques ou les archives de données, et en fournissant une explication narrative sur les autres sources de données utilisées » (8). De telles exigences en termes de transparence témoignent de la prise en compte des exigences posées par le droit d’auteur. D’autant que le règlement IA prévoit que les obligations de transparences ne s’appliquent pas aux fournisseurs de systèmes d’IA rendant accessibles au public, sous licence libre ou ouverte, les modèles d’IA (9) sauf celles liées au droit d’auteur. Sortir les exigences de transparence liées au droit d’auteur de l’exception générale témoigne encore de leur importance.
Vers une remise en cause de la non-« protégeabilité » des créations issues d’un système d’IA ? Alors que les pays de « common law » comme le Royaume Uni et les Etats-Unis admettent la « protégeabilité » des œuvres générées par des machines (10) – notamment parce que l’œuvre est placée au centre et les auteurs obtiennent une protection indirecte à travers la protection directe de la propriété créée –, les pays de « civil law » ont tendance à refuser qu’une œuvre au sens juridique du terme puisse être créée par une machine dès lors que la protection est attachée directement à la personne de l’auteur. Traditionnellement, l’originalité s’entend en droit français et européen de l’empreinte de la personnalité de l’auteur en manifestant ses choix libres et créatifs (11). Une telle conception exclut a priori toute originalité d’une œuvre conçue par une IA du fait du défaut de personnalité de l’IA. Si, le règlement IA ne traite pas de la question de la « protégeabilité » des « créations » générées par l’IA, la proposition de loi française, a contrario, tente de plonger au cœur du sujet. Elle envisage d’intégrer au sein de l’article L.321-2 du CPI le cas précis d’une « œuvre créée par une intelligence artificielle sans intervention humaine directe » (12). Par cette disposition, le droit français semble admettre qu’une œuvre puisse être créée par une machine, et non un être humain. Dans ce cas, la proposition de loi désigne comme titulaires des droits, non pas les personnes ayant développé le système ou ayant commandé la création à la machine, mais les auteurs des œuvres intégrées au système d’IA lors de la phase d’entraînement.
L’œuvre serait-elle alors empreinte de la personnalité des auteurs des œuvres premières ayant servi à entraîner le système d’IA ? Ces auteurs seraient à la fois titulaires de droits sur leur œuvre première – sans difficulté – et de droits sur les œuvres générées par l’IA lorsque leur œuvre première aurait été exploitée au stade de développement de l’IA. La problématique qui se pose d’emblée en pratique est celle de la multitude de titulaires d’une œuvre générée par un système d’IA. La proposition de loi envisage alors que les droits soient gérés par des organismes de gestion collective (comme la Scam ou la Sacem) qui percevront la rémunération ou une taxation versée par la société qui exploite le système d’IA lorsque l’œuvre est engendrée par l’intégration d’œuvres dont l’origine ne peut être déterminée. La proposition de loi exige aussi que soit apposée la mention « Œuvre générée par IA » et inséré le nom des auteurs des œuvres premières.

Protection des œuvres générées par l’IA
En revanche, la protection accordée aux œuvres générées par l’IA ne semble pas aussi complète que celle accordée aux œuvres « classiques » : la proposition de loi française ne traite pas plus du droit moral ni des autres droits patrimoniaux que de celui de la rémunération juste et équitable des auteurs. Peut-être que cela s’explique par l’ambition de la proposition de loi « Encadrer l’intelligence artificielle par le droit d’auteur » de garantir une rémunération juste et équitable de l’exploitation des œuvres et de garantir une traçabilité des auteurs et artistes. Il reste à voir comment seront appréhendées en pratique de telles évolutions juridiques. @

* Article écrit avec la collaboration
de Camille Rodriguez, DJS Avocats

Pour la protection de leurs œuvres, les auteurs ont un droit d’opt-out, mais est-il efficace ?

Les IA génératives sont voraces et insatiables : elles ingurgitent de grandes quantités de données pour s’améliorer sans cesse. Problème : les ChatGPT, Midjourney et autres Bard utilisent des œuvres protégées sans avoir toujours l’autorisation. Pour les auteurs, l’opt-out est une solution insuffisante.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

L’utilisation de l’intelligence artificielle (IA) dans les domaines artistiques tend à révolutionner la manière dont nous analysons, créons et utilisons les œuvres cinématographiques, littéraires ou encore musicales. Si, dans un premier temps, on a pu y voir un moyen presque anecdotique de créer une œuvre à partir des souhaits d’un utilisateur ayant accès à une IA, elle inquiète désormais les artistes.

Des œuvres utilisées comme inputs
Les algorithmes et les AI peuvent être des outils très efficaces, à condition qu’ils soient bien conçus et entraînés. Ils sont par conséquent très fortement dépendants des données qui leur sont fournies. On appelle ces données d’entraînement des « inputs », utilisées par les IA génératives pour créer des « outputs ». Malgré ses promesses, l’IA représente cependant un danger pour les ayants droit, dont les œuvres sont intégrées comme données d’entraînement. A titre d’exemple, la version 3.5 de ChatGPT a été alimentée avec environ 45 téraoctets de données textuelles. On peut alors se poser la question de la protection des œuvres utilisées comme inputs : l’ayant droit peut-il s’opposer ? La législation a prévu un droit d’« opt-out », que peuvent exercer les auteurs pour s’opposer à l’utilisation de leurs œuvres par une IA. A travers le monde, l’IA est encore peu règlementée.
Aux Etats Unis, il n’existe pas encore de lois dédiées portant spécifiquement sur l’IA, mais de plus en plus de décisions font office de « guidelines ». Au sein de l’Union européenne (UE), l’utilisation croissante de l’IA, à des fins de plus en plus variées et stratégiques, a conduit à faire de son encadrement une priorité. En effet, dans le cadre de sa stratégie numérique, l’UE a mis en chantier l’ « AI Act », un projet de règlement (1) visant à encadrer « l’usage et la commercialisation des intelligences artificielles au sein de l’UE » qui a été voté le 14 juin 2023 par le Parlement européen (2). Son adoption est prévue pour fin 2023 ou début 2024, avec une mise application 18 à 24 mois après son entrée en vigueur. A travers ce texte, le principal objectif du Parlement européen est d’établir un cadre juridique uniforme permettant l’innovation via l’IA, et de garantir que les systèmes d’intelligence artificielle utilisés dans l’UE soient sécurisés, transparents, traçables, non discriminatoires et respectueux de l’environnement. Au niveau national, l’encadrement de l’IA fait également couler beaucoup d’encre comme en témoigne, en France, la proposition de loi visant à encadrer l’intelligence artificielle par le droit d’auteur (3), déposée mi-septembre 2023. Trouver un équilibre entre deux objectifs – à savoir la protection des œuvres par le droit d’auteur et la libre utilisation des données nécessaire au bon fonctionnement des IA – constitue le but que cherche à atteindre l’UE, notamment à travers sa directive « Droit d’auteur dans le marché unique numérique » (4) de 2019, où elle établit un cadre qui permet aux IA de se développer – droit de fouilles de données – tout en offrant un contrôle aux auteurs sur leurs données – droit d’opt-out. Mais ce dernier droit suffit il à assurer la protection des œuvres ?
L’article 4 de cette directive dédiée au droit d’auteur permet les reproductions et les extractions d’objets protégés accessibles de manière licite, aux fins de la fouille de textes et de données, ou TDM (5). Elle permet la fouille de textes et de données tout en recherchant « un équilibre entre deux éléments : protéger les droits, et faciliter l’exploration de textes et de données ». En effet, la directive prévoit en son article 3 les fouilles de données dans un but scientifique tandis que l’article 4 prévoit la fouille effectuée par toute autre personne, peu importe la finalité. A la différence de l’article 3, l’article 4 prévoit une exception permettant aux auteurs de s’opposer à la fouille de données prévue dans ce même article : le droit d’opt-out (6). Précisons que les données utilisées peuvent être « conservées aussi longtemps que nécessaire aux fins de la fouille de textes et de données » (7).

Plaintes contre les IA « non autorisées »
On connaît le cas de Radio France qui a interdit l’accès d’OpenAI – la société californienne à l’origine de ChatGPT – à ses contenus, suivi par d’autres médias tels que France Médias Monde ou TF1. L’écrivain américain de science-fiction et de fantasy George R.R Martin, ainsi que d’autres auteurs tels que John Grisham, ont également porté plainte contre OpenAI pour avoir utilisé leurs œuvres pour se développer. Plus récemment, entre autres cas, la Sacem a utilisé ce droit afin de conditionner l’utilisation des données de ses membres par une IA à une « autorisation préalable et à une négociation financière » (8). Quant à la transposition de la directive « Droit d’auteur » de 2019 en droit français par une ordonnance de 2021 (9), elle rend l’exercice du droit d’opt-out plus restrictif. En effet, l’article L. 122-5-3 du code de la propriété intellectuelle (CPI) réserve ce droit aux auteurs alors que la directive ouvre ce droit aux ayants droits.

L’opt-out est-il efficace pour protéger ?
La propriété littéraire et artistique peut-elle protéger contre l’utilisation des données par les IA ? Il y a tout d’abord les difficultés de mise en œuvre du droit d’opt-out. La directive « Droit d’auteur » de 2019 a été votée à une époque où le législateur ne mesurait pas encore pleinement l’importance qu’allait prendre l’IA, et le système d’opt-out semble désormais insuffisant pour protéger les auteurs car il est difficile à appliquer. Tout d’abord, il existe une insuffisance d’information relative aux moyens d’exercer ce droit. Ensuite, Internet permet une multiplication des occurrences d’un même contenu en ligne, donc exercer son droit d’opt-out, alors que l’œuvre a déjà été diffusée et relayée par des internautes, semble inefficace. De surcroît, il a été mis en place en 2019, après qu’un nombre gigantesque d’œuvres aient déjà été rendues accessibles sur de nombreuses bases de données. Se pose donc la question du sort des œuvres qui ont déjà été utilisées précédemment par autrui ou par une IA pour générer un autre élément. Le droit d’opt-out n’a-t-il d’effet que sur les utilisations futures ?
Devant la difficulté d’exercer ce droit, certains acteurs tentent de mettre en place des solutions pour pallier ce problème, notamment en assurant une meilleure transparence quant au fonctionnement de l’IA. Google, par exemple, a mis en avant « Google-Extended » pour permettre aux auteurs d’avoir un meilleur contrôle sur leur contenu et sur la manière dont il pourrait être utilisé par des IA génératives (10). Il faut aussi sécuriser les droits d’auteur dans l’ère de l’intelligence artificielle : discernement, transparence, contreparties, protections de l’humain, … Les artistes et ayants droit réclament un droit d’accès leur permettant de savoir quelles œuvres et quelles données sont utilisées dans la fouille de données. Et ce, quand bien même ils auraient consenti à l’utilisation de certaines de leurs œuvres – leur autorisation ne couvrant pas nécessairement toutes leurs œuvres ni tous les systèmes d’IA. Dans le cas où ils se seraient opposés, ce dispositif d’information leur permettrait aussi de s’assurer qu’une autorisation n’a pas été accordée indûment par des tiers. La plupart des ayants droit estiment que, dans la mesure où le fonctionnement des algorithmes d’IA implique une reproduction d’objets protégés, « l’humain doit rester prioritaire et la titularité des droits doit revenir en priorité aux humains » (11). C’est d’ailleurs dans cette logique que s’est inscrite la table ronde de la Federal Trade Commission (FTC) sur l’« économie créative et les IA génératives » (12), organisée le 4 octobre 2023 pour que le législateur américain et les différentes autorités compétentes prennent en considération, dans leur mission de régulation, le point de vue des artistes, auteurs, compositeurs, réalisateurs et de toute personne dont les œuvres pourraient être utilisées par une IA générative.
Des syndicats américains tels que SAG-AFTRA ou WGA, rassemblant des centaines de milliers d’acteurs et de professionnels des médias, étaient présents lors de cette table ronde pour défendre une utilisation de l’IA saine, qui soit bénéfique à l’ensemble de leurs membres, aux travailleurs d’autres industries et au public en général. Pour s’assurer que l’ensemble des individus de cette industrie soient justement payés pour leur travail, plusieurs syndicats n’ont pas hésité à faire une grève générale de plusieurs mois à Hollywood (13) pour s’assurer du bon équilibre entre l’utilisation des IA génératives et les intérêts des individus car « les humains ont beau essayer de créer des IA de plus en plus intelligentes, elles ne remplaceront jamais la créativité humaine ». La grève – historique – a d’ailleurs porter ses fruits dans la mesure où elle a abouti sur un accord qui « permettra de construire des carrières de façon durable ». Outre des compensations financières obtenues des studios, le SAG-AFTRA affirme qu’ils ont négocié des « provisions sans précédent pour s’assurer du consentement et de la compensation [des acteurs], afin de protéger [ses] membres de la menace de l’IA » (15). @

* Anne-Marie Pecoraro est avocate spécialisée
en droit de la propriété intellectuelle,
des médias et des technologies numériques.

ZOOM

L’IA générative : quésaco ?
ChatGPT, Dall-E, Midjourney, Bard, Claude, … On connaît des exemples d’intelligence artificielle générative qui produisent de nouvelles données à partir de celles créées par des êtres humains, que ce soit sous forme de texte, d’images ou encore de musique. L’IA générative se concentre sur la création de données, de contenu ou de productions artistiques, de façon indépendante, tandis que l’IA classique se concentre, elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA, qu’elle soit générative ou classique, repose sur l’apprentissage automatique (machine learning) et donc sur des algorithmes conçus de sorte que leur comportement évolue dans le temps en fonction des données qui leur sont fournies. L’IA générative utilise la puissance d’un modèle de langage naturel (GPT-3 et GPT-4 pour ChatGPT, par exemple). On parle d’« invite » pour une simple instruction donnée à l’IA générative en langage naturel (texte ou voix), sinon d’« ingénierie rapide » (prompt engineering, en anglais) lorsque les demandes sont plus élaborées. @

Rapport « NFT » au CSPLA : jetons non-fongibles et propriété intellectuelle font-ils bon ménage ?

La question de la nature juridique des NFT n’est pas près d’être tranchée. Le rapport « Martin-Hot », remis au Conseil supérieur de la propriété littéraire et artistique (CSPLA), soulève les difficultés et fait des recommandations. Dommage que ni l’Arcom ni des magistrats n’aient été consultés.

Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés.

Le Conseil supérieur de la propriété littéraire et artistique (CSPLA), instance consultative chargée de conseiller le ministère de la Culture, s’est vu remettre, le 12 juillet 2022, un rapport sur les jetons non-fongibles, ou NFT (1). L’objectif fixé à leurs auteurs – Jean Martin, président de mission, et Pauline Hot, la rapporteure – était de dresser un état des lieux et une analyse du phénomène du développement des NFT en matière littéraire et artistique.

Nature juridique : question non tranchée
Le rapport formule également vingt propositions destinées à informer les acteurs et à encadrer et sécuriser le marché, à un moment où les ventes de NFT connaissent un important reflux : près de 6 milliards de dollars de volume de ventes en janvier 2022 contre moins de 700 millions en juillet et même à peine 370 millions en août (2). Nous retenons de ce dense rapport de près de cent pages (3) la caractérisation d’une triple difficulté : celle de qualifier juridiquement les NFT, celle de les encadrer juridiquement, et celle de sanctionner des usages contrefaisants qu’ils occasionnent.

La difficile qualification juridique et l’objectif pratique des NFT en matière de propriété littéraire et artistique. Le rapport part d’une constatation de la difficulté de définir les NFT, qualifiés d’« objets juridiques non identifié » (4). Il écarte toute une série de catégories juridiques : les NFT ne sont pas des œuvres d’art puisqu’ils sont le résultat de processus de codage automatisés et non le produit original de l’empreinte de la personnalité d’un auteur ; ils ne sont pas des supports d’œuvres d’art puisque, la plupart du temps, ils ne contiennent pas l’œuvre mais l’indexent ; ils ne sont ni des certificats d’authenticité ni des éléments de DRM (5) puisqu’ils peuvent porter sur des faux ou des contrefaçons ; enfin, ils ne sont pas des contrats, notamment du fait que les parties sont identifiées par des pseudonymes et que le langage de nature logicielle du NFT ne permet pas de s’assurer du consentement des parties sur le contenu du contrat. Le rapport finit par retenir plutôt la qualification, « souple », de « titre de droits sur un jeton mais aussi sur un fichier, dont l’objet, la nature, et l’étendue varie en fonction de la volonté de son émetteur exprimée par les choix techniques et éventuellement juridiques associés au smart contract ». Les NFT seraient donc assimilables à des biens meubles incorporels correspondant à des titres de propriété. Mais quand on sait que la doctrine n’est toujours pas d’accord sur la qualification d’un droit de marque (droit personnel ? droit mobilier incorporel, donc réel ? titre de propriété dont l’objet comprend les composantes traditionnelles d’usus, fructus et abusus ?), on peut imaginer que la question de la nature juridique du NFT n’est pas près d’être tranchée. Quoi qu’il en soit, le rapport liste une série d’usages actuels ou potentiels des NFT dans le secteur littéraire et artistique, qui compose un paysage assez complet. Ce que l’on peut résumer en disant que les NFT représentent de nouvelles opportunités économiques pour les ayants droit. Il peut s’agir tout d’abord de nouveaux usages monnayés : vente d’œuvres « natives » NFT, de copies numériques d’œuvres préexistantes, de prestations associées propres à créer ou renforcer des communautés de « fans », etc.
Ces nouveaux usages monnayables pourraient particulièrement intéresser de nouveaux publics et donc de nouveaux consommateurs. Il peut ensuite s’agir de favoriser le financement de projets littéraires et artistiques : des NFT peuvent être offerts en contrepartie d’un apport à des financements participatifs de films, de publications, d’expositions, … Enfin, l’usage de NFT permet d’authentifier certains droits et de prévenir des usages contrefaisants, au moyen de smart contracts dont le rapport pointe toutefois les limites eu égard au formalisme requis, pour certains contrats, par le code de la propriété intellectuelle. Ainsi, les NFT pourraient être utilisés pour la billetterie de spectacles ou pour encadrer l’usage d’une œuvre sur laquelle des droits sont transférés.

Auteur, titulaire de droits et plateforme
Le rapport recommande donc d’effectuer un travail pédagogique auprès des différents acteurs pour encourager les usages vertueux des NFT, et à clarifier leur régime juridique par des voies normatives.
Le difficile encadrement de l’usage des NFT. Créer un NFT revient soit à créer une œuvre native NFT, soit à créer la copie privée d’une œuvre acquise par le créateur du NFT. Dès lors, le rapport rappelle que ce n’est pas tant la création d’un NFT elle-même qui peut présenter un risque de non-respect des droits que l’inscription du NFT sur une plateforme spécialisée dans l’achat et la revente de NFT. En effet, le créateur du NFT ne peut l’inscrire sur cette plateforme que s’il est auteur ou titulaire des droits sur l’œuvre vers laquelle le NFT « pointe ». Or le rapport rappelle que 80 % des NFT actuellement en ligne sur la plateforme OpenSea, par exemple, sont des contrefaçons ou du spam. Ce qui représente d’ailleurs des risques pour les consommateurs potentiellement abusés.

Les ayants droit en position de force ?
Le rapport évoque bien sûr l’apport de la technologie blockchain sur la sécurisation de la chaîne des droits : les smart contracts liés aux NFT « pointant » vers des œuvres pourraient prévoir une « forme d’automatisation des royalties » qui, si elle ne mettra certainement pas fin aux litiges en la matière, placera les ayants droit en position de force. Le rapport analyse également en détail l’interaction potentielle du droit de suite avec les NFT. Selon le rapport, si les NFT permettent un paiement automatique des ayants droit identifiés dans le smart contract à l’occasion de chaque transfert de droits, il ne semble pas possible de tirer profit de cette technologie pour faire une application du « droit de suite » au sens de l’article L. 122-8 du code de la propriété intellectuelle. Et ce, en raison des critères spécifiques afférents à ce droit, notamment celui du transfert de propriété par un professionnel de la vente d’œuvres.
Enfin, le rapport s’interroge sur la qualification d’atteinte au droit moral par l’inscription d’un NFT sans l’accord de l’auteur de l’œuvre vers laquelle « pointe » le NFT : si, par exemple, une œuvre musicale est reproduite sous forme de fichier mp3, fortement compressé, ou si elle est reproduite sans mention du nom du compositeur, l’atteinte devrait pouvoir être aisément caractérisée ; mais dans le cas contraire, il restera un débat sur la question de savoir si la « transformation » d’une œuvre en NFT peut constituer une violation du droit moral.
Pour favoriser un écosystème vertueux du marché des NFT, le rapport propose l’élaboration de chartes de bonnes pratiques aux niveaux national et européen, ainsi que le développement d’outils d’observation du marché de nature à accroître la transparence sur les mouvements de fonds.
L’encore incertaine sanction des usages de NFT contrefaisants. Un des apports les plus intéressants du rapport est son analyse du statut des plateformes de NFT et des sanctions qu’elles pourraient subir, notamment en raison de la grande présence de contrefaçon parmi les NFT hébergés. Selon le rapport, il n’est pas exclu que le régime des fournisseurs de services de partage de contenu en ligne s’applique à celles qui proposent l’achat et la vente de NFT, et donc que la responsabilité des plateformes soit engagée si elles ne retirent pas promptement les contenus contrefaisants, comme l’exige la loi « Confiance dans l’économique numérique » de 2004. On regrettera, à ce sujet, qu’aucune personne de l’Arcom (ex-CSA et Hadopi) n’ait été consultée par la mission. Il est regrettable aussi de ne pas avoir consulté des magistrats spécialisés en propriété intellectuelle pour anticiper l’appréciation par les tribunaux des NFT allégués de contrefaçon et de l’application de l’arsenal procédural anti-contrefaçon. Ainsi, les praticiens pourront s’interroger sur les conditions pratiques et juridiques de la récolte de preuves de contrefaçon par des NFT : quid de la possibilité de réaliser une saisie contrefaçon descriptive, par exemple ? Il conviendrait donc que les propositions d’informations et de réflexions prônées par le rapport visent également les juges.
Nous sommes plus optimistes que le rapport sur la compétence des tribunaux français pour des atteintes à des droits d’auteur dont les titulaires sont français : les clauses attributives de juridiction des conditions générales de vente (CGV) et des conditions générales d’utilisation (CGU) des plateformes hébergeant les NFT contrefaisants ne seront pas opposables aux auteurs des œuvres contrefaites. Et la reconnaissance de plus en plus large du critère d’accessibilité en matière de contrefaçon en ligne devrait assurer la compétence des tribunaux nationaux pour des actes commis sur des sites accessibles depuis la France.
Mais le rapport soulève une question intéressante : le « caractère immuable » de la blockchain semble rendre quasiment impossible la suppression définitive de NFT contrefaisants, sinon par une procédure de « brûlage » du NFT consistant à le rendre inaccessible et par un déréférencement de la copie contrefaisante de l’œuvre, liée au NFT. La technologie évoluera peut-être encore mais, en l’état, la difficulté à faire disparaître un NFT empêche le contrefacteur de faire disparaître les preuves de la contrefaçon tout en gênant l’exécution de décisions qui ordonneraient la suppression des NFT contrefaisants.

Le « proof of stake » moins énergivore
Enfin, on saluera les alertes et les propositions écologiques du rapport à propos de l’empreinte énergétique des NFT, encore mal définie mais que l’on peut comparer à celle du bitcoin, soit plusieurs dizaines de térawatts-heure (TWh) par an, c’est-à-dire la consommation électrique de pays entiers. La plupart des blockchains fonctionnent aujourd’hui sous des modèles de « preuve de travail » (proof of work) gourmandes en énergie. Or des modèles de « preuve de participation » (proof of stake) apparaissent, qui ne reposent pas sur la puissance de calcul des utilisateurs, mais sur leur participation à la crypto-monnaie. La blockchain Ethereum, très utilisée pour les NFT, est ainsi bien moins énergivore (6) depuis le 15 septembre 2022. @

Musique en ligne : 1 milliard de dollars de royalties impayées, premières restitutions en avril

Spotify, Apple Music, Amazon Music, Google/YouTube ou encore le français Deezer détiennent environ 1 milliard de royalties qu’elles n’ont encore pas versées aux auteurs de musiques « non-identifiées » ou d’origines étrangères inconnues. Ces sommes commencent enfin à être débloquées en avril.

(Depuis la publication de cet article dans le n°254 de Edition Multimédi@, le premier versement mensuel a porté sur 40 millions de dollars. Prochain paiement : mi-mai)

C’est un sujet brûlant aux Etats-Unis: plusieurs centaines de millions de dollars, qui pourraient dépasser 1 milliard, dorment dans la trésorerie des plateformes de streaming musical. Le Mechanical Licensing Collective (MLC), un organisme américain de gestion collective des droits d’auteur de la musique, est officiellement mandaté pour collecter ces arriérés auprès des Spotify, Apple Music et autres Google Play Music/YouTube qui thésaurisent les sommes non allouées. Déjà un demi-milliard de dollars a été récupéré : première restitution aux ayants droit courant avril.

D’Apple Music et Spotify à Deezer et Qobuz
Dirigé par Kris Ahrend (photo) et basé à Nashville (capitale du Tennessee), tout en ayant des implantations dans d’autres villes américaines, et une à Londres, le MLC joue le rôle de go-between entre les éditeurs de musiques et les auteurs-compositeurs, interprètes et paroliers autogérés et membres. Depuis le mois de janvier, il a commencé à gérer les licences générales, obligatoires pour tous les services de streaming et de téléchargement de musique en ligne aux Etats-Unis. « Le MLC est sur la bonne voie pour livrer ses premiers paiements de redevances en avril, dans le cadre de son processus de versement mensuel », a précisé Kris Ahrend dans sa newsletter de mars. Homologué en juillet 2019 par le « US Register of Copyrights » dans le cadre de la loi américaine Music Modernization Act (MMA) de 2018, le MLC a pour mission de récupérer auprès des plateformes numériques éligibles aux Etats-Unis ces redevances non payées mais dues en vertu des licences de musiques enregistrées mises en ligne. C’est au MLC de reverser tous les deux ans ces royalties impayées aux artistes une fois identifiés. N’entrent donc pas dans son champ d’action les licences ou les royalties d’exécution publique, les licences ou les redevances de synchronisation ou les redevances d’enregistrement (2).
Et à partir de cette manne inespérée, mais sans bénéficiaires dans l’immédiat, l’organisme de gestion collective à but non lucratif répartira les sommes et paiera les auteurs-compositeurs, les interprètes, les paroliers et les éditeurs de musique. Et cela commence à payer : le MLC a déjà perçu, à la première échéance des paiements du 15 février, un total de plus de 424,3 millions de dollars de royalties – un record historique – accumulées par les plateformes numériques. D’autres transferts de fonds sont à venir, qui pourraient dépasser le milliard cumulé. Plusieurs raisons expliquent cette rétention de royalties « non appariées » : soit les montants sont affectés à des œuvres dont l’auteur est non-identifiable, soit l’origine étrangère n’est pas déterminée. Ainsi, en tête des redevables : Apple Music a versé 163,3 millions de dollars ; Spotify a restitué 152,2 millions de dollars ; Amazon Music s’est acquitté de 42,7 millions de dollars ; Google, au titre de Google Play Music et de YouTube, a payé 32,8 millions de dollars. Même les plateformes françaises Deezer, dont Orange est actionnaire minoritaire, et Qobuz, propriété de Xandrie, ont restitué respectivement 988.338 dollars et 106.893 dollars.
Au total, une vingtaine de Digital Service Providers (DSP) ont payé leur écot. Ces derniers ont également livré au MLC, avec ces premiers règlements, plus de 1.800 fichiers de données contenant plus de 1,3 téraoctets et 9milliards de lignes de données ! « Nous pouvons commencer le processus d’examen et d’analyse des données afin de trouver et payer les propriétaires des droits d’auteur correspondant », s’est félicitée le MLC, tout en annonçant la création d’une page web dédiée intitulée « Historical Unmatched Royalties » (3), ainsi qu’« un portail de réclamation en ligne (4) qui permettra aux membres (5) d’identifier toutes les chansons non appariées qu’ils possèdent et de réclamer les redevances associées ». Bien que le MLC commence à payer les ayants droit en avril, il précise qu’il ne sera pas en possession de toutes les data avant juin prochain. Pour les sommes non réparties au bout de deux ans, elles seront distribuées à partir de janvier 2023 à tous les détenteurs d’œuvres identifiées au prorata de leur part de marché – majors en tête donc.

Le MLC à Londres devra rendre des comptes
Parallèlement, souligne le MLC, « les DSP demandent à la MMA de limiter leur responsabilité en cas de violation passée et d’utilisation illicite » de ces œuvres musicales. Cet échange de bons procédés – « Je paie, mais vous ne m’attaquez pas en justice » – porte ces fruits. Reste que le MLC ne paiera que les artistes situées sur le sol américain, à la grande satisfaction des associations de songwriters (SONA) et des music publishers (NMPA). En Europe, le MLC devra de Londres rendre des comptes : notamment, en France, à la Sacem ou à la SACD, « sinon, il faut tenter de corriger par soi-même en contactant le MLC », écrit à ses confrères et consœurs Wally Badarou, membre de l’Union des compositeurs de musique de films (UCMF). @

Charles de Laubier

L’article 17 controversé, ou comment la Commission européenne a relancé la guérilla du filtrage

La Commission européenne n’est pas prête à publier ses lignes directrices finales sur l’interprétation que les plateformes numériques et les ayants droits devront faire de l’article 17 de la directive « Droit d’auteur », tant celui-ci est toujours controversé sur fond de lobbying incessant.

Par Juliette Félix, Avocate, cabinet Herald

Après trois ans de débats houleux, l’adoption le 17 avril 2019 de la directive européenne « Droit d’auteur et droits voisins dans le marché numérique » (1) avait réjoui le monde de la culture. En France, Franck Riester, alors ministre de la Culture, ne cachait pas son soulagement : « C’est une grande satisfaction et une étape majeure dans la capacité de l’Europe à défendre les créateurs, artistes et journalistes, et à s’assurer d’un meilleur partage de la valeur créée sur le numérique » (2).

La France se rebiffe et critique Bruxelles
Le Parlement européen venait de mettre un terme à une bataille de lobbying féroce autour notamment de l’article 13, devenu l’article 17. Fustigé par les GAFA et les partisans d’un Internet libre, en ce qu’il ouvre la voie à un filtrage automatisé des contenus et entame le régime d’irresponsabilité des hébergeurs, l’article 17 de la directive « Droit d’auteur » (ou « Copyright ») a finalement été adopté dans une rédaction favorable aux créateurs, soutenue par la France. Cette disposition âprement débattue met fin à la responsabilité limitée des plateformes de partage de contenus, et leur impose, d’une part, de rechercher l’autorisation des ayantsdroit, notamment par la voie d’accords de licence collectifs et, d’autre part, de mettre en place un filtrage des contenus contrefaisants. La directive européenne « Copyright » doit être transposée par les Etats membres au plus tard en juin 2021. La Commission européenne a lancé « un dialogue » entre les Etats membres et les parties intéressées (titulaires de droits, sociétés de gestion collective, organisations d’utilisateurs, …) pour « examiner les meilleures pratiques » et « émettre des orientations » sur l’application de cet article 17 controversé. La publication, le 27 juillet 2020, de la consultation des parties par la Commission européenne en vue de l’élaboration des lignes directrices (3) tant attendues a ravivé les tensions entre les deux camps. Le gouvernement français, lui, en a perdu son bel optimisme. Dans leur contribution, les autorités françaises estiment que « ce document soulève des préoccupations très importantes ». Et de critiquer l’approche de l’exécutif européen : « Au plan méthodologique, le projet excède très largement le cadre imparti pour les orientations de la Commission [européenne] et se révèle très pauvre quant aux éléments concrets et documentés pourtant attendus sur les meilleures pratiques de coopération. Sur le fond, l’approche préconisée remet fondamentalement en cause les équilibres arrêtés par les co-législateurs, à travers une réécriture des dispositions de la directive qui en méconnaît tant la lettre que l’esprit ». Les représentants des créateurs – notamment le Gesac (4) – lui reprochent également de réécrire l’article 17 et de favoriser le maintien en ligne de contenus illicites, tout en faisant peser trop d’obligations sur les ayants-droit (5). Les représentants des utilisateurs, de la société civile (6) et des plateformes numériques – notamment la CCIA (7) – s’alarment pour leur part de ce qu’ils analysent comme la consécration de l’obligation de surveillance générale des contenus. L’objectif initial de fédérer des « bonnes pratiques » est loin d’être atteint. Les interprétations divergent sur de nombreux points essentiels :
• La définition de la communication au public.
La Commission européenne souligne que la directive « Copyright », en ce qu’elle rend les plateformes responsables du contenu partagé par leurs utilisateurs, constitue une « lex specialis » (soit une « loi spéciale » qui déroge à la « loi générale ») par rapport : à l’article 3 de la directive de 2001 dite « DADVSI » (8), qui consacre, « pour les auteurs, le droit exclusif d’autoriser ou d’interdire toute communication au public de leurs œuvres », et à l’article 14 de la directive de 2000 dite « E-commerce » (9), qui définit le statut d’hébergeur.

Notion d’« acte de communication au public »
Même si les plateformes sont désormais considérées comme effectuant des actes de communication au public en rendant les œuvres disponibles, les Etats membres ne doivent pas, dans le cadre de la transposition, se référer aux notions préexistantes de « communication au public » et d’« autorisation ». Ils doivent créer une « notion d’autorisation » spécifique correspondant à « l’acte de communication au public » spécial de l’article 17. Si les représentants des utilisateurs et des plateformes numériques se réjouissent de cette distinction, les titulaires de droits réclament l’adoption de la même définition de la communication au public que celle relevant des textes existants, par souci d’harmonisation (10).
• Les « meilleurs efforts » des plateformes pour obtenir des autorisations. La directive « Droit d’auteur » encourage la conclusion de licences entre les ayants droit et les plateformes du Net. L’existence d’une licence vaudra autorisation pour les utilisateurs de téléverser leurs contenus, en toute sécurité juridique. Les plateformes numériques n’ont toutefois pas d’obligation de résultat, et doivent faire « leurs meilleurs efforts » pour obtenir les autorisations.

« Vraisemblablement ou probablement illicite » ? La Commission européenne tente de définir ces « meilleurs efforts ». Elle encourage les Etats membres à favoriser la conclusion d’accords : modèles de licences, mécanismes de médiation et d’échange d’information. Elle invite ces mêmes plateformes à être proactives, notamment à l’égard des sociétés de gestion collective des droits d’auteurs (ou OGC), et à ne pas refuser des conditions de rémunération raisonnables. L’obligation de « meilleurs efforts » devra s’apprécier au cas par cas, selon le principe de proportionnalité, mais peu d’éléments concrets sont livrés pour élaborer un cadre précis. Le groupement représentant les plateformes numériques, la CCIA (11) insiste sur la nécessité de préserver « la liberté contractuelle » des parties et pointe le faible niveau de représentativité des OGC. Il entend également faire supporter la charge de la preuve par les ayants droit… alors que pour ces derniers ce sont les plateformes qui doivent être en mesure démontrer leurs efforts.
• L’articulation entre l’obligation de rechercher des autorisations et l’obligation de filtrage. La conclusion de licences dispense-t-elle la plateforme numériques de mettre en place un système de filtrage de contenus et de faire ses « meilleurs efforts » pour supprimer préventivement les contenus illicites ? L’article 17 précise que le filtrage vient pallier l’absence de licence ou d’autorisation, lorsque la plateforme en question n’est pas parvenue à en obtenir, malgré ses meilleurs efforts. Mais pour les autorités françaises, la Commission européenne « ne peut pour autant affirmer que l’obligation de prendre des mesures préventives ne devient applicable que dès lors que l’objectif de conclusion des licences ne peut être atteint ». La France souhaite que les mesures préventives puissent bénéficier à tous.
A l’opposé, pour la CCIA, une obligation trop étendue s’apparenterait à une surveillance générale, et serait donc prohibée. Il insiste sur la problématique des coûts et le risque de « faux » positifs aboutissant à des blocages indus.
• Le traitement des exceptions et l’apparition de nouvelles notions : les contenus « vraisemblablement illicites » et les contenus « probablement légitimes ». La directive « Copyright » impose le respect des exceptions de « caricature, parodie et pastiche » et de « courte citation, critique, revue », afin de préserver notamment le droit à l’humour et l’expression critique et scientifique. La liberté d’expression ne peut être filtrée. Prise en étau entre le respect du droit d’auteur et celui de la liberté d’expression, la Commission européenne tente de contourner l’obstacle en introduisant deux notions absentes de la directive « Copyright » : les contenus « vraisemblablement illicites » et les contenus « probablement légitimes » (12). La réaction du Gesac est nette : « Une telle distinction est inacceptable ». D’une part, ces notions ne renvoient à aucun concept juridique existant ; elles sont définies en fonction de critères techniques qui demeurent très vagues, alors même qu’une exception au droit d’auteur est une notion juridique d’interprétation stricte. D’autre part, il reviendrait à l’ayant droit de démontrer que l’usage jugé comme « probablement légitime » par la plateforme digitale, n’a en réalité pas été autorisé. Le temps de l’instruction de la demande, le contenu resterait en ligne par défaut. Les ayants-droit rappellent que la directive « Droit d’auteur » pose le blocage comme principe en cas d’identification d’un contenu illicite, à charge pour l’utilisateur de démontrer qu’une exception s’applique pour obtenir le déblocage. La France rejette elle aussi fermement la nouvelle distinction posée par la Commission européenne : « La simple éventualité très aléatoire d’application d’une exception conduirait donc à paralyser les effets du droit d’auteur ». Les représentants des utilisateurs sont, eux, sans surprise, aux antipodes. L’introduction de la notion de « contenus vraisemblablement illicites » leur paraît « trop permissive » et devrait être remplacée par la notion de « manifestement illicite ». Le maintien en ligne doit être le principe.
• Les informations que les plateformes doivent remonter aux ayants droits. A défaut de proposer des mesures concrètes pour combler le « value gap », la directive « Copyright » pose comme principe une plus grande transparence sur les revenus générés par les plateformes numériques, afin que les ayants droits puissent disposer d’informations claires et précises sur le revenu de leurs œuvres, et mieux négocier leur rémunération. La Commission européenne n’entend pas imposer aux plateformes une obligation de transparence étendue, écartant notamment une reddition de compte œuvre par œuvre. Elle préfère renvoyer à la négociation contractuelle. La CCIA rejette une reddition de compte trop détaillée, dont le coût serait excessif.

La France légifère avant les lignes directrices
Les divergences d’interprétation sont multiples. Faute d’apporter des propositions pragmatiques, la consultation – clôturée le 10 septembre dernier – relance la controverse. Dans ce contexte incertain, l’Hadopi – qui constituera avec le CSA la future l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) – semble toutefois assurée d’être désignée comme autorité de contrôle du filtrage. Dans son analyse de la consultation, l’Hadopi en pointe les carences (13) et estime que l’approche de la Commission européenne « met en risque tant les titulaires de droit que les utilisateurs ». Les députés français, eux, ont autorisé le gouvernement à transposer les dispositions de l’article 17 par voie d’ordonnance, sans débat parlementaire et sans attendre les lignes directrices de la Commission européenne. @