Le modèle artist centric ne change pas grand-chose

En fait. Le 31 octobre, le musicien Denis Levaillant a appelé à « une réforme profonde du modèle économique du streaming » et a estimé que « le modèle “artist centric” ne changera pas grand-chose ». Il l’a dit dans un entretien au Bulletin des auteurs du Syndicat national des auteurs et des compositeurs (Snac).

En clair. La toute première répartition de la rémunération des musiciens et ayants droits selon le modèle dit « artist centric » est intervenue le 6 octobre, dans le cadre de l’accord passé en février 2025 entre la Sacem – Société des auteurs, compositeurs et éditeurs de musique – et Deezer, la plateforme française de streaming musical. La promesse du modèle artist centric est de pondérer la valeur des streams en fonction de différents critères, afin de permettre une répartition des droits plus équitable que le modèle historique dit market centric où chaque streama la même valeur sans distinction et où les royalties sont calculées au prorata des écoutes totales (1).
Les critères de l’artist centric, du moins dans l’accord SacemDeezer, sont notamment et a priori une meilleure valorisation des artistes « professionnels » (pas d’IA) qui atteignent 1.000 streams mensuels issus de 500 utilisateurs uniques (tous titres de l’artiste confondus), et une meilleure rémunération des streams dits « actifs » car – contrairement aux streams dits « passifs » – ils correspondent à une écoute obtenue par (suite) une recherche précise de titre ou d’album, ou par une playlist personnalisée. Mais pour cette première répartition des droits, portant sur le 1er semestre 2025, seules les écoutes payantes réalisées en France sont comptabilisées. « Des discussions sont en cours pour étendre ce modèle à d’autres territoires et à d’autres plateformes », indique la Sacem (2).
Mais pour le musicien Denis Levaillant, compositeur, pianiste et auteur, le compte n’y est pas : « Cet accord [Sacem-Deezer] ne s’attaque pas du tout au nœud du problème : la répartition aujourd’hui n’est pas égalitaire. Etant calculée au prorata global du nombre de streams, elle favorise les artistes les plus en vue. […] Et cela ne changera pas car le plafond défini de 1.000 streamsmensuels pour un titre avec 500 abonnés différents est extrêmement élevé et éliminera beaucoup de monde ».
Pour celui qui fut président de la Fédération de la composition Musique de création (FC-MC) de 2021 à 2024, « il semble donc bien que ce modèle “artist centric” va donner au final plus aux plus gros et moins aux petits, et ne changera pas grand-chose au matraquage des genres mainstream ». Denis Levaillant prône donc une réforme du streaming musical selon trois pistes : « la rémunération à la seconde (3), le prix unique (4), et la séparation du classique et de la pop (5) ». @

Les livres générés par de l’IA bousculent les maisons d’édition traditionnelles du monde entier

Alors que le Syndicat national de l’édition (SNE) – qui regroupe les majors françaises du livre parmi plus de 700 membres – organise le 42e Festival du Livre de Paris (12-13 avril), les IA génératives s’invitent parmi les « auteurs » avec des ouvrages dont elles ont écrit tout ou partie. Disruptif.

Pendant que l’industrie du livre fait son festival à Paris, l’intelligence artificielle vient jouer les trouble-fête en s’immisçant de plus en plus dans le monde de l’édition. Une nouvelle génération d’éditeurs, férus de technologies, s’apprêtent à disrupter la production de livres en accélérant leur mise sur le marché grâce notamment à l’IA générative pour raccourcir le temps de l’écriture et les éditer le plus rapidement possible auprès des lecteurs.

L’IA édite un livre en quelques jours
« Le monde de l’édition a peu changé depuis l’époque de Gutenberg et appelle à la transformation », prévient la startup américaine Spines (ex-BooxAI), cofondée en 2021 par l’Israélien Yehuda Niv (photo de gauche). Spines est une plateforme d’édition basée sur l’intelligence artificielle, qui propose aux auteurs « un moyen facile de publier, distribuer et commercialiser leurs livres, le tout en un seul endroit, en seulement 8 jours, du manuscrit à un titre publié, y compris la relecture, le formatage, la conception de la couverture, la distribution et le marketing sur tous les principaux canaux et plateformes ». Une semaine ! Là où les maisons traditionnelles mettent des mois avant de publier un livre. Yehuda Niv, PDG de la startup basée en Floride (1), et ses équipes veulent « réinventer le futur de l’édition ». « Nous voulons publier jusqu’à 8.000 livres en 2025. L’objectif est d’aider 1 million d’auteurs à publier leurs livres », avait déclaré Yehuda Niv, en novembre dernier à The Bookseller (2).
La plateforme Spines revendique (au 11 avril 2025) plus de (suite)
2.800 auteurs édités. « Il vous suffit de télécharger votre manuscrit et, en quelques jours, de le voir se transformer en un chef-d’œuvre publié et apprécié par les lecteurs du monde entier. Notre IA est comme un éditeur vigilant, scannant méticuleusement votre manuscrit à la recherche de tout problème de grammaire ou de zones qui bénéficieraient d’une amélioration », promet-elle aux auteurs. C’est de l’auto-édition à compte d’auteur boostée à l’IA, moyennant 1.200 à 5.000 dollars, les droits d’auteur lui revenant intégralement. Au Texas cette fois, les jumeaux Mikkelsen – Christian (photo de droite), PDG, et Rasmus, directeur technique, cofondateurs en 2018 de la société d’auto-édition Publishing.com – ont lancé en août 2024 Publishing.ai, leur plateforme logicielle conçue pour « rationaliser le processus d’édition de livres en exploitant l’intelligence artificielle éthique de pointe pour permettre aux auteurs, éditeurs et créateurs de contenu de produire des livres de haute qualité plus rapidement, plus facilement et plus économiquement que jamais » (3). L’IA va prémâcher en quelques minutes le travail de l’auteur, en lui suggérant les idées de livres les plus vendues, avec analyse du lectorat potentiel. Et en quelques heures, un « Manuscript Assistant » va lui produire un brouillon de 30.000 mots, construit selon ses spécifications et prêt pour des touches personnelles. L’IA permet en outre la personnalisation du style d’écriture et du ton en fonction de ce que souhaite l’auteur. Son manuscrit, unique, est alors prêt à être édité ! « Nos outils sont conçus pour améliorer votre créativité, pas la remplacer », assure Rasmus Mikkelsen. Et selon les jumeaux, avec Publishing.ai, « il n’est pas nécessaire d’embaucher de coûteux écrivains fantômes [ghostwriters, ou « nègres » selon la regrettable expression remplacée par « prête-plume », ndlr] »… De leur côté, Microsoft et ByteDance (maison mère de TikTok) sont en embuscades avec leur nouvelle maison d’édition, respectivement 8080 Books et 8th Note Press.
En France, la « maison d’auto-édition et agence littéraire » Libranova, cofondée en 2014 par Charlotte Allibert (photo ci-contre) et Laure Prételat, « suppose que ce sont plusieurs milliers d’ouvrages qui ont été rédigés par l’IA et publiés en France, notamment via la plateforme Amazon Kindle Direct Publishing ». Le géant du e-commerce autorise chaque compte KDP à publier jusqu’à trois publications par jour (4), afin de limiter l’édition massive facilitée par l’IA, « ce qui implique qu’un compte peut [tout de même, ndlr] générer environ 1.095 titres par an », relèvent-elles.

« Human Authored » et « Création Humaine »
Il y a un an, Libranova s’est associé au label payant « Création Humaine » (5), lancé en 2023 par Nicolas et Cécile Gorse, pour certifier que le contenu n’a pas été généré par une IA (6). Aux Etats-Unis, en janvier 2025, la Authors Guild a lancé dans le même esprit la certification « Human Authored » (7) pour « préserver l’authenticité de la littérature », ayant constaté que « les livres générés par l’IA inondent les marchés en ligne et ressemblent de plus en plus à des livres d’auteurs humains ». Les maisons d’édition risquent d’en perdre leur latin. @

Charles de Laubier

Pourquoi le Conseil constitutionnel a censuré le délit d’« outrage en ligne » dans la loi SREN

La loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (SREN) a été publiée le lendemain au Journal Officiel, après avoir été expurgé des articles censurés par le Conseil constitutionnel. Les sages de la République ont jugé le délit d’outrage en ligne d’inconstitutionnel.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

En invalidant cinq articles de la loi, dont le délit d’« outrage en ligne » (1), le Conseil constitutionnel – par décision du 17 mai 2024 (2) – a contraint le législateur à revoir son approche de la régulation de l’espace numérique. La loi visant à sécuriser et à réguler l’espace numérique (SREN) introduisait le délit d’outrage en ligne, qui aurait été puni d’un an d’emprisonnement et de 3.750 euros d’amende forfaitaire en cas de diffusion en ligne de tout contenu portant atteinte à la dignité d’une personne ou présentant un caractère injurieux, dégradant, humiliant, ou créant une situation intimidante, hostile ou offensante.

Un délit qui manquait d’objectivité
Le Conseil constitutionnel, qui avait été saisi par deux groupes de députés différents (respectivement les 17 et 19 avril 2024), a jugé que les faits réprimés par cette nouvelle infraction étaient déjà couverts par des qualifications pénales existantes, y compris lorsque ces abus sont commis en ligne. Ainsi par exemple, les sages de la République ont relevé que la diffamation et l’injure sont réprimées par les articles 32 et 33 de la loi du 29 juillet 1881 sur la liberté de la presse (3), les violences psychologiques par le code pénal (4), et le harcèlement par le code pénal également (5).
Rappelons que la diffamation se définit comme toute allégation ou imputation d’un fait portant atteinte à l’honneur ou à la considération de la personne auquel le fait est imputé, lorsqu’elle est commise publiquement. Tandis que l’injure se définit comme toute expression outrageante, termes de mépris ou invective qui ne renferme l’imputation d’aucun fait, lorsqu’elle est proférée publiquement. En outre, le Conseil constitutionnel a relevé que cette nouvelle infraction de délit d’« outrage en ligne » manquait d’objectivité et créait un climat d’incertitude attentatoire à la liberté, en nécessitant une appréciation subjective du ressenti de la personne visée (« incertitude sur la licéité des comportements incriminés »). « Les dispositions contestées font dépendre la caractérisation de l’infraction de l’appréciation d’éléments subjectifs tenant à la perception de la victime. Elles font ainsi peser une incertitude sur la licéité des comportements réprimés », estime notamment le Conseil Constitutionnel. Il a donc jugé que cette disposition portait atteinte à la liberté d’expression et de communication de manière non nécessaire, non adaptée et disproportionnée.

L’introduction du délit spécifique d’outrage en ligne avait été proposé par le sénateur (Union centriste) Loïc Hervé. Cette mesure n’était pas soutenue par le gouvernement et était rejetée par la quasi-totalité des groupes parlementaires, malgré des modifications en commission mixte paritaire. « Inspiré du délit d’outrage sexiste et sexuel », ce nouveau délit d’« outrage en ligne » introduit comme nouvelle infraction, aurait apporté une réponse aux « difficultés posées, en matière de harcèlement en ligne, par la réponse pénale classique », au moyen d’une « sanction immédiate par une amende forfaitaire délictuelle », selon les porteurs de l’amendement (6). Divers arguments pouvaient justifier l’introduction du délit d’outrage en ligne dans le code pénal. Cette nouvelle infraction aurait comblé un vide juridique laissé par les qualifications pénales existantes comme l’injure ou la diffamation, tout en permettant de lutter contre les comportements abusifs en ligne, souvent perpétrés sous couvert d’anonymat – lequel est en fait de la pseudonymisation (7).
En offrant un délai de prescription plus long (six ans au lieu de trois mois à compter de la publication), elle aurait mieux convenu aux justiciables victimes de comportements répréhensibles sur Internet. Il est vrai que ces infractions, bien que pertinentes, ne couvrent pas toujours les nuances spécifiques des abus en ligne, souvent anonymes et diffusés à grande échelle. L’objectif, que nous pourrions considérer comme louable, était donc de créer une infraction qui s’adapte mieux aux réalités numériques actuelles, offrant ainsi une réponse pénale plus appropriée.

Gros risque pour la liberté d’expression
La levée de l’anonymat aurait été facilitée par l’obtention de l’adresse IP des auteurs, en raison de la peine d’emprisonnement d’un an encourue. Et l’on sait que les démarches pour obtenir ces informations peuvent être complexes et nécessiter une coopération internationale dans certains cas. De plus, le délit d’outrage en ligne aurait aidé à limiter l’escalade de la violence, les insultes, menaces ou intimidations pouvant progressivement s’intensifier et mener à des actes de violence physique. En quelque sorte, le texte soulignait ici un aspect préventif dans la lutte contre les violences physiques. Mais le Conseil constitutionnel a considéré que l’introduction de ce nouveau délit d’outrage en ligne portait un risque trop important d’atteinte aux libertés d’expression et de communication. Notons que les conditions de mise en œuvre de cette nouvelle infraction n’étaient pas aisées puisqu’en matière de cyberharcèlement, l’identification des auteurs peut impliquer la mise en place d’enquêtes poussées, ce qui n’est pas toujours compatible avec une amende forfaitaire.

La SREN, 20 ans après la LCEN
Le Conseil constitutionnel a également censuré quatre autres articles de la loi, qualifiés de cavaliers législatifs, c’est-à-dire sans rapport direct avec le texte initial. Ces articles ont été écartés en raison de leur irrégularité au regard de l’article 45 de la Constitution de 1958 (navette législative). L’un des autres articles censurés visait à offrir à 100 % des Français une identité numérique gratuite d’ici le 1er janvier 2027 (8). L’ambition était, selon le rapporteur général du texte à l’Assemblée nationale, le député (non inscrit) Paul Midy, de mettre fin à l’anonymat en ligne. Lors des débats, la perspective de la généralisation de l’identité numérique en France a été considérée comme « liberticide » (9).
En censurant le délit d’outrage en ligne, l’une des mesures phares et controversées de la loi SREN, le Conseil constitutionnel se pose en défenseur des libertés fondamentales, protégeant la liberté d’expression et de communication contre des atteintes disproportionnées. Il prive ainsi les autorités d’un moyen supplémentaire pour sanctionner certains comportements abusifs en ligne. Bien que le délit d’outrage en ligne ait été invalidé, la majorité des articles de la loi SREN ont été jugés conformes à la Constitution française.
La loi SREN renforce et modernise le cadre juridique établi par la loi de 2004 pour « la confiance dans l’économie numérique », dite LCEN (10), en matière de régulation de l’Internet. Elle vise notamment à améliorer la sécurité en ligne, particulièrement pour les plus jeunes face à la pornographie, et à lutter contre les contenus illicites. Parmi les principales mesures, la loi introduit un « filtre anti-arnaque » (11) destiné à protéger les utilisateurs contre les cyberattaques comme le phishing (hameçonnage pour obtenir des données personnelles à des fins d’usurpation d’identité). Cette mesure, qui s’impose aux navigateurs web (12), a été critiquée par la Cnil et La Quadrature du Net en raison des risques de censure et de surveillance (13), et de l’efficacité contestée de ce filtre. Ainsi, le potentiel risque de censure et de surveillance excessive devra être soigneusement considéré pour éviter toute atteinte disproportionnée aux libertés individuelles. S’agissant de l’efficacité réelle de ce filtre, une évaluation – dans le temps, rigoureuse et continue de son impact – sera nécessaire.
L’Arcom, elle, voit son rôle renforcé, notamment pour bloquer et déréférencer les sites pornographiques ne disposant pas d’un dispositif efficace de contrôle d’accès des mineurs. Elle est également chargée de mettre en place des modalités techniques pour vérifier l’âge des internautes accédant à ces sites Internet. La protection des mineurs face à la pornographie et la lutte contre les contenus illicites sont des préoccupations légitimes et urgentes. La mise en place de ce nouveau dispositif est essentielle pour garantir un Internet plus sûr pour des personnes vulnérables.
En outre, la loi SREN met en œuvre plusieurs règlements européens du « paquet numérique » : le Data Governance Act (DGA (14)), le Digital Markets Act (DMA (15)) et le Digital Services Act (DSA (16)). Ces règlements visent à favoriser une meilleure circulation des données dans un environnement protégé et à renforcer la protection des internautes. La Cnil voit ses pouvoirs étendus et devient l’autorité compétente pour contrôler les « organisations altruistes en matière de données » (OAD, ou DAO en anglais pour Data Altruism Organisations), gérer le registre national des ces dernières et instruire les plaintes à leur encontre (17). La Cnil doit également veiller au respect des obligations de transparence en matière de publicité ciblée, en interdisant le profilage basé sur des données sensibles et le profilage des mineurs.
De plus, la loi SREN introduit des dispositions pour réguler le marché de l’informatique en nuage (cloud), imposant des obligations d’interopérabilité et de limitation des frais de transfert pour les fournisseurs de services cloud. L’Arcep reçoit de nouvelles missions pour réguler ces services et les prestataires d’intermédiation de données, qui devront se faire labelliser.

Une actualisation de la SREN envisageable
En définitive, la loi SREN apporte des avancées significatives dans la sécurisation de l’Internet, où la coopération entre régulateurs et acteurs du secteur du numérique sera cruciale pour lutter contre les contenus illicites et assurer la protection des mineurs, là où la LCEN avait pu poser les bases de la régulation de l’économie numérique en France. Toutefois, avec l’évolution rapide des technologies et des usages d’Internet, dont l’IA, une mise à jour s’imposerait pour répondre aux nouveaux défis du numérique. @

* Antoine Gravereaux est avocat associé chez FTPA Avocats, au
département « Technologies, Data & Cybersécurité »

Les enjeux du droit d’auteur à l’ère de l’intelligence artificielle (IA) : entre exceptions et interprétations

La propriété intellectuelle est entrée dans une zone de turbulences provoquées par les IA génératives. L’utilisation d’œuvres reste soumise à l’autorisation des auteurs, mais le droit d’auteur est limité dans certains cas comme la fouille de textes et de données. L’AI Act sera à interpréter.

Par Jade Griffaton et Emma Hanoun, avocates, DJS Avocats*

La récente législation européenne sur l’intelligence artificielle (IA) – l’AI Act dans sa dernière version de compromis final datée du 26 janvier 2024 (1) (*) (**) – adopte une définition flexible de « système d’IA », désigné comme « un système basé sur des machines conçues pour fonctionner avec différents niveaux d’autonomie et d’adaptabilité après leur déploiement et qui, à partir des données qu’il reçoit, génère des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels » (2).

Exception de « fouille de textes et de données »
La question de la relation entre le droit de la propriété littéraire et artistique et l’IA est une préoccupation ancienne. Lors de la phase d’entraînement, le système d’IA reçoit des données. A ce stade, se pose la question de l’intégration de contenus protégés par le droit d’auteur aux fins du développement du système. Lors de la phase de génération, le système d’IA génère des résultats, voire des créations, à la demande de l’humain. Se pose alors la question de l’encadrement juridique de ces créations générées, en tout ou partie, par un système d’IA. Ces problématiques juridiques actuelles doivent être envisagées à la lumière des nouveaux textes destinés à réguler le domaine de l’IA, et notamment la récente proposition de règlement européen sur l’IA, et la proposition de loi française visant à encadrer l’utilisation de l’IA par le droit d’auteur (3).
De nouveaux contours de la possibilité d’utiliser des œuvres pour entraîner l’IA ? Les systèmes d’IA ont besoin, au stade de leur apprentissage et développement, d’avoir accès à de grands volumes de textes, images, vidéos et autres données. Ces contenus sont susceptibles d’être protégés par le droit d’auteur. L’objectif principal du règlement IA, dévoilé en 2021 par la Commission européenne, consiste à réguler les systèmes d’IA introduits sur le marché européen, en adoptant une approche axée sur les risques et en assurant un niveau élevé de protection des droits fondamentaux, de la santé publique, de la sécurité et de l’environnement.

Ainsi, l’AI Act n’a pas vocation à traiter les questions relatives au droit d’auteur. Et pourtant, il n’ignore pas totalement leur importance en présence d’un système d’IA. A ce propos, le règlement renvoie à une exception – au principe d’obtention d’une autorisation de l’auteur pour toute utilisation de son œuvre – issue du droit de l’Union européenne (UE), celle de la fouille de textes et de données (text and data mining ou TDM). Cette exception – non spécifique aux systèmes d’IA – permet, semble-t-il, de justifier juridiquement l’utilisation de contenus protégés par le droit d’auteur en dispensant les opérateurs d’IA d’obtenir l’autorisation des auteurs qui ne se sont pas opposés expressément. Elle n’est pas nouvelle. C’est la directive européenne « Droit d’auteur et les droits voisins dans le marché unique numérique » de 2019 (4) qui a voulu rendre obligatoire pour les Etats membres de prévoir une exception aux droits de reproduction d’une œuvre et d’extraction d’une base de données, à des fins d’utilisation de technologies de fouille de textes et de données – technologies qui permettent une analyse informatique automatisée de textes, sons, images ou données sous forme numérique, en grande quantité, en vue d’acquérir de nouvelles connaissances. En y faisant ce renvoi, la proposition de règlement confirme, semble-t-il, que cette exception s’applique aux systèmes d’IA mais n’apporte aucune nouveauté en la matière. La proposition de loi française – dont l’objet même est, contrairement à la proposition européenne, d’encadrer l’IA par le droit d’auteur – envisage d’incorporer dans le code de propriété intellectuelle (CPI), au sein de l’article L.131-3, un alinéa prévoyant que l’intégration d’œuvres protégées par le droit d’auteur dans le système d’IA est soumise « à une autorisation par les auteurs ». Une telle formulation – « L’intégration par un logiciel d’intelligence artificielle d’œuvres de l’esprit protégées par le droit d’auteur dans son système et a fortiori leur exploitation est soumise aux dispositions générales du présent code et donc à autorisation des auteurs ou ayants droit » (5) – pourrait recevoir diverses interprétations.

Question de l’« autorisation des auteurs »
L’intégration des œuvres dans un système d’IA est un nouveau mode d’exploitation que la proposition semble avoir voulu prendre en compte. Doit-on comprendre que l’intégration dans une IA est une forme de reproduction de l’œuvre à laquelle s’applique, comme pour toutes formes de reproduction, l’exception de fouilles de textes et de données ? Dans ce cas, le régime actuel est inchangé : donc, les développeurs d’IA peuvent encore intégrer des œuvres à la phase d’entraînement, sauf opposition des auteurs. Doit-on plutôt comprendre que cette formulation veut rompre avec le régime actuel en consacrant expressément une exigence d’obtention d’autorisation de auteurs en écartant l’exception de fouilles de textes et de données ? Dans ce cas, le nombre d’œuvres pouvant être intégrées dans les systèmes d’IA serait réduit à celles dont une autorisation a été donnée, et non celles ne faisant pas l’objet d’opposition. La première interprétation semble la plus appropriée, notamment eu égard à la formulation de l’alinéa précisant que « [l’intégration] est soumise aux dispositions générales du présent code et donc à autorisation des auteurs », et à sa place dans le CPI (6).

Pays de « common law » et pays de « civil law »
Nouvelle exigence de transparence lorsque des œuvres sont utilisées par l’IA. La proposition AI Act, bien qu’elle n’ait pas vocation à traiter de la question du droit d’auteur, exige des fournisseurs de systèmes d’IA une certaine transparence lorsque des contenus protégés par un droit d’auteur ont été utilisés au stade du développement dudit système. En effet, le texte contraint les fournisseurs de modèles d’IA à finalité générale (« general purpose IA models ») à mettre en place une politique pour respecter le droit d’auteur de l’UE, et à rendre public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à finalité générale (7). La mise en place de la politique aurait pour objectif d’identifier et respecter les réservations de droits – ou oppositions – au titre de l’exception de fouilles de textes et de données.
La publication du résumé suffisamment détaillé devrait se faire à partir d’un modèle publié par l’Office de l’intelligence artificiel (OIA, ou AI Office), organe instauré par la proposition de législation. Il aurait pour objet – sans être techniquement détaillé – « par exemple d’énumérer les principales collections ou ensembles de données qui ont servi à la formation du modèle, tels que les grandes bases de données privées ou publiques ou les archives de données, et en fournissant une explication narrative sur les autres sources de données utilisées » (8). De telles exigences en termes de transparence témoignent de la prise en compte des exigences posées par le droit d’auteur. D’autant que le règlement IA prévoit que les obligations de transparences ne s’appliquent pas aux fournisseurs de systèmes d’IA rendant accessibles au public, sous licence libre ou ouverte, les modèles d’IA (9) sauf celles liées au droit d’auteur. Sortir les exigences de transparence liées au droit d’auteur de l’exception générale témoigne encore de leur importance.
Vers une remise en cause de la non-« protégeabilité » des créations issues d’un système d’IA ? Alors que les pays de « common law » comme le Royaume Uni et les Etats-Unis admettent la « protégeabilité » des œuvres générées par des machines (10) – notamment parce que l’œuvre est placée au centre et les auteurs obtiennent une protection indirecte à travers la protection directe de la propriété créée –, les pays de « civil law » ont tendance à refuser qu’une œuvre au sens juridique du terme puisse être créée par une machine dès lors que la protection est attachée directement à la personne de l’auteur. Traditionnellement, l’originalité s’entend en droit français et européen de l’empreinte de la personnalité de l’auteur en manifestant ses choix libres et créatifs (11). Une telle conception exclut a priori toute originalité d’une œuvre conçue par une IA du fait du défaut de personnalité de l’IA. Si, le règlement IA ne traite pas de la question de la « protégeabilité » des « créations » générées par l’IA, la proposition de loi française, a contrario, tente de plonger au cœur du sujet. Elle envisage d’intégrer au sein de l’article L.321-2 du CPI le cas précis d’une « œuvre créée par une intelligence artificielle sans intervention humaine directe » (12). Par cette disposition, le droit français semble admettre qu’une œuvre puisse être créée par une machine, et non un être humain. Dans ce cas, la proposition de loi désigne comme titulaires des droits, non pas les personnes ayant développé le système ou ayant commandé la création à la machine, mais les auteurs des œuvres intégrées au système d’IA lors de la phase d’entraînement.
L’œuvre serait-elle alors empreinte de la personnalité des auteurs des œuvres premières ayant servi à entraîner le système d’IA ? Ces auteurs seraient à la fois titulaires de droits sur leur œuvre première – sans difficulté – et de droits sur les œuvres générées par l’IA lorsque leur œuvre première aurait été exploitée au stade de développement de l’IA. La problématique qui se pose d’emblée en pratique est celle de la multitude de titulaires d’une œuvre générée par un système d’IA. La proposition de loi envisage alors que les droits soient gérés par des organismes de gestion collective (comme la Scam ou la Sacem) qui percevront la rémunération ou une taxation versée par la société qui exploite le système d’IA lorsque l’œuvre est engendrée par l’intégration d’œuvres dont l’origine ne peut être déterminée. La proposition de loi exige aussi que soit apposée la mention « Œuvre générée par IA » et inséré le nom des auteurs des œuvres premières.

Protection des œuvres générées par l’IA
En revanche, la protection accordée aux œuvres générées par l’IA ne semble pas aussi complète que celle accordée aux œuvres « classiques » : la proposition de loi française ne traite pas plus du droit moral ni des autres droits patrimoniaux que de celui de la rémunération juste et équitable des auteurs. Peut-être que cela s’explique par l’ambition de la proposition de loi « Encadrer l’intelligence artificielle par le droit d’auteur » de garantir une rémunération juste et équitable de l’exploitation des œuvres et de garantir une traçabilité des auteurs et artistes. Il reste à voir comment seront appréhendées en pratique de telles évolutions juridiques. @

* Article écrit avec la collaboration
de Camille Rodriguez, DJS Avocats

Les majors Universal Music, Sony Music et Warner Music négocient avec les éditeurs d’IA musicales

Google et sa filiale YouTube négocient avec Universal Music l’autorisation d’utiliser pour son IA musical, MusicML, les données de la première « maison de disques ». Les autres majors, Warner Music et Sony Music, devront aussi trouver des accords. C’est plus une opportunité qu’une menace.

Le 21 août, YouTube a annoncé un accord avec Universal Music autour de l’IA musicale. Le Financial Times avait par ailleurs révélé le 9 août que sa maison mère Google et la première major mondiale de la musique enregistrée étaient en pourparlers pour autoriser que les mélodies et les voix des artistes soient exploitées par l’intelligence artificielle MusicLM (développée par Google) afin que celle-ci puisse créer de nouvelles chansons. Si ces négociations devaient aboutir, un accord de ce type serait une première pour l’industrie musicale qui, jusqu’à maintenant, voient plus ces IA génératives de musiques comme une menace pour elle.

Accords avec Google et YouTube
Quel est l’impact de l’IA générative sur l’industrie musicale ? « Imaginez que quelqu’un vole tout ce qui a de la valeur à une entreprise et l’utilise pour lancer une entreprise pour lui faire concurrence. C’est exactement ce qui se passe avec beaucoup de grands modèles d’IA d’apprentissage automatique qui existent aujourd’hui. Il s’agit d’une concurrence déloyale classique. (…) Il y a un besoin urgent de “code de la route” approprié pour l’IA générative et nous vous encourageons à agir de manière décisive et sans délai », a déclaré le 12 juillet dernier Jeffrey Harleston (photo), directeur juridique et vice-président exécutif pour les affaires commerciales et juridiques d’Universal Music. Il était auditionné au Sénat américain par le sous-comité de la commission judiciaire du Sénat, sur le thème de « l’intelligence artificielle et la propriété intellectuelle » (1).

Que vous disent les artistes au sujet de leurs voix et de la musique utilisées sans leur consentement par des IA musicales ? « Les artistes sont naturellement bouleversés que leur nom, image, ressemblance ou voix soient volés et utilisés pour suggérer qu’ils ont dit, chanté, ou fait quelque chose qu’ils n’ont jamais fait, a-t-il répondu aux sénateurs qui l’auditionnaient. C’est une violation horrible de la vie privée, et comme cela pourrait nuire à la réputation de l’artiste, cela pourrait irrémédiablement nuire à leur carrière. La voix et la personnalité d’un artiste sont leur gagne-pain et les voler – peu importe le moyen – est mal ». Il a appelé les Etats-Unis à procéder à des modifications législatives pour assurer un développement éthique de l’IA, notamment musicale. Le directeur juridique d’Universal Music avance trois points pour une future « loi pérenne sur le droit d’auteur afin de s’assurer qu’elle résiste à une IA en constante évolution technologie » : édicter une loi fédérale sur le droit de publicité [ou droit à l’image, ndlr] pour assurer la protection de la propriété intellectuelle d’un nom, d’une image, d’une ressemblance ou d’une voix ; assurer la transparence des éléments d’apprentissage de l’IA et permettre au titulaire du droit de pouvoir consulter les enregistrements détaillés des entrées d’apprentissage, sans avoir à s’engager dans un litige ; exiger l’étiquetage des oeuvres essentiellement générées par l’IA. Mais sans attendre que le Congrès américain s’empare du sujet, Universal Music cherche à trouver un terrain d’entente avec les éditeurs d’IA générative, tout du moins avec Google qui l’a approché.
La filiale d’Alphabet est aussi entrée en contact avec Warner Music. Il ne resterait plus qu’à discuter avec Sony Music pour faire le tour des trois grandes majors de la musique enregistrée. Rappelons qu’en septembre 2016, le laboratoire Sony CSL (2) avec fait sensation sur YouTube en diffusant une « nouvelle musique » des Beatles baptisée « Daddy’s Car » (3) et créée par l’IA Flow Machines du japonais (4), les Beatles faisant partie du répertoire… d’Universal Music. La n°1 des majors – au siège social situé aux Pays-Bas mais ayant son siège opérationnel basé à Santa Monica en Californie – adhère en outre aux sept principes édictés par le groupe Human Artistry Campaign (5) lancé en début d’année. Il s’agit de défendre les droits des créateurs dans le développement des technologies d’IA.
Pour l’heure, Alphabet avance à grand pas dans la musique générée par l’intelligence artificielle : tant du côté de Google qui a présenté le 26 janvier sa propre IA musicale baptisée MusicLM (6) que du côté de YouTube qui a lancé le 21 août un incubateur d’IA musicale avec des artistes, des auteurscompositeurs et des producteurs d’Universal Music (7).

MusicLM (Google), une IA hi-fi
Google présente MusicLM comme « un modèle générant une musique haute-fidélité à partir de descriptions textuelles ou d’une mélodie fredonnées ». Cette IA génère de la musique à 24 kHz qui reste cohérente sur plusieurs minutes. Et la filiale d’Alphabet d’affirmer : « Nos expériences montrent que MusicLM surpasse les systèmes précédents en termes de qualité audio et d’adhésion à la description du texte » (8). Mais cette IA musicale prometteuse n’a pas encore été rendue accessible au grand public, le géant du Net ayant la prudence de demander l’autorisation des plus grandes maisons de disques pour ne pas être accusé de contrefaçon et de spoliation des artistes. Seuls de nombreux exemples de bandes sonores générées par MusicML ont été mis en ligne.

Meta se met en trois avec Audiocraft
Google n’est pas le seul à s’aventurer sur le terrain du « text-to-music » puisque Meta a mis en logiciel libre (open source) son modèle de langage capable de générer des extraits musicaux, MusicGen. Meta (ex-groupe Facebook), qui avait présenté mi-juin dernier MusicGen comme étant légèrement supérieures à MusicLM en termes de performances, a présenté le 3 août sa panoplie IA appelée Audiocraft, composée non seulement de MusicGen, mais aussi d’AudioGen et d’EnCodec. « MusicGen, qui a été formé avec de la musique appartenant à Meta et spécifiquement sous licence, génère de la musique à partir d’entrées utilisateur textuelles, tandis qu’AudioGen, qui a été formé aux effets sonores publics, génère de l’audio à partir d’entrées utilisateur textuelles. Aujourd’hui, nous sommes ravis de publier une version améliorée de notre décodeur EnCodec, qui permet une génération de musique de meilleure qualité avec moins d’artefacts », explique Meta dans sa présentation. Les trois modèles de la suite Audiocraft sont disponibles à des fins de recherche, destinés aux chercheurs et aux praticiens. Cette ouverture devrait accélérer le développement de l’IA générative pour l’audio, lequel a pris du retard par rapport aux IA générative pour les images, la vidéo et le texte (ChatGPT, Midjourney, Bard, Dall·E 2, LLaMA, Stability AI, …). « Générer de l’audio hautefidélité de toute sorte nécessite la modélisation de signaux et de motifs complexes à différentes échelles. La musique est sans doute le type d’audio le plus difficile à générer car elle est composée de modèles locaux et de longue portée, d’une suite de notes à une structure musicale globale avec plusieurs instruments », fait remarquer la firme de Mark Zuckerberg (9).
Mais le tout-en-un proposé en open source par AudioCraft, pour la musique, le son, la compression et la génération, vise à faciliter l’innovation et la créativité musicales (composition, chanson, bande sonore, …), sans avoir à jouer une seule note sur un instrument. Meta estime même que « MusicGen peut se transformer en un nouveau type d’instrument – tout comme les synthétiseurs lors de leur apparition » (10). MusicGen a été formé sur environ 400.000 enregistrements avec descriptions textuelles et métadonnées, ce qui représente 20.000 heures de musique appartenant à Meta ou sous accords de licence. Pour l’heure, Meta ne fait état d’aucune négociation avec l’industrie musicale et encore moins avec les majors avec lesquels Google a, au contraire, pris langue. « Si vous voyez un exemple de musique UMG [Universal Music Group, ndlr] distribuée illégalement, n’hésitez pas à nous contacter à contentprotection@umusic.com », signale sur son site web (11) la première major dirigée par Lucian Grainge (photo ci-contre). C’est ce qu’on dû peut-être faire les deux artistes Drake et The Weeknd, produits par Universal Music, lorsqu’ils ont constaté en avril dernier qu’un « artiste » surnommé « Ghostwriter » (compositeur fantôme) a mis en ligne une musique avec voix s’inspirant de leur style musical. Les fichiers audio et vidéo de ce morceau de 2 minutes et 14 secondes ont été diffusés avec succès sur plusieurs plateformes de streaming musical (Spotify, YouTube/YouTube Music, Apple Music, TikTok, …), avant d’en être retirés après quelques jours. Un spécialiste américain estime que le morceau pourrait avoir été créé et promu à des fins de marketing viral par une start-up californienne Laylo (12), laquelle travaille avec des artistes musicaux et compte parmi ses investisseurs… Sony Music. Bien d’autres artistes musicaux ont été imités par des IA génératives à tendance mélomane. La chanteuse barbadienne Rihanna (signée elle aussi chez UMG) s’est par exemple étonnée au printemps de s’entendre chanter « Cuff It » de Beyoncé, via une « IA Rihanna » (13).
Le rappeur Ye (ex-Kanye West, ayant son propre label Good Music) n’a pas non plus été épargné par la déferlante IA musicale, avec les musiques « Hey There Delilah » de Plain White T’s et « Passionfruit » de Drake. Angèle, elle, s’est vue en août chanter en duo avec Gazo (14) sans son consentement. Les IA musicales Flow Machines, MusicGen, AudioGen, MusicLM, Riffusion ou encore Mubert n’ont pas fini de surprendre. Jeffrey Harleston compte sur les Etats-Unis pour résorber leur retard dans la réglementation de l’IA générative.

Les Etats-Unis derrière la Chine et l’UE
A la suite des auditions de cet été, le Congrès américain devrait légiférer sur l’IA d’ici la fin de l’année. A l’instar de la Chine (15), l’Union européenne (UE) a pris de l’avance dans l’élaboration de son « AI Act » qui est entré mi-juin en phase de discussion législative entre le Parlement européen et le Conseil de l’UE. « Les systèmes d’IA générative comme ChatGPT doivent mentionner que le contenu a été généré par une IA. (…) Des résumés détaillés des données protégées par le droit d’auteur utilisées pour la formation des IA devront également être rendus publics », prévoit le projet de règlement européen sur l’IA (16). Les IA génératives vont devoir s’accorder. @

Charles de Laubier