Pour la protection de leurs œuvres, les auteurs ont un droit d’opt-out, mais est-il efficace ?

Les IA génératives sont voraces et insatiables : elles ingurgitent de grandes quantités de données pour s’améliorer sans cesse. Problème : les ChatGPT, Midjourney et autres Bard utilisent des œuvres protégées sans avoir toujours l’autorisation. Pour les auteurs, l’opt-out est une solution insuffisante.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

L’utilisation de l’intelligence artificielle (IA) dans les domaines artistiques tend à révolutionner la manière dont nous analysons, créons et utilisons les œuvres cinématographiques, littéraires ou encore musicales. Si, dans un premier temps, on a pu y voir un moyen presque anecdotique de créer une œuvre à partir des souhaits d’un utilisateur ayant accès à une IA, elle inquiète désormais les artistes.

Des œuvres utilisées comme inputs
Les algorithmes et les AI peuvent être des outils très efficaces, à condition qu’ils soient bien conçus et entraînés. Ils sont par conséquent très fortement dépendants des données qui leur sont fournies. On appelle ces données d’entraînement des « inputs », utilisées par les IA génératives pour créer des « outputs ». Malgré ses promesses, l’IA représente cependant un danger pour les ayants droit, dont les œuvres sont intégrées comme données d’entraînement. A titre d’exemple, la version 3.5 de ChatGPT a été alimentée avec environ 45 téraoctets de données textuelles. On peut alors se poser la question de la protection des œuvres utilisées comme inputs : l’ayant droit peut-il s’opposer ? La législation a prévu un droit d’« opt-out », que peuvent exercer les auteurs pour s’opposer à l’utilisation de leurs œuvres par une IA. A travers le monde, l’IA est encore peu règlementée.
Aux Etats Unis, il n’existe pas encore de lois dédiées portant spécifiquement sur l’IA, mais de plus en plus de décisions font office de « guidelines ». Au sein de l’Union européenne (UE), l’utilisation croissante de l’IA, à des fins de plus en plus variées et stratégiques, a conduit à faire de son encadrement une priorité. En effet, dans le cadre de sa stratégie numérique, l’UE a mis en chantier l’ « AI Act », un projet de règlement (1) visant à encadrer « l’usage et la commercialisation des intelligences artificielles au sein de l’UE » qui a été voté le 14 juin 2023 par le Parlement européen (2). Son adoption est prévue pour fin 2023 ou début 2024, avec une mise application 18 à 24 mois après son entrée en vigueur. A travers ce texte, le principal objectif du Parlement européen est d’établir un cadre juridique uniforme permettant l’innovation via l’IA, et de garantir que les systèmes d’intelligence artificielle utilisés dans l’UE soient sécurisés, transparents, traçables, non discriminatoires et respectueux de l’environnement. Au niveau national, l’encadrement de l’IA fait également couler beaucoup d’encre comme en témoigne, en France, la proposition de loi visant à encadrer l’intelligence artificielle par le droit d’auteur (3), déposée mi-septembre 2023. Trouver un équilibre entre deux objectifs – à savoir la protection des œuvres par le droit d’auteur et la libre utilisation des données nécessaire au bon fonctionnement des IA – constitue le but que cherche à atteindre l’UE, notamment à travers sa directive « Droit d’auteur dans le marché unique numérique » (4) de 2019, où elle établit un cadre qui permet aux IA de se développer – droit de fouilles de données – tout en offrant un contrôle aux auteurs sur leurs données – droit d’opt-out. Mais ce dernier droit suffit il à assurer la protection des œuvres ?
L’article 4 de cette directive dédiée au droit d’auteur permet les reproductions et les extractions d’objets protégés accessibles de manière licite, aux fins de la fouille de textes et de données, ou TDM (5). Elle permet la fouille de textes et de données tout en recherchant « un équilibre entre deux éléments : protéger les droits, et faciliter l’exploration de textes et de données ». En effet, la directive prévoit en son article 3 les fouilles de données dans un but scientifique tandis que l’article 4 prévoit la fouille effectuée par toute autre personne, peu importe la finalité. A la différence de l’article 3, l’article 4 prévoit une exception permettant aux auteurs de s’opposer à la fouille de données prévue dans ce même article : le droit d’opt-out (6). Précisons que les données utilisées peuvent être « conservées aussi longtemps que nécessaire aux fins de la fouille de textes et de données » (7).

Plaintes contre les IA « non autorisées »
On connaît le cas de Radio France qui a interdit l’accès d’OpenAI – la société californienne à l’origine de ChatGPT – à ses contenus, suivi par d’autres médias tels que France Médias Monde ou TF1. L’écrivain américain de science-fiction et de fantasy George R.R Martin, ainsi que d’autres auteurs tels que John Grisham, ont également porté plainte contre OpenAI pour avoir utilisé leurs œuvres pour se développer. Plus récemment, entre autres cas, la Sacem a utilisé ce droit afin de conditionner l’utilisation des données de ses membres par une IA à une « autorisation préalable et à une négociation financière » (8). Quant à la transposition de la directive « Droit d’auteur » de 2019 en droit français par une ordonnance de 2021 (9), elle rend l’exercice du droit d’opt-out plus restrictif. En effet, l’article L. 122-5-3 du code de la propriété intellectuelle (CPI) réserve ce droit aux auteurs alors que la directive ouvre ce droit aux ayants droits.

L’opt-out est-il efficace pour protéger ?
La propriété littéraire et artistique peut-elle protéger contre l’utilisation des données par les IA ? Il y a tout d’abord les difficultés de mise en œuvre du droit d’opt-out. La directive « Droit d’auteur » de 2019 a été votée à une époque où le législateur ne mesurait pas encore pleinement l’importance qu’allait prendre l’IA, et le système d’opt-out semble désormais insuffisant pour protéger les auteurs car il est difficile à appliquer. Tout d’abord, il existe une insuffisance d’information relative aux moyens d’exercer ce droit. Ensuite, Internet permet une multiplication des occurrences d’un même contenu en ligne, donc exercer son droit d’opt-out, alors que l’œuvre a déjà été diffusée et relayée par des internautes, semble inefficace. De surcroît, il a été mis en place en 2019, après qu’un nombre gigantesque d’œuvres aient déjà été rendues accessibles sur de nombreuses bases de données. Se pose donc la question du sort des œuvres qui ont déjà été utilisées précédemment par autrui ou par une IA pour générer un autre élément. Le droit d’opt-out n’a-t-il d’effet que sur les utilisations futures ?
Devant la difficulté d’exercer ce droit, certains acteurs tentent de mettre en place des solutions pour pallier ce problème, notamment en assurant une meilleure transparence quant au fonctionnement de l’IA. Google, par exemple, a mis en avant « Google-Extended » pour permettre aux auteurs d’avoir un meilleur contrôle sur leur contenu et sur la manière dont il pourrait être utilisé par des IA génératives (10). Il faut aussi sécuriser les droits d’auteur dans l’ère de l’intelligence artificielle : discernement, transparence, contreparties, protections de l’humain, … Les artistes et ayants droit réclament un droit d’accès leur permettant de savoir quelles œuvres et quelles données sont utilisées dans la fouille de données. Et ce, quand bien même ils auraient consenti à l’utilisation de certaines de leurs œuvres – leur autorisation ne couvrant pas nécessairement toutes leurs œuvres ni tous les systèmes d’IA. Dans le cas où ils se seraient opposés, ce dispositif d’information leur permettrait aussi de s’assurer qu’une autorisation n’a pas été accordée indûment par des tiers. La plupart des ayants droit estiment que, dans la mesure où le fonctionnement des algorithmes d’IA implique une reproduction d’objets protégés, « l’humain doit rester prioritaire et la titularité des droits doit revenir en priorité aux humains » (11). C’est d’ailleurs dans cette logique que s’est inscrite la table ronde de la Federal Trade Commission (FTC) sur l’« économie créative et les IA génératives » (12), organisée le 4 octobre 2023 pour que le législateur américain et les différentes autorités compétentes prennent en considération, dans leur mission de régulation, le point de vue des artistes, auteurs, compositeurs, réalisateurs et de toute personne dont les œuvres pourraient être utilisées par une IA générative.
Des syndicats américains tels que SAG-AFTRA ou WGA, rassemblant des centaines de milliers d’acteurs et de professionnels des médias, étaient présents lors de cette table ronde pour défendre une utilisation de l’IA saine, qui soit bénéfique à l’ensemble de leurs membres, aux travailleurs d’autres industries et au public en général. Pour s’assurer que l’ensemble des individus de cette industrie soient justement payés pour leur travail, plusieurs syndicats n’ont pas hésité à faire une grève générale de plusieurs mois à Hollywood (13) pour s’assurer du bon équilibre entre l’utilisation des IA génératives et les intérêts des individus car « les humains ont beau essayer de créer des IA de plus en plus intelligentes, elles ne remplaceront jamais la créativité humaine ». La grève – historique – a d’ailleurs porter ses fruits dans la mesure où elle a abouti sur un accord qui « permettra de construire des carrières de façon durable ». Outre des compensations financières obtenues des studios, le SAG-AFTRA affirme qu’ils ont négocié des « provisions sans précédent pour s’assurer du consentement et de la compensation [des acteurs], afin de protéger [ses] membres de la menace de l’IA » (15). @

* Anne-Marie Pecoraro est avocate spécialisée
en droit de la propriété intellectuelle,
des médias et des technologies numériques.

ZOOM

L’IA générative : quésaco ?
ChatGPT, Dall-E, Midjourney, Bard, Claude, … On connaît des exemples d’intelligence artificielle générative qui produisent de nouvelles données à partir de celles créées par des êtres humains, que ce soit sous forme de texte, d’images ou encore de musique. L’IA générative se concentre sur la création de données, de contenu ou de productions artistiques, de façon indépendante, tandis que l’IA classique se concentre, elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA, qu’elle soit générative ou classique, repose sur l’apprentissage automatique (machine learning) et donc sur des algorithmes conçus de sorte que leur comportement évolue dans le temps en fonction des données qui leur sont fournies. L’IA générative utilise la puissance d’un modèle de langage naturel (GPT-3 et GPT-4 pour ChatGPT, par exemple). On parle d’« invite » pour une simple instruction donnée à l’IA générative en langage naturel (texte ou voix), sinon d’« ingénierie rapide » (prompt engineering, en anglais) lorsque les demandes sont plus élaborées. @

IA générative : le prompt engineering va révolutionner la presse en éditant des journaux sur mesure

L’ingénierie rapide – prompt engineering – s’apprête à révolutionner le monde des médias en général et de la presse en particulier. Ce processus puissant utilisé par les IA génératives va permettre à un lecteur de créer son journal sur mesure, en fonction de ses préférences et centres d’intérêt.

Attention : tsunami en vue pour la presse. Les IA génératives s’apprêtent à prendre des airs de rédacteur-en-chef et de chef d’édition. Grâce à la puissance du prompt engineering, les «ChatGPT» vont permettre potentiellement à chaque lecteur de pouvoir générer sur mesure son propre journal d’actualités en fonction de ses critères et ses thèmes préférés. De quoi court-circuiter les médias traditionnels encore attachés à l’« œuvre collective » qu’est un journal écrit par des journalistes.

Un journal personnalisé en 10 mn chrono
Lors d’un meetup organisé fin septembre par Comptoir IA, deux jeunes frères (1) ont fait frémir des dirigeants de médias traditionnels et des éditeurs de presse qui ont assisté à leurs dix minutes de démonstration. Thibaut et Pierre de La Grand’rive (photos) ont créé cet été leur société, Delos Intelligence, présentée comme une « agence de service et de conseil informatique spécialisée dans l’IA générative ». Respectivement président et directeur général, Thibaut (24 ans) et Pierre (26 ans) ont présenté leur projet qui pourrait disrupter le monde des journaux et du journalisme.
« Après le lancement de ChatGPT, nous nous sommes lancés dans le projet “Autonews”, qui s’appelait à l’origine “Newstaylor”. Il s’agit d’un journal complètement automatique. Il a fallu pour cela s’approprier l’ingénierie du prompt ou prompt engineering. Et avec cette idée que, demain, le média serait probablement individuel, individualisé. Ou en tout cas que l’on tendrait vers ça. Et demain peut-être auronsnous chacun nos propres articles en fonction de nos demandes ou de nos préférences », a expliqué Pierre de La Grand’rive. Prompt engineering, quèsaco ?C’est la méthode ou processus puissants qu’utilisent les ChatGPT, Midjourney et autres Bard pour optimiser leurs résultats produits par leurs IA génératives. Appliqué à la presse et à l’actualité, cela donne un journal sur mesure réalisé automatiquement en un temps record. « On a, avec l’IA générative, une explosion de créativité dans le cadre de ce qui est possible pour la machine. On veut aussi bouleverser par ce projet les cadres rigides des médias. On propose des articles et des formes d’articles novatrices et ambitieuses », a poursuivi celui qui est aussi directeur technique, et ingénieur IA générative. Son frère cadet, Thibaut de La Grand’rive, se présente, lui, comme directeur commercial. « Autonews va chercher 600 articles lus (sélectionnés) et en fonction des profils indiqués ; il rédige 50 articles complètement, différents à partir des mêmes actualités. Et ce, réalisé en l’espace de 10 mn, ce qui met au défi pas mal de rédactions de journaux traditionnels », a indiqué ce dernier. Pour personnaliser son journal, il suffit d’indiquer son profil et ses centres d’intérêt (politique, économie, international, culture, sport ou autres thèmes), son âge et son temps de lecture disponible (10 mn de métro ou 50 mn de voiture jusqu’à son travail).
« Vous pouvez avoir la taille d’article en fonction de ce que vous indiquez à la machine, a souligné Thibaut de La Grand’rive, avec des tons d’écriture : brief d’actualités pertinentes, ton enfantin du type “Le Petit Quotidien”, ton traditionnel du journal d’avant, ou encore ton conversation entre deux experts dans leur domaine. En résonnance, Autonews adaptera l’intégralité du contenu de votre journal en fonction de votre profil. C’est dans cette démarche que nous voulions faire le journal sur mesure ». Son frère aîné, lui, a précisé qu’un seul prompt ne suffisait pas pour traiter toute l’actualité. Il y a donc fallu créer toute une chaîne de prompts, le fameux prompt engineering. « L’IA générative va amener la machine à raisonner et inclure véritablement ce raisonnement à l’intérieur d’un code pour jouer le rôle de rédac’ chef pour sélectionner les actualités parmi les trop nombreuses par jour. Nous avons été surpris par la qualité de rédaction de ces articles », a confié Pierre de La Grand’rive.

Jacques Rosselin et David Guiraud inquiets
Présent à ce meetup, Jacques Rosselin, le fondateur de Courrier International (exploitant 800 médias sources et ayant nécessité jusqu’à 40 journalistes) leur a demandé si l’on pourrait « faire Courrier International avec une personne maintenant ? ».Réponse de Pierre, l’ingénieur IA générative : « Honnêtement, avec une personne, peut-être pas, mais tenir un journal avec quatre personnes avec un bon responsable marketing et un bon ingénieur qui font bien fonctionner leurs méninges, oui, vous pouvez vous positionner ». De son côté, devant l’Association des journalistes médias (AJM) le 5 octobre, David Guiraud – ancien dirigeant du Monde et des Echos, et actuel président de Ouest-France (2) – a indiqué avoir assisté à ce meetup : « On se retrouve déjà avec un flot de contenus et face à une concurrence énorme. Le risque est que l’on soit pris dans cette sorte de tsunami qui nous empêche de faire notre travail ». @

Charles de Laubier

Comment Claude de la start-up Anthropic veut devenir le grand rival de ChatGPT d’OpenAI

Alors que ChatGPT a été lancé par la start-up OpenAI il y a moins d’un an, c’est la course à l’échalotte dans les intelligences artificielles génératives. Parmi les compétiteurs, il y a Claude de la jeune pousse Anthropic fondée par d’anciens… d’OpenAI. Google et surtout Amazon la financent.

Question : Claude est-il le meilleur rival de ChatGPT ? Réponse : « Claude, développé par Anthropic, est en effet considéré comme un concurrent puissant du ChatGPT d’OpenAI ». Notre interlocuteur n’est autre que ChatGPT lui-même ! « Cependant, poursuit l’IA générative, il est important de noter que le “meilleur” modèle peut varier selon les cas d’utilisation et les exigences. Par exemple, si le support multilingue est une priorité, ChatGPT pourrait être un meilleur choix. En revanche, si le traitement de grandes quantités de données est crucial, Claude pourrait être plus approprié ».

Contre Microsoft, pour Amazon et Google
Alors que ChatGPT d’OpenAI a été lancé le 30 novembre 2022 (1) avec le succès médiatique planétaire que l’on connaît, Claude d’Anthropic n’a été dévoilé que le 14 mars 2023 (2) dans une relative indifférence générale. Mais depuis qu’Amazon a annoncé le 25 septembre injecter 4 milliards de dollars dans Anthropic (3), Claude défraie la chronique. Basée à San Francisco (Californie) comme OpenAI, la startup Anthropic a été cofondée par Dario Amodei (photo de gauche), qui en est le DG, tandis que Daniela Amodei (photo de droite), sa sœur, en est la présidente.
Tous les deux ont quitté en décembre 2020 OpenAI, où ils ont été respectivement directeur de la recherche et responsable des techniques de sécurité, suivis par sept autres de leurs collègues d’OpenAI, dont Jack Clark (ex-chargé de relations publiques) et Jared Kaplan (ex-consultant chercheur) qui sont aussi cofondateurs d’Anthropic. Ce départ groupé de la start-up de ChatGPT aurait été motivé par des désaccords sur la vision stratégique d’OpenAI et de son partenariat avec Microsoft en 2019. La firme de Redmond investissait alors dans la start-up de Sam Altman un montant initial de 1 milliard de dollars, complété en 2021. Mais les frère et sœur Amodei n’ont jamais ni démenti ni expliqué les raisons de leur départ. Mais cette façon qu’a eu OpenAI à se précipiter dans les bras d’un GAFAM a sans aucun doute joué dans leur décision d’aller cofonder Anthropic. Microsoft a par la suite augmenté son emprise sur ChatGPT en annonçant en janvier 2023 un plan d’investissement pluriannuel (4) dans OpenAI qui atteindrait, selon Bloomberg, 10 milliards de dollars (5). Face à un ChatGPT dépendant du géant Microsoft, lequel en a fait son IA générative dans moteur de recherche Bing pour aller contester la suprématie de Google Search, Anthropic se veut plus indépendant et responsable. Mais cela n’empêche pas la start-up des Amodei de décrocher 4 milliards de dollars auprès d’Amazon, dont il utilisera le cloud AWS, après avoir dans les dix-huit mois précédents levé 1,5 milliard de dollars auprès de différents investisseurs, dont… Google pour 300 millions de dollars (10 % du capital d’Anthropic). Et ce, selon le Financial Times (6), aux côtés de Sam Bankman-Fried (7) ou encore de SK Telecom (8). Google remis la main à la poche en mai 2023 lors d’un tour de table organisé par Spark Capital pour lever 450 millions de dollars (9). Mais contrairement à Microsoft pour OpenAI, Google reste pour Anthropic un actionnaire minoritaire et un prestataire technique. En effet, le 3 février, les deux entreprises ont annoncé « un nouveau partenariat » (10) afin que Google Cloud soit privilégié et que Claude puisse évoluer grâce au machine learning sur infrastructure puissante. Avec Claude 2 lancé en juillet (11), Anthropic se veut plus contrôlable, compréhensible, prévisible, orientable, interprétable, digne de confiance et… plus humain grâce au RLHF.
Le « Reinforcement Learning from Human Feedback » est une méthode d’apprentissage par renforcement qui utilise le feedback des humains sous formes de commentaires ou d’évaluations. Anthropic vient d’ailleurs de publier, le 19 septembre, son RSP (Responsible Scaling Policy), « une série de protocoles techniques et organisationnels pour gérer de façon de plus en plus performante les risques liés au développement de systèmes d’IA ». Car selon les fondateurs d’Anthropic, « les modèles d’IA créeront une valeur économique et sociale majeure, mais ils présenteront également des risques de plus en plus graves » (12).

Parmi 7 acteurs d’IA à la Maison-Blanche
Ce RSP d’Anthropic intervient deux mois après des engagements pris directement à la Maison-Blanche où Dario Amodei avait été convoqué, le 21 juillet, par le président étatsunien Joe Biden avec six autres entreprises : Amazon, Google, Meta, Microsoft, Inflection et OpenAI. Les sept acteurs de l’IA ont promis « un développement sûr, sécurisé et transparent de la technologie de l’IA » (13). Une précédente réunion à la Maison-Blanche s’était tenue le 4 mai (14). L’administration Biden-Harris en a profité pour faire le point sur les mesures prises – notamment via le Blueprint for an AI Bill of Rights (15) – afin de protéger les droits et la sécurité des Américains. @

Charles de Laubier

Les majors Universal Music, Sony Music et Warner Music négocient avec les éditeurs d’IA musicales

Google et sa filiale YouTube négocient avec Universal Music l’autorisation d’utiliser pour son IA musical, MusicML, les données de la première « maison de disques ». Les autres majors, Warner Music et Sony Music, devront aussi trouver des accords. C’est plus une opportunité qu’une menace.

Le 21 août, YouTube a annoncé un accord avec Universal Music autour de l’IA musicale. Le Financial Times avait par ailleurs révélé le 9 août que sa maison mère Google et la première major mondiale de la musique enregistrée étaient en pourparlers pour autoriser que les mélodies et les voix des artistes soient exploitées par l’intelligence artificielle MusicLM (développée par Google) afin que celle-ci puisse créer de nouvelles chansons. Si ces négociations devaient aboutir, un accord de ce type serait une première pour l’industrie musicale qui, jusqu’à maintenant, voient plus ces IA génératives de musiques comme une menace pour elle.

Accords avec Google et YouTube
Quel est l’impact de l’IA générative sur l’industrie musicale ? « Imaginez que quelqu’un vole tout ce qui a de la valeur à une entreprise et l’utilise pour lancer une entreprise pour lui faire concurrence. C’est exactement ce qui se passe avec beaucoup de grands modèles d’IA d’apprentissage automatique qui existent aujourd’hui. Il s’agit d’une concurrence déloyale classique. (…) Il y a un besoin urgent de “code de la route” approprié pour l’IA générative et nous vous encourageons à agir de manière décisive et sans délai », a déclaré le 12 juillet dernier Jeffrey Harleston (photo), directeur juridique et vice-président exécutif pour les affaires commerciales et juridiques d’Universal Music. Il était auditionné au Sénat américain par le sous-comité de la commission judiciaire du Sénat, sur le thème de « l’intelligence artificielle et la propriété intellectuelle » (1).
Que vous disent les artistes au sujet de leurs voix et de la musique utilisées sans leur consentement par des IA musicales ? « Les artistes sont naturellement bouleversés que leur nom, image, ressemblance ou voix soient volés et utilisés pour suggérer qu’ils ont dit, chanté, ou fait quelque chose qu’ils n’ont jamais fait, a-t-il répondu aux sénateurs qui l’auditionnaient. C’est une violation horrible de la vie privée, et comme cela pourrait nuire à la réputation de l’artiste, cela pourrait irrémédiablement nuire à leur carrière. La voix et la personnalité d’un artiste sont leur gagne-pain et les voler – peu importe le moyen – est mal ». Il a appelé les Etats-Unis à procéder à des modifications législatives pour assurer un développement éthique de l’IA, notamment musicale. Le directeur juridique d’Universal Music avance trois points pour une future « loi pérenne sur le droit d’auteur afin de s’assurer qu’elle résiste à une IA en constante évolution technologie » : édicter une loi fédérale sur le droit de publicité [ou droit à l’image, ndlr] pour assurer la protection de la propriété intellectuelle d’un nom, d’une image, d’une ressemblance ou d’une voix ; assurer la transparence des éléments d’apprentissage de l’IA et permettre au titulaire du droit de pouvoir consulter les enregistrements détaillés des entrées d’apprentissage, sans avoir à s’engager dans un litige ; exiger l’étiquetage des oeuvres essentiellement générées par l’IA. Mais sans attendre que le Congrès américain s’empare du sujet, Universal Music cherche à trouver un terrain d’entente avec les éditeurs d’IA générative, tout du moins avec Google qui l’a approché.
La filiale d’Alphabet est aussi entrée en contact avec Warner Music. Il ne resterait plus qu’à discuter avec Sony Music pour faire le tour des trois grandes majors de la musique enregistrée. Rappelons qu’en septembre 2016, le laboratoire Sony CSL (2) avec fait sensation sur YouTube en diffusant une « nouvelle musique » des Beatles baptisée « Daddy’s Car » (3) et créée par l’IA Flow Machines du japonais (4), les Beatles faisant partie du répertoire… d’Universal Music. La n°1 des majors – au siège social situé aux Pays-Bas mais ayant son siège opérationnel basé à Santa Monica en Californie – adhère en outre aux sept principes édictés par le groupe Human Artistry Campaign (5) lancé en début d’année. Il s’agit de défendre les droits des créateurs dans le développement des technologies d’IA.
Pour l’heure, Alphabet avance à grand pas dans la musique générée par l’intelligence artificielle : tant du côté de Google qui a présenté le 26 janvier sa propre IA musicale baptisée MusicLM (6) que du côté de YouTube qui a lancé le 21 août un incubateur d’IA musicale avec des artistes, des auteurscompositeurs et des producteurs d’Universal Music (7).

MusicLM (Google), une IA hi-fi
Google présente MusicLM comme « un modèle générant une musique haute-fidélité à partir de descriptions textuelles ou d’une mélodie fredonnées ». Cette IA génère de la musique à 24 kHz qui reste cohérente sur plusieurs minutes. Et la filiale d’Alphabet d’affirmer : « Nos expériences montrent que MusicLM surpasse les systèmes précédents en termes de qualité audio et d’adhésion à la description du texte » (8). Mais cette IA musicale prometteuse n’a pas encore été rendue accessible au grand public, le géant du Net ayant la prudence de demander l’autorisation des plus grandes maisons de disques pour ne pas être accusé de contrefaçon et de spoliation des artistes. Seuls de nombreux exemples de bandes sonores générées par MusicML ont été mis en ligne.

Meta se met en trois avec Audiocraft
Google n’est pas le seul à s’aventurer sur le terrain du « text-to-music » puisque Meta a mis en logiciel libre (open source) son modèle de langage capable de générer des extraits musicaux, MusicGen. Meta (ex-groupe Facebook), qui avait présenté mi-juin dernier MusicGen comme étant légèrement supérieures à MusicLM en termes de performances, a présenté le 3 août sa panoplie IA appelée Audiocraft, composée non seulement de MusicGen, mais aussi d’AudioGen et d’EnCodec. « MusicGen, qui a été formé avec de la musique appartenant à Meta et spécifiquement sous licence, génère de la musique à partir d’entrées utilisateur textuelles, tandis qu’AudioGen, qui a été formé aux effets sonores publics, génère de l’audio à partir d’entrées utilisateur textuelles. Aujourd’hui, nous sommes ravis de publier une version améliorée de notre décodeur EnCodec, qui permet une génération de musique de meilleure qualité avec moins d’artefacts », explique Meta dans sa présentation. Les trois modèles de la suite Audiocraft sont disponibles à des fins de recherche, destinés aux chercheurs et aux praticiens. Cette ouverture devrait accélérer le développement de l’IA générative pour l’audio, lequel a pris du retard par rapport aux IA générative pour les images, la vidéo et le texte (ChatGPT, Midjourney, Bard, Dall·E 2, LLaMA, Stability AI, …). « Générer de l’audio hautefidélité de toute sorte nécessite la modélisation de signaux et de motifs complexes à différentes échelles. La musique est sans doute le type d’audio le plus difficile à générer car elle est composée de modèles locaux et de longue portée, d’une suite de notes à une structure musicale globale avec plusieurs instruments », fait remarquer la firme de Mark Zuckerberg (9).
Mais le tout-en-un proposé en open source par AudioCraft, pour la musique, le son, la compression et la génération, vise à faciliter l’innovation et la créativité musicales (composition, chanson, bande sonore, …), sans avoir à jouer une seule note sur un instrument. Meta estime même que « MusicGen peut se transformer en un nouveau type d’instrument – tout comme les synthétiseurs lors de leur apparition » (10). MusicGen a été formé sur environ 400.000 enregistrements avec descriptions textuelles et métadonnées, ce qui représente 20.000 heures de musique appartenant à Meta ou sous accords de licence. Pour l’heure, Meta ne fait état d’aucune négociation avec l’industrie musicale et encore moins avec les majors avec lesquels Google a, au contraire, pris langue. « Si vous voyez un exemple de musique UMG [Universal Music Group, ndlr] distribuée illégalement, n’hésitez pas à nous contacter à contentprotection@umusic.com », signale sur son site web (11) la première major dirigée par Lucian Grainge (photo ci-contre). C’est ce qu’on dû peut-être faire les deux artistes Drake et The Weeknd, produits par Universal Music, lorsqu’ils ont constaté en avril dernier qu’un « artiste » surnommé « Ghostwriter » (compositeur fantôme) a mis en ligne une musique avec voix s’inspirant de leur style musical. Les fichiers audio et vidéo de ce morceau de 2 minutes et 14 secondes ont été diffusés avec succès sur plusieurs plateformes de streaming musical (Spotify, YouTube/YouTube Music, Apple Music, TikTok, …), avant d’en être retirés après quelques jours. Un spécialiste américain estime que le morceau pourrait avoir été créé et promu à des fins de marketing viral par une start-up californienne Laylo (12), laquelle travaille avec des artistes musicaux et compte parmi ses investisseurs… Sony Music. Bien d’autres artistes musicaux ont été imités par des IA génératives à tendance mélomane. La chanteuse barbadienne Rihanna (signée elle aussi chez UMG) s’est par exemple étonnée au printemps de s’entendre chanter « Cuff It » de Beyoncé, via une « IA Rihanna » (13).
Le rappeur Ye (ex-Kanye West, ayant son propre label Good Music) n’a pas non plus été épargné par la déferlante IA musicale, avec les musiques « Hey There Delilah » de Plain White T’s et « Passionfruit » de Drake. Angèle, elle, s’est vue en août chanter en duo avec Gazo (14) sans son consentement. Les IA musicales Flow Machines, MusicGen, AudioGen, MusicLM, Riffusion ou encore Mubert n’ont pas fini de surprendre. Jeffrey Harleston compte sur les Etats-Unis pour résorber leur retard dans la réglementation de l’IA générative.

Les Etats-Unis derrière la Chine et l’UE
A la suite des auditions de cet été, le Congrès américain devrait légiférer sur l’IA d’ici la fin de l’année. A l’instar de la Chine (15), l’Union européenne (UE) a pris de l’avance dans l’élaboration de son « AI Act » qui est entré mi-juin en phase de discussion législative entre le Parlement européen et le Conseil de l’UE. « Les systèmes d’IA générative comme ChatGPT doivent mentionner que le contenu a été généré par une IA. (…) Des résumés détaillés des données protégées par le droit d’auteur utilisées pour la formation des IA devront également être rendus publics », prévoit le projet de règlement européen sur l’IA (16). Les IA génératives vont devoir s’accorder. @

Charles de Laubier

La banque centrale américaine, la Fed, met des bâtons dans les cryptos pour préserver le dollar

A peine le géant du e-paiement PayPal avait-il annoncé le 7 août sa cryptomonnaie indexée sur le dollar, baptisée « PayPal USD », que la banque centrale des Etats-Unis – la Federal Reserve (Fed) – publiait le lendemain un avertissement à l’attention du secteur bancaire américain.

Il ne s’agit pas, du point de vue des Etats- Unis, de déstabiliser le sacro-saint dollar américain, qui est devenu depuis la Seconde-Guerre mondiale (1) la plus importante monnaie de réserve internationale, après avoir détrôné la livre sterling britannique. Le dollar est la monnaie la plus utilisée dans le monde. Or dès qu’une monnaie ou une devise – et à plus forte raison une cryptomonnaie – menace la suprématie du billet vert, la Fed (Federal Reserve) voit rouge.

La Fed freine les cryptos et lance FedNow
D’où ses mises en garde aux émetteurs de monnaies numériques, y compris celles adossées au dollar. C’est ainsi que la banque centrale américaine (2) a publié le 8 août – soit le lendemain de l’annonce par PayPal de sa propre cryptomonnaie indexée sur le dollar et baptisée « PayPal USD » – un avertissement aux banques des 50 Etats membres, du moins à celles « qui cherchent à s’engager dans certaines activités impliquant des jetons en dollars ». La Fed, présidée par Jerome Powell (photo), a rappelé que le Federal Reserve Act (3) permet au conseil des gouverneurs de la Fed d’exercer son « pouvoir discrétionnaire » pour « limiter les banques d’Etat membres et leurs filiales à n’exercer, en tant que mandant, que les activités qui sont autorisées pour les banques nationales ».
Pour les transactions avec des jetons en dollars (dollar tokens) rendues possibles – comme pour toutes les cryptomonnaies – par la blockchain, ce que la Fed appelle « la technologie du grand livre distribué [distributed ledger] ou des technologies similaires », elles sont possibles mais à une condition : que la banque ait obtenu l’autorisation après avoir démontré au Bureau du contrôleur de la monnaie (OCC) et aux superviseurs qu’elle a mis en place « des contrôles pour mener l’activité de manière sûre et saine ». Autrement dit, pour peu qu’elles aient le feu vert de la Fed, les banques américaines peuvent « effectuer des activités de paiement à titre principal, notamment en émettant, détenant ou effectuant des transactions de jetons en dollars », ce que l’OCC appelle des « stablecoin » (cryptos adossées à une monnaie plus stable comme le dollar ou l’euro). Même pour tester un dollar token, une autorisation écrite dite de « non-objection prudentielle » est aussi nécessaire. Les Etats-Unis ont en fait tendance à voir l’émergence de ces « stablecoin » comme une menace potentielle pour la stabilité financière du pays voire du monde et un risque d’atteinte à sa souveraineté monétaire. Dans sa « lettre de supervision et de régulation » (4), la Fed oblige les banques à éviter « les risques opérationnels » (gouvernance, surveillance du réseau, …), « les risques de cybersécurité » (smart contracts, codes open source, …), « les risques de liquidité » (rachats importants, sorties rapides de dépôts, …), « les risques financiers illicites » (secret bancaire, identité d’un client, activités suspectes, …), « les risques liés à la conformité des consommateurs » (identification, protection des consommateurs, …). La Fed entend ainsi maintenir la pression sur les banques qui doivent plus que jamais montrer pattes blanches en matière de cryptomonnaies, stablecoins compris. La Réserve fédérale, à la fois juge et partie, n’a-t-elle pas lancé le 20 juillet dernier FedNow (5), un service de e-paiement instantané à bas coût proposé à leurs clients par déjà 35 banques et organismes de crédit ? Certains y voient une volonté de la Fed de rendre obsolètes les cryptomonnaies (6).
Ce n’est pas un hasard si le rappel à la loi fédérale a été émis juste après l’annonce du PayPal USD (PYUSD), la veille. Le géant du e-paiement a lancé le 7 août son stablecoin qui est « entièrement adossé aux dépôts en dollars américains, aux bons du Trésor américain à court terme et aux équivalents de trésorerie similaires, et peut être échangé 1:1 contre des dollars américains ». PayPal estime que « les stablecoins réglementés et entièrement adossés ont le potentiel de transformer les paiements dans les environnements web3 et numériques natifs ». Et le PDG de PayPal, Dan Schulman, d’affirmer : « La transition vers les monnaies numériques nécessite un instrument stable qui est à la fois numérique et facilement connecté à la monnaie fiduciaire comme le dollar américain ».

PayPal vise le monde, Worldcoin aussi
PayPal USD est émis en tant que jeton numérique ERC- 20 sur la blockchain Ethereum par Paxos Trust Company (ex-itBit), une fintech newyorkaise pionnière de la blockchain et du bitcoin. PayPal a obtenu de la part du l’Etat de New York en juin 2022 la licence BitLicense validant la sécurité de ses investissements dans les cryptos. Pendant ce tempslà, le 24 juillet, la version bêta de la cryptomonnaie Worldcoin (WLD), cocréée par le fondateur d’OpenAI/ChatGPT, Sam Altman, a été lancée (7). Face à cette « bitconnisation » de la finance, les banques centrales du monde entier et les régulateurs ne sont pas au bout de leurs peines. @

Charles de Laubier