Mark Zuckerberg prend de l’avance dans la création d’un métavers intelligent d’envergure mondiale

Le patron fondateur de Meta Platforms (ex-groupe Facebook) a étonné tout son monde en accordant fin septembre – au chercheur du MIT Lex Fridman situé à distance – une interview dans le métavers avec des avatars photoréalistes. A coût de milliards de dollars, il avance vers un métavers intelligent.

Meta Platforms ne parle pas explicitement de « métavers intelligent », mais ses investissements dans à la fois les mondes virtuels immersifs et l’intelligence artificielle en montrent la voie. La conférence Meta Connect des 27 et 28 septembre derniers a été un rendez-vous international axé sur « l’IA et les réalités virtuelle, mixte et augmentée » (1). Pour « repousser les limites de la réalité », Mark Zuckerberg (son avatar photoréaliste ci-contre) a payé de sa personne afin de donner vie à la « réalité mixte » – désignation qu’il préfère au terme réducteur « métavers ».

RL : 7,7 Mds de $ engloutis en six mois
L’ambition de « Zuck », surnom du PDG fondateur de Facebook, – rebaptisé Meta Platforms il y aura deux ans le 21 octobre prochain – est de « construire l’avenir de la connexion humaine ». Rien de moins. Depuis l’accueil plus que mitigé de son métavers Horizon Worlds (2) et la suppression de milliers d’emplois qui s’en est suivie, la maison mère de Facebook, Messenger, Instagram et WhatsApp reste une cash machine (3) et continue de dépenser des milliards de dollars via sa division Reality Labs (ex-FRL), laquelle réunit : réalité virtuelle (VR), réalité augmentée (AR), casques Meta Quest (4), visio-écrans Meta Portal et wearables, comme les lunettes connectées Ray-Ban du fabricant franco-italien EssilorLuxottica. Résultat : Reality Labs (RL) affiche plus de 7,7 milliards de dollars de pertes opérationnelles au 30 juin 2023, contre 5,7 milliards de dollars de pertes un an auparavant. Rien que sur l’année 2022, RL affichait une perte opérationnelle de plus de 15,8 milliards de dollars, contre 12,4 milliards de dollars de pertes l’année précédente.
Si, durant sa keynote du 27 septembre au Meta Connect, Mark Zuckerberg n’a pas prononcé le terme « metaverse », lui préférant « mixed reality », le groupe Meta Platforms, lui, n’en fait pas un tabou : « Nous faisons des investissements importants dans nos efforts de métavers, y compris dans le développement d’appareils de réalité virtuelle et augmentée, de logiciels pour les plateformes sociales, d’interfaces neuronales et d’autres technologies de base pour le métavers », indique le rapport financier semestriel du 27 juillet dernier (résultats au 30 juin). Et de prévenir que Reality Labs va continuer à creuser ses pertes opérationnelles, inscrivant ses efforts d’investissement sur le long terme. « Notre segment RL a réduit notre bénéfice d’exploitation global de 2022 d’environ 13,72 milliards de dollars, et nous nous attendons à ce que nos pertes d’exploitation RLcontinuent d’augmenter en 2023 et au-delà, prévient le même rapport. Nous nous attendons à ce que ce soit une initiative complexe, évolutive et à long terme, et notre capacité à soutenir nos efforts de métavers dépend de la génération de profits suffisants dans d’autres domaines de notre entreprise ». Meta pousse donc les feux dans les avatars, les chatbots (assistants conversationnels) et les stickers (images personnalisées) alimentés par des IA, de grands modèles de langage (LLM) et du machine learning (ML). Et l’interview accordée au chercheur du MIT Lex Fridman, situé à des kilomètres de distance mais avec leurs deux avatars très réalistes face-à-face (5), en a bluffé plus d’un.
Lors de cet échange retranscrit par le chercheur (6), Zuck a néanmoins prononcé plusieurs le mot « metaverse » : « La chose que vous pouvez faire dans le metaverse, qui est différente de ce que vous pouvez faire sur un téléphone, est de faire des choses où vous êtes physiquement ensemble et de participer à des choses ensemble. Et nous pourrions jouer à des jeux ». Et même si vous n’êtes pas disponible physiquement pour interagir via votre avatar photoréaliste, l’IA peut prendre le relais, comme l’a expliqué l’avatar de Zuck : « Si vous pouviez avoir une version avatar de vous-même dans le métavers et avec laquelle les gens peuvent interagir, vous pourriez définir ce genre de version d’IA où les gens savent qu’ils interagissent avec une IA, que ce n’est pas la version physique de vous (…). Une grande partie de la thèse derrière tout le métavers, c’est de donner aux gens la capacité de se sentir comme si vous étiez présent avec quelqu’un ».

Des chatbots et stickers animés par des IA
Le 27 septembre, la firme de Menlo Park (Californie) a annoncé le lancement – sur WhatsApp, Instagram et Messenger, bientôt sur les lunettes Ray-Ban Meta et les casques Quest 3 – de chatbots et de stickers rendus intelligents grâce à l’IA – Meta AI en version bêta. Des dizaines d’autres IA sont aussi activées, notamment celles conçues « avec des traits de personnalité uniques (…) interprétées par des figures culturelles et des personnalités influentes comme Snoop Dogg, Tom Brady, Kendall Jenner ou Naomi Osaka ». D’autres AI seront à la disposition d’entreprises, de créateurs et de développeurs, lesquels pourront utiliser l’AI Studio mis à disposition du grand public. @

Charles de Laubier

Cybermenaces : bombe électronique à retardement

En fait. Le 14 octobre se terminent à Monaco les 23e Assises de la cybersécurité qui se sont tenues sur quatre jours. Les cyber-risques n’augurent rien de bon, tant les cyberattaques n’ont jamais été aussi redoutables avec le renfort de l’intelligence artificielle et maintenant de l’informatique quantique.

En clair. Sauve qui peut. Les responsables de la sécurité des systèmes d’information (RSSI) des entreprises et administrations, et leurs dirigeants, ont du souci à se faire. Jamais les cybermenaces et les cyberattaques n’ont été aussi fortes et nombreuses dans le monde. Internet devient le premier théâtre des opérations de la criminalité, de la guerre et de l’ingérence étrangère, tant économique que géopolitique. Cybersécurité et cyberdéfense n’y suffiront pas.
Aux 23es Assises de la cybersécurité (1), à Monaco, les quelque 5.000 visiteurs – Chief Information Security Officer (Ciso) en tête – auraient préféré ne pas verser dans le catastrophisme ni dans les théories du cybercomplot. Hélas, les prévisions sont plus que jamais alarmistes. Steve Morgan, fondateur de la société d’études américaine Cybersecurity Ventures, le confirme à Edition Multimédi@ : « Depuis trois ans, nos prévisions n’ont pas changé. Les coûts mondiaux des dommages liés à la cybercriminalité augmentent de 15 % par an et atteindront 10.500 milliards de dollars en 2025, contre 8.000 milliards de dollars en 2023. C’était 3.000 milliards de dollars en 2015 » (2). Rien que pour 2023, selon nos calculs, le cybercrime mondial pèse financièrement plus de deux fois et demie le PIB de la France, et plus de mille fois le PIB de la Principauté de Monaco où se tiennent chaque année ces Assises de la cybersécurité ! « Cadence des attaques, émergence des innovations [IA, quantique, deepfake, …, ndlr], rotations dans les équipes, profils des attaquants, environnement social et géopolitique, … : le RSSI est sous pression », a confirmé en session plénière (3) Sabrine Guihéneuf, présidente d’honneur 2023 de ces assises internationales, par ailleurs directrice de la cybersécurité et de la gouvernance IT du groupe français URW (4). Certains, comme chez l’électronicien Thales, s’attendent à « l’Apocalypse quantique ». D’autres, comme chez l’hypermarchant Carrefour, craignent les IA génératives dans le retail et le e-commerce. L’équipementier télécoms américain Cisco s’attend, lui, au pire durant les JO de 2024 à Paris.
Se cyberdéfendre à armes égales contre les hackers du monde entier (cryptage et vol de données, rançongiciel, Dos/DDoS (5), hameçonnage, authentification frauduleuse, deepfake, etc.), supposent aux victimes potentielles de recourir elles aussi à l’IA et à la cryptographie quantique voire post-quantique. @

Discours de la présidente von der Leyen sur l’état de l’UE : l’IA a éclipsé le métavers européen

Lors de son discours sur l’état de l’Union européenne, prononcé le 13 septembre, Ursula von der Leyen – présidente de la Commission européenne – s’est focalisée sur l’intelligence artificielle. Mais pas un mot sur la stratégie du métavers européen, dont les défis sont pourtant nombreux.

Ursula von der Leyen (photo) a fait l’impasse sur les mondes virtuels. La présidente de la Commission européenne, dont le mandat commencé en décembre 2019 se terminera en novembre 2024, n’a pas eu un mot sur le métavers européen dans son discours du 13 septembre (1) à Strasbourg sur l’état de l’Union européenne (UE). Ni dans sa lettre d’intention datée du même jour et envoyée de Bruxelles à la présidente du Parlement européen (2) et au président du Conseil de l’UE (3), pour leur faire part de ses « principales priorités pour 2024 » (4).

Mondes virtuels : principes directeurs fin 2023
Pourtant, les défis des mondes virtuels sont tout aussi importants que ceux des intelligences artificielles. Est-ce à dire que « la nouvelle stratégie sur le Web 4.0 et les mondes virtuels » – présentée à Strasbourg le 11 juillet dernier n’est plus prioritaire d’ici les élections du Parlement européen de juin 2024 ? Ursula von der Leyen semble avoir tourné la page du « métavers européen », renvoyant la mise en œuvre à la Commission européenne 2024-2029.
« Les mondes virtuels changeront la façon de vivre en société et leur avènement s’accompagnera de possibilités et de risques qui doivent être pris en compte », avaient pourtant prévenu cet été pas moins de trois commissaires européens – Margrethe Vestager, Dubravka Suica et Thierry Breton – en dévoilant cette nouvelle stratégie et son calendrier. Ainsi, d’ici fin 2023, la Commission européenne va promouvoir des « principes directeurs pour les mondes virtuels », identifiés par un panel de 150 citoyens européens sélectionnés de façon aléatoire (5) et réunis entre les mois de février et d’avril derniers. Il en était ressorti 23 recommandations (6) qui ont inspiré la stratégie « Mondes virtuels », parmi lesquelles : « formation harmonisée pour le travail dans les mondes virtuels » ; « soutien financier au développement des mondes virtuels » ; « forums participatifs pour des avancées, des réglementations et des normes communes » ; « police pour agir et protéger dans les mondes virtuels » ; « accessibilité pour tous – personne n’est laissé de côté » ; « labels/certificats européens pour les applications des mondes virtuels », etc. Ces recommandations s’articulent autour de huit valeurs et principes applicables aux métavers : liberté de choix, durabilité, approche centrée sur l’humain, santé, éducation, sûreté et sécurité, transparence et intégration. La Commission européenne veut ainsi faire des mondes virtuels en Europe « un environnement numérique ouvert, sécurisé, digne de confiance, équitable et inclusif » (7). Elle veut aussi rendre disponibles au premier trimestre de 2024 des « orientations à l’intention du grand public » grâce à une « boîte à outils pour les citoyens » afin de les orienter. Il s’agit pour l’Europe de ne pas manquer la marche du siècle vers le Web3, où le marché mondial des mondes virtuels devrait exploser à plus de 800 milliards d’euros d’ici à 2030, contre 27 milliards d’euros en 2022. Et d’ici 2025 (soit dans moins de deux ans), les Vingt-sept pourraient totaliser 860.000 nouveaux emplois dans le secteur de la réalité étendue (virtuelle et augmentée). La Commission européenne va créer avec les Etats membres « un réservoir de talents » pour le développement des compétences, qui sera financé par les programmes Digital Europe (8) et Europe Creative (9). Du côté de l’écosystème industriel du Web 4.0, et dans le but d’éviter la fragmentation de ma chaîne de valeur des mondes virtuels, il est prévu de faire appel à un autre programme européen, Horizon Europe (10), pour que débute en 2025 « un partenariat candidat sur les mondes virtuels, afin de promouvoir l’excellence dans la recherche et d’élaborer une feuille de route industrielle et technologique pour les mondes virtuels ».
La Commission européenne a en outre promis d’aider les créateurs et les entreprises de médias de l’UE « à tester de nouveaux outils de création, à rapprocher les développeurs et les utilisateurs industriels, et à travailler avec les Etats membres à la mise au point de bacs à sable réglementaires pour le Web 4.0 et les mondes virtuels ». Les mondes virtuels concerneront autant les particuliers que les professionnels.

Meta Platforms y croit plus que l’Europe
Parmi les projets pan-européens sur les rails : DestinE (Destination Earth), qui vise à créer un jumeau numérique de la Terre pour simuler et visualiser au plus près l’évolution du climat, et CitiVerse, qui sera un environnement urbain immersif pour la planification et la gestion urbaines. Pour l’heure, le groupe américain Meta Platforms (ex-Facebook) essuie les plâtres (11) mais il a pris de l’avance en investissant des milliards dans son métavers perfectible Horizon Worlds (12). Apple mise de son côté sur son casque de réalité virtuelle et augmentée Vision Pro, disponible début 2024. Bien d’autres métavers se développent, comme pour les spectacles et concerts chez Vrroom (13) en France, pays où le chef de l’Etat rêve d’un « métavers européen » (14). @

Charles de Laubier

Streaming vidéo et IA génératives posent des questions existentielles au cinéma et… au jeu vidéo

La grève dure depuis 140 jours aux Etats-Unis. Les scénaristes d’« Hollywood » l’ont déclenchée le 2 mai, étendue cet été aux comédiens, et maintenant au jeu vidéo. Leurs revendications : meilleures rémunérations à l’ère du streaming et de l’intelligence artificielle.

Les scénaristes de la Writers Guild of America (WGA), en grève depuis le 2 mai, et les acteurs de la Screen Actors Guild and American Federation of Television and Radio Artists (SAG-AFTRA), en grève depuis le 13 juillet, sont très remontés contre l’Alliance of Motion Picture and Television Producers (AMPTP). Cette dernière regroupe les grands groupes de médias et de télévisions américains ainsi que des plateformes de streaming vidéo : « Amazon/MGM, Apple, Disney/ABC/Fox, NBCUniversal, Netflix, Paramount/CBS, Sony, Warner Bros. Discovery (HBO) et d’autres », mentionne le syndicat américain des comédiens. Le mouvement social s’étend aux éditeurs de jeux vidéo.

Hollywood donne d’une main, reprend de l’autre
D’un côté, la WGA (11.500 scénaristes) et, de l’autre, la SAGAFTRA (160.000 comédiens), qui vient de réélire sa présidente Fran Drescher (photo) le 8 septembre (1), négocient d’abord une augmentation des rémunérations pour tenir compte de l’inflation : les scénaristes proposent 5 % à 6 % de hausse mais les groupes cinématographiques et audiovisuels offrent 2 % à 4 % ; les acteurs proposent une augmentation de 11 % mais les groupes cinématographiques et audiovisuels offrent 5 %. Mais ce sont vis-à-vis des plateformes de streaming (Netflix, Amazon Prime Video, Disney+, …) que les revendications se font plus pressantes. Les scénaristes et les comédiens demandent à être mieux rémunérés par les plateformes de SVOD (2) sur les minimum garantis – le MBA (Minimum Basic Agreement) inscrit dans la convention collective de la WGA – et à être intéressés aux bénéfices du streaming. Cette exigence d’« une meilleure rémunération initiale et des droits résiduels » porte aussi sur les plateformes vidéo financées par la publicité, les AVOD (3) et les FAST (4).
A la veille de leur mouvement social déclenché le 2 mai, les scénaristes de la WGA avaient publié un état de leurs revendications et des réponses ou non-réponses apportées par les groupes de médias (5). Mais au point d’étape des négociations au 24 août dernier, soit au 115e jour de grève, peu d’avancées étaient signalées par le syndicat des scénaristes : « Lors de la rencontre avec les PDG, nous avons passé deux heures à expliquer que, malgré les progrès réalisés, le langage de l’offre de l’AMPTP était, comme c’est typique de cet organisme, une façon de donner d’une main et de reprendre de l’autre. (…) L’AMPTP semble donner tout en limitant les gains réels », relève-t-il. La WGA donnent quelques exemples de propositions qui ne sont pas encore suffisantes (6). Par exemple, les groupes de médias de l’AMPTP disent avoir fait une concession majeure en offrant de permettre à six membres du personnel de la WGA d’étudier les données, limitées, sur le nombre de téléspectateurs en streaming pour les trois prochaines années, afin que ces six membres puissent revenir en 2026 pour demander une fois de plus un solde basé sur le nombre de téléspectateurs. Mais entre temps, regrette la WGA, « aucun scénariste ne peut être informé de l’état de leur projet, et encore moins recevoir un résidu basé sur ces données ». La WGA a en outre calculé le coût de ses demandes pour chaque entreprise de média et chaque plateforme, « y compris l’ajout d’un financement accru de la santé pour faire face à l’impact de la grève ». Si l’on prend le cas de Netflix, les propositions de la WGA lui coûteraient 65 millions de dollars par an, soit seulement 0,206 % de son chiffre d’affaires 2022 de 31,6 milliards de dollars.
Les acteurs, eux, ont rejoint le 13 juillet les scénaristes pour élargie la grève, soit au 73e jour. « Nous luttons pour la survie de notre profession. Voici la vérité simple : nous sommes face à un système où les responsables de conglomérats de médias de plusieurs milliards de dollars sont récompensés pour exploiter les travailleurs », fustige leur syndicat SAGAFTRA pour justifier leur grève dans un « Why We Strike » (7). Lui aussi négocie pied-à-pied avec les géants de l’AMPTP. La SAG-AFTRA demande que les comédiens aient une participation aux revenus de streaming, puisque le modèle économique actuel a érodé leurs revenus résiduels : « Les artistes ont besoin d’une rémunération qui reflète la valeur que nous apportons aux streamers, lesquels profitent de notre travail ».

Rémunérer la valeur apportée aux streamers
Le 7e Art d’Hollywood exige un partage des revenus des « nouveaux médias » lorsque leurs œuvres sont exposées sur des plateformes de streaming. « Cela permettrait aux acteurs de partager le succès de spectacles de haut niveau ». Les géants des médias et du divertissement lui ont opposé une fin de non-recevoir : « Non ». La SAG-AFTRA plaide en outre la cause des « coordinateurs de cascades qui ne devraient plus être exclus des droits résiduels tels que les rediffusions sur les réseaux, la télévision étrangère et le streaming à budget élevé ». Elle demande aussi à « améliorer les résidus dus à la diffusion continue d’images réalisées pour les services de streaming par abonnement ». L’AMPTP botte en touche.
Concernant l’IA cette fois, la WGA note des avancées à la date du 28 août, mais insuffisantes : « Nous avons eu de vraies discussions et avons constaté des progrès de leur part en ce qui concerne la protection de l’IA, mais nous ne sommes pas encore rendus là où nous devons être. À titre d’exemple, ils continuent de refuser de réglementer l’utilisation de notre travail pour former l’IA à écrire du nouveau contenu pour un film »

IA génératives : menaces de cannibalisation
Les scénaristes américains demandent que soit réglementée l’utilisation de l’intelligence artificielle sur les projets couverts par le MBA : « L’IA ne peut pas écrire ou réécrire du matériel littéraire ; ne peut pas être utilisé comme matériel de base ; et le matériel couvert par le MBA [Minimum Basic Agreement, ndlr] ne peut pas être utilisé pour former l’IA ». Les employeurs d’« Hollywood » avait rejeté ces propositions dès le début des négociations, en renvoyant la question à « des réunions annuelles pour discuter des progrès technologiques »…
De leur côté, les acteurs de la SAG-AFTRA veulent eux aussi des garanties contre les IA génératives : « Les artistes-interprètes ont besoin de la protection de leurs images et de leurs représentations pour empêcher le remplacement des performances humaines par la technologie de l’intelligence artificielle ». Le syndicat des comédiens a proposé aux groupes de médias et aux plateformes des dispositions pour que les artistes interprétés puissent accorder un « consentement éclairé » et obtenir une « rémunération équitable » lorsqu’une « réplique numérique » [digital replica] est faite ou que leur représentation est modifiée à l’aide de l’IA. Mais les employeurs de l’AMPTP ne l’entendent pas de cette oreille. Les Disney, Netflix et autres Warner Bros. veulent être au contraire en mesure « de scanner l’image d’un figurant, de le payer pour une demi-journée de travail, puis d’utiliser la ressemblance d’un individu à n’importe quel but, pour toujours, sans son consentement ». Et ces entreprises veulent aussi pouvoir « apporter des changements au dialogue des artistes principaux et même créer de nouvelles scènes, sans consentement éclairé », ainsi que « pouvoir utiliser les images, les similitudes et les représentations de quelqu’un pour former de nouveaux systèmes d’IA générative sans consentement ni compensation ». En France, la Société des auteurs compositeurs dramatiques (SACD) a fait le 31 août « cinq propositions pour une intelligence artificielle éthique, responsable et respectueuse des droits des auteurs » – dont celle de faire de l’Arcom (8) le régulateur de « l’utilisation des œuvres par les IA » (9). Elle a évoqué au passage la grève aux Etats-Unis et les « légitimes inquiétudes » des scénaristes. La grève américaine a des répercutions partout dans le monde – avec le soutien d’autres syndicats comme Equity au Royaume-Uni (10). Le Festival du cinéma américain de Deauville en France et la Mostra de Venise en Italie ont manqué de stars du 7eArt. Mais au-delà des festivals, des tapis rouges et des paillettes, les conséquences de ce mouvement social venu d’Hollywood (retards ou annulation de tournages, postproduction repoussée, sous-titrages et doublages reportés, …) se font déjà sentir jusque dans les salles de cinéma (moins de films) et sur les plateformes de SVOD (moins de séries). La Fédération nationale des cinémas français (FNCF), qui espère que les 200 millions de spectateurs seront atteints en 2023 dans l’Hexagone, a évoqué le 20 juillet dernier sa préoccupation : « La grève des acteurs et scénaristes aux Etats-Unis inquiète beaucoup car elle risque de durer même si elle ne concerne que les films américains », a confié son président Richard Patry sur BFMTV (11).

L’industrie du jeu vidéo visée à son tour
La SAG-AFTRA a appelé le 1er septembre à étendre le mouvement social aux éditeurs de jeux vidéo (12), au premier rang desquels elle mentionne : Activision Blizzard, Electronic Arts, Epic Games, Take Two, Insomniac Games, Warner Bros. Games et Disney, Blindlight, Formosa Interactive et VoiceWorks Productions. « Le syndicat devrait avoir en main une autorisation de grève approuvée par les membres lorsque les négociations reprendront le 26 septembre », indique le syndicat des comédiens, le vote des membres devant se terminer la veille (13). Mêmes revendications : meilleure rémunération issue du streaming et une maîtrise des IA génératives. @

Charles de Laubier

Les majors Universal Music, Sony Music et Warner Music négocient avec les éditeurs d’IA musicales

Google et sa filiale YouTube négocient avec Universal Music l’autorisation d’utiliser pour son IA musical, MusicML, les données de la première « maison de disques ». Les autres majors, Warner Music et Sony Music, devront aussi trouver des accords. C’est plus une opportunité qu’une menace.

Le 21 août, YouTube a annoncé un accord avec Universal Music autour de l’IA musicale. Le Financial Times avait par ailleurs révélé le 9 août que sa maison mère Google et la première major mondiale de la musique enregistrée étaient en pourparlers pour autoriser que les mélodies et les voix des artistes soient exploitées par l’intelligence artificielle MusicLM (développée par Google) afin que celle-ci puisse créer de nouvelles chansons. Si ces négociations devaient aboutir, un accord de ce type serait une première pour l’industrie musicale qui, jusqu’à maintenant, voient plus ces IA génératives de musiques comme une menace pour elle.

Accords avec Google et YouTube
Quel est l’impact de l’IA générative sur l’industrie musicale ? « Imaginez que quelqu’un vole tout ce qui a de la valeur à une entreprise et l’utilise pour lancer une entreprise pour lui faire concurrence. C’est exactement ce qui se passe avec beaucoup de grands modèles d’IA d’apprentissage automatique qui existent aujourd’hui. Il s’agit d’une concurrence déloyale classique. (…) Il y a un besoin urgent de “code de la route” approprié pour l’IA générative et nous vous encourageons à agir de manière décisive et sans délai », a déclaré le 12 juillet dernier Jeffrey Harleston (photo), directeur juridique et vice-président exécutif pour les affaires commerciales et juridiques d’Universal Music. Il était auditionné au Sénat américain par le sous-comité de la commission judiciaire du Sénat, sur le thème de « l’intelligence artificielle et la propriété intellectuelle » (1).
Que vous disent les artistes au sujet de leurs voix et de la musique utilisées sans leur consentement par des IA musicales ? « Les artistes sont naturellement bouleversés que leur nom, image, ressemblance ou voix soient volés et utilisés pour suggérer qu’ils ont dit, chanté, ou fait quelque chose qu’ils n’ont jamais fait, a-t-il répondu aux sénateurs qui l’auditionnaient. C’est une violation horrible de la vie privée, et comme cela pourrait nuire à la réputation de l’artiste, cela pourrait irrémédiablement nuire à leur carrière. La voix et la personnalité d’un artiste sont leur gagne-pain et les voler – peu importe le moyen – est mal ». Il a appelé les Etats-Unis à procéder à des modifications législatives pour assurer un développement éthique de l’IA, notamment musicale. Le directeur juridique d’Universal Music avance trois points pour une future « loi pérenne sur le droit d’auteur afin de s’assurer qu’elle résiste à une IA en constante évolution technologie » : édicter une loi fédérale sur le droit de publicité [ou droit à l’image, ndlr] pour assurer la protection de la propriété intellectuelle d’un nom, d’une image, d’une ressemblance ou d’une voix ; assurer la transparence des éléments d’apprentissage de l’IA et permettre au titulaire du droit de pouvoir consulter les enregistrements détaillés des entrées d’apprentissage, sans avoir à s’engager dans un litige ; exiger l’étiquetage des oeuvres essentiellement générées par l’IA. Mais sans attendre que le Congrès américain s’empare du sujet, Universal Music cherche à trouver un terrain d’entente avec les éditeurs d’IA générative, tout du moins avec Google qui l’a approché.
La filiale d’Alphabet est aussi entrée en contact avec Warner Music. Il ne resterait plus qu’à discuter avec Sony Music pour faire le tour des trois grandes majors de la musique enregistrée. Rappelons qu’en septembre 2016, le laboratoire Sony CSL (2) avec fait sensation sur YouTube en diffusant une « nouvelle musique » des Beatles baptisée « Daddy’s Car » (3) et créée par l’IA Flow Machines du japonais (4), les Beatles faisant partie du répertoire… d’Universal Music. La n°1 des majors – au siège social situé aux Pays-Bas mais ayant son siège opérationnel basé à Santa Monica en Californie – adhère en outre aux sept principes édictés par le groupe Human Artistry Campaign (5) lancé en début d’année. Il s’agit de défendre les droits des créateurs dans le développement des technologies d’IA.
Pour l’heure, Alphabet avance à grand pas dans la musique générée par l’intelligence artificielle : tant du côté de Google qui a présenté le 26 janvier sa propre IA musicale baptisée MusicLM (6) que du côté de YouTube qui a lancé le 21 août un incubateur d’IA musicale avec des artistes, des auteurscompositeurs et des producteurs d’Universal Music (7).

MusicLM (Google), une IA hi-fi
Google présente MusicLM comme « un modèle générant une musique haute-fidélité à partir de descriptions textuelles ou d’une mélodie fredonnées ». Cette IA génère de la musique à 24 kHz qui reste cohérente sur plusieurs minutes. Et la filiale d’Alphabet d’affirmer : « Nos expériences montrent que MusicLM surpasse les systèmes précédents en termes de qualité audio et d’adhésion à la description du texte » (8). Mais cette IA musicale prometteuse n’a pas encore été rendue accessible au grand public, le géant du Net ayant la prudence de demander l’autorisation des plus grandes maisons de disques pour ne pas être accusé de contrefaçon et de spoliation des artistes. Seuls de nombreux exemples de bandes sonores générées par MusicML ont été mis en ligne.

Meta se met en trois avec Audiocraft
Google n’est pas le seul à s’aventurer sur le terrain du « text-to-music » puisque Meta a mis en logiciel libre (open source) son modèle de langage capable de générer des extraits musicaux, MusicGen. Meta (ex-groupe Facebook), qui avait présenté mi-juin dernier MusicGen comme étant légèrement supérieures à MusicLM en termes de performances, a présenté le 3 août sa panoplie IA appelée Audiocraft, composée non seulement de MusicGen, mais aussi d’AudioGen et d’EnCodec. « MusicGen, qui a été formé avec de la musique appartenant à Meta et spécifiquement sous licence, génère de la musique à partir d’entrées utilisateur textuelles, tandis qu’AudioGen, qui a été formé aux effets sonores publics, génère de l’audio à partir d’entrées utilisateur textuelles. Aujourd’hui, nous sommes ravis de publier une version améliorée de notre décodeur EnCodec, qui permet une génération de musique de meilleure qualité avec moins d’artefacts », explique Meta dans sa présentation. Les trois modèles de la suite Audiocraft sont disponibles à des fins de recherche, destinés aux chercheurs et aux praticiens. Cette ouverture devrait accélérer le développement de l’IA générative pour l’audio, lequel a pris du retard par rapport aux IA générative pour les images, la vidéo et le texte (ChatGPT, Midjourney, Bard, Dall·E 2, LLaMA, Stability AI, …). « Générer de l’audio hautefidélité de toute sorte nécessite la modélisation de signaux et de motifs complexes à différentes échelles. La musique est sans doute le type d’audio le plus difficile à générer car elle est composée de modèles locaux et de longue portée, d’une suite de notes à une structure musicale globale avec plusieurs instruments », fait remarquer la firme de Mark Zuckerberg (9).
Mais le tout-en-un proposé en open source par AudioCraft, pour la musique, le son, la compression et la génération, vise à faciliter l’innovation et la créativité musicales (composition, chanson, bande sonore, …), sans avoir à jouer une seule note sur un instrument. Meta estime même que « MusicGen peut se transformer en un nouveau type d’instrument – tout comme les synthétiseurs lors de leur apparition » (10). MusicGen a été formé sur environ 400.000 enregistrements avec descriptions textuelles et métadonnées, ce qui représente 20.000 heures de musique appartenant à Meta ou sous accords de licence. Pour l’heure, Meta ne fait état d’aucune négociation avec l’industrie musicale et encore moins avec les majors avec lesquels Google a, au contraire, pris langue. « Si vous voyez un exemple de musique UMG [Universal Music Group, ndlr] distribuée illégalement, n’hésitez pas à nous contacter à contentprotection@umusic.com », signale sur son site web (11) la première major dirigée par Lucian Grainge (photo ci-contre). C’est ce qu’on dû peut-être faire les deux artistes Drake et The Weeknd, produits par Universal Music, lorsqu’ils ont constaté en avril dernier qu’un « artiste » surnommé « Ghostwriter » (compositeur fantôme) a mis en ligne une musique avec voix s’inspirant de leur style musical. Les fichiers audio et vidéo de ce morceau de 2 minutes et 14 secondes ont été diffusés avec succès sur plusieurs plateformes de streaming musical (Spotify, YouTube/YouTube Music, Apple Music, TikTok, …), avant d’en être retirés après quelques jours. Un spécialiste américain estime que le morceau pourrait avoir été créé et promu à des fins de marketing viral par une start-up californienne Laylo (12), laquelle travaille avec des artistes musicaux et compte parmi ses investisseurs… Sony Music. Bien d’autres artistes musicaux ont été imités par des IA génératives à tendance mélomane. La chanteuse barbadienne Rihanna (signée elle aussi chez UMG) s’est par exemple étonnée au printemps de s’entendre chanter « Cuff It » de Beyoncé, via une « IA Rihanna » (13).
Le rappeur Ye (ex-Kanye West, ayant son propre label Good Music) n’a pas non plus été épargné par la déferlante IA musicale, avec les musiques « Hey There Delilah » de Plain White T’s et « Passionfruit » de Drake. Angèle, elle, s’est vue en août chanter en duo avec Gazo (14) sans son consentement. Les IA musicales Flow Machines, MusicGen, AudioGen, MusicLM, Riffusion ou encore Mubert n’ont pas fini de surprendre. Jeffrey Harleston compte sur les Etats-Unis pour résorber leur retard dans la réglementation de l’IA générative.

Les Etats-Unis derrière la Chine et l’UE
A la suite des auditions de cet été, le Congrès américain devrait légiférer sur l’IA d’ici la fin de l’année. A l’instar de la Chine (15), l’Union européenne (UE) a pris de l’avance dans l’élaboration de son « AI Act » qui est entré mi-juin en phase de discussion législative entre le Parlement européen et le Conseil de l’UE. « Les systèmes d’IA générative comme ChatGPT doivent mentionner que le contenu a été généré par une IA. (…) Des résumés détaillés des données protégées par le droit d’auteur utilisées pour la formation des IA devront également être rendus publics », prévoit le projet de règlement européen sur l’IA (16). Les IA génératives vont devoir s’accorder. @

Charles de Laubier