Le Monde en France, El País en Espagne, Die Welt en Allemagne : OpenAI séduit la presse au cas par cas

OpenAI a réussi à convaincre de grands titres de presse en Europe – Le Monde, El País et Die Welt – et, aux Etats-Unis, l’agence de presse AP et l’American Journalism Project pour que son IA générative ChatGPT soit plus au fait de l’actualité dans des langues différentes. Le New York Times, lui, a préféré un procès.

Le directeur des opérations d’OpenAI, Brad Lightcap (photo), n’est pas peu fier d’avoir décroché des accords pluriannuels avec les grands quotidiens européens Le Monde en France, El País en Espagne et Die Welt en Allemagne. « En partenariat avec Le Monde et Prisa Media [éditeur d’El País], notre objectif est de permettre aux utilisateurs de ChatGPT du monde entier de se connecter à l’actualité de façon interactive et pertinente », s’est-il félicité le 13 mars dernier lors de l’annonce des deux accords noués pour plusieurs années avec respectivement le groupe français Le Monde pour son quotidien éponyme et le groupe espagnol Prisa Media pour son quotidien El País, de même que pour son quotidien économique et financier Cinco Días et son site d’actualités El Huffpost (1). Trois mois auparavant, ce même Brad Lightcap annonçait un premier partenariat avec le groupe allemand Axel Springer pour son quotidien Die Welt, et son tabloïd Bild, ainsi que pour ses sites d’information Politico (édition européenne) et Business Insider (économie et finances). « Ce partenariat avec Axel Springer aidera à offrir aux gens de nouvelles façons d’accéder à du contenu de qualité, en temps réel, grâce à nos outils d’IA. Nous sommes profondément engagés à nous assurer que les éditeurs et les créateurs du monde entier bénéficient de la technologie avancée de l’IA et de nouveaux modèles de revenus », avait alors assuré le directeur des opérations d’OpenAI (2).

ChatGPT, polyglotte et informé : merci la presse
Ces « partenariats mondiaux d’information » permettent à ChatGPT d’européaniser un peu plus ses capacités d’informer en mettant à contribution trois premiers quotidiens du Vieux Continent, de trois langues différentes (français, espagnol et allemand). Et ce, après avoir largement entraîné en anglais ses grands modèles de langage « Generative Pre-trained Transformer » (GPT, GPT-2, GPT-3 et l’actuel GPT-4, en attendant GPT-5 en cours de développement). Avant les groupes européens Le Monde, Prisa Media et Axel Springer, OpenAI avait conclu aux Etats-Unis deux partenariats signés en juillets 2023 avec respectivement l’agence de presse américaine Associated Press (AP) et l’association de soutien à l’information locale American Journalism Project (AJP).

Sur fond de plainte du New York Times
« Nous sommes impatients d’apprendre d’AP [et de savoir] comment nos modèles d’IA peuvent avoir un impact positif sur l’industrie de l’information. L’accès à ses archives de textes factuels de haute qualité, aideront à améliorer les capacités et l’utilité des systèmes d’OpenAI », avait alors dit Brad Lightcap, lors de l’annonce le 13 juillet 2023 du partenariat avec l’agence de presse américaine (3). Depuis près d’une décennie, AP utilise la technologie de l’IA pour automatiser certaines tâches routinières et libérer les journalistes pour faire des reportages plus fouillés. Elle va même jusqu’à publier des dépêches automatisées prévisualisant et récapitulant certains événements sportifs, élargissant ainsi son offre de contenu.

Cinq jours après, le 18 juillet 2023, OpenAI nouait un premier accord journalistique avec cette fois l’American Journalism Project (AJP). Pour l’occasion, ce n’est pas Brad Lightcap qui avait fait une déclaration mais le cofondateur PDG d’OpenAI Sam Altman lui-même : « Nous sommes fiers de soutenir la mission de l’AJP consistant à renforcer notre démocratie en reconstruisant le secteur de l’information locale du pays. Cette collaboration souligne notre conviction que l’IA doit profiter à tous et être utilisée comme un outil pour améliorer le travail. Nous sommes impatients […] d’explorer les façons dont la technologie de l’IA peut renforcer le travail du journalisme local », avait-il expliqué (4). La société californienne (basée à San Francisco) a versé un crédit de 5 millions de dollars à cette association à but non lucratif soutenant l’information locale aux Etats-Unis pour aider des éditeurs et agences de presse locaux « à évaluer et à déployer les technologies émergentes d’IA au sein de leurs organisations », ainsi qu’« à développer des outils qui pourraient [les] aider ».
Par ailleurs, le 8 août 2023, OpenAI a versé 395.000 dollars pour la « Ethics and Journalism Initiative » de l’institut de journalisme Arthur L. Carter Journalism de l’Université de New York (5). La licorne OpenAI, cornaquée par Microsoft qui en est devenu actionnaire et investisseur à hauteur de 13 milliards de dollars, veut ainsi montrer patte blanche vis-à-vis des médias du monde entier avec son robot textuel présenté comme un partenaire du journalisme et respectueux du droit d’auteur. Et ce, au moment où GPT-4 est accusé de pirater les journaux – et, comme l’a montré le 6 mars dernier la société d’évaluation Patronus AI, les livres (6) – pour s’entraîner et apprendre automatiquement. Le New York Times, lui, n’a pas souhaité signer un accord « ChatGPT », préférant croiser le fer judiciaire en portant plainte le 27 décembre 2023 contre OpenAI devant le tribunal de New York. « Microsoft et OpenAI utilisent illégalement le travail du Times [le New York Times, ndlr] pour créer des produits d’intelligence artificielle qui lui font concurrence et menacent la capacité du Times à fournir ce service. Leurs outils d’IA générative (GenAI) reposent sur des grands modèles de langage (LLM, ou Large Language Model) qui ont été créés en copiant et en utilisant des millions d’articles de presse protégés par le droit d’auteur du Times, des enquêtes approfondies, des articles d’opinion, des critiques, des guides pratiques, etc », a dénoncé The New York Times Company dans sa plainte de 69 pages (7). Et d’accuser Microsoft et OpenAI d’avoir opéré un piratage d’ampleur sur son quotidien de référence : « Bien que Microsoft et OpenAI aient effectué des copies à grande échelle à partir de nombreuses sources, ils ont accordé une importance particulière au contenu du Times lors de la construction de leurs LLM, révélant une préférence qui reconnaît la valeur de ses œuvres. Grâce au Bing Chat de Microsoft (récemment rebaptisé Copilot) et au ChatGPT d’OpenAI, ces derniers cherchent à profiter de l’investissement massif du Times dans son journalisme en l’utilisant pour créer des produits de substitution sans autorisation ni paiement ».
OpenAI s’est inscrit en faut contre les allégations du New York Times, en assurant « travaill[er] dur dans [son] processus de conception technologique pour soutenir les organisations de presse ». Le labo-start-up de Sam Altman a aussi indiqué avoir discuté avec « des dizaines de personnes » (8), dont la News Media Alliance (exNewspaper Association of America) qui a « applaudi » le procès intenté par le NYT (9).

« Source significative de revenus » (Le Monde)
Malgré ses approches au cas par cas avec la presse et ses premiers accords de partenariat, OpenAI n’échappera pas – à l’instar de Google et Facebook en leur temps – à rendre des comptes devant la justice. La presse, le livre ou encore le cinéma hésitent entre accord et procès. En Europe, Le Monde, El País et Die Welt ont préféré signer avec « ChatGPT » plutôt que de trouver un accord-cadre collectif via, par exemple en France, l’Alliance de la presse d’information générale (Apig). Le groupe Le Monde se dit satisfait de cet accord qui, selon ses dirigeants Louis Dreyfus et Jérôme Fenoglio (10), a « l’avantage de consolider [son] modèle économique en apportant une source significative de revenus supplémentaires ». @

Charles de Laubier

Les enjeux du droit d’auteur à l’ère de l’intelligence artificielle (IA) : entre exceptions et interprétations

La propriété intellectuelle est entrée dans une zone de turbulences provoquées par les IA génératives. L’utilisation d’œuvres reste soumise à l’autorisation des auteurs, mais le droit d’auteur est limité dans certains cas comme la fouille de textes et de données. L’AI Act sera à interpréter.

Par Jade Griffaton et Emma Hanoun, avocates, DJS Avocats*

La récente législation européenne sur l’intelligence artificielle (IA) – l’AI Act dans sa dernière version de compromis final datée du 26 janvier 2024 (1) (*) (**) – adopte une définition flexible de « système d’IA », désigné comme « un système basé sur des machines conçues pour fonctionner avec différents niveaux d’autonomie et d’adaptabilité après leur déploiement et qui, à partir des données qu’il reçoit, génère des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels » (2).

Exception de « fouille de textes et de données »
La question de la relation entre le droit de la propriété littéraire et artistique et l’IA est une préoccupation ancienne. Lors de la phase d’entraînement, le système d’IA reçoit des données. A ce stade, se pose la question de l’intégration de contenus protégés par le droit d’auteur aux fins du développement du système. Lors de la phase de génération, le système d’IA génère des résultats, voire des créations, à la demande de l’humain. Se pose alors la question de l’encadrement juridique de ces créations générées, en tout ou partie, par un système d’IA. Ces problématiques juridiques actuelles doivent être envisagées à la lumière des nouveaux textes destinés à réguler le domaine de l’IA, et notamment la récente proposition de règlement européen sur l’IA, et la proposition de loi française visant à encadrer l’utilisation de l’IA par le droit d’auteur (3).
De nouveaux contours de la possibilité d’utiliser des œuvres pour entraîner l’IA ? Les systèmes d’IA ont besoin, au stade de leur apprentissage et développement, d’avoir accès à de grands volumes de textes, images, vidéos et autres données. Ces contenus sont susceptibles d’être protégés par le droit d’auteur. L’objectif principal du règlement IA, dévoilé en 2021 par la Commission européenne, consiste à réguler les systèmes d’IA introduits sur le marché européen, en adoptant une approche axée sur les risques et en assurant un niveau élevé de protection des droits fondamentaux, de la santé publique, de la sécurité et de l’environnement.

Ainsi, l’AI Act n’a pas vocation à traiter les questions relatives au droit d’auteur. Et pourtant, il n’ignore pas totalement leur importance en présence d’un système d’IA. A ce propos, le règlement renvoie à une exception – au principe d’obtention d’une autorisation de l’auteur pour toute utilisation de son œuvre – issue du droit de l’Union européenne (UE), celle de la fouille de textes et de données (text and data mining ou TDM). Cette exception – non spécifique aux systèmes d’IA – permet, semble-t-il, de justifier juridiquement l’utilisation de contenus protégés par le droit d’auteur en dispensant les opérateurs d’IA d’obtenir l’autorisation des auteurs qui ne se sont pas opposés expressément. Elle n’est pas nouvelle. C’est la directive européenne « Droit d’auteur et les droits voisins dans le marché unique numérique » de 2019 (4) qui a voulu rendre obligatoire pour les Etats membres de prévoir une exception aux droits de reproduction d’une œuvre et d’extraction d’une base de données, à des fins d’utilisation de technologies de fouille de textes et de données – technologies qui permettent une analyse informatique automatisée de textes, sons, images ou données sous forme numérique, en grande quantité, en vue d’acquérir de nouvelles connaissances. En y faisant ce renvoi, la proposition de règlement confirme, semble-t-il, que cette exception s’applique aux systèmes d’IA mais n’apporte aucune nouveauté en la matière. La proposition de loi française – dont l’objet même est, contrairement à la proposition européenne, d’encadrer l’IA par le droit d’auteur – envisage d’incorporer dans le code de propriété intellectuelle (CPI), au sein de l’article L.131-3, un alinéa prévoyant que l’intégration d’œuvres protégées par le droit d’auteur dans le système d’IA est soumise « à une autorisation par les auteurs ». Une telle formulation – « L’intégration par un logiciel d’intelligence artificielle d’œuvres de l’esprit protégées par le droit d’auteur dans son système et a fortiori leur exploitation est soumise aux dispositions générales du présent code et donc à autorisation des auteurs ou ayants droit » (5) – pourrait recevoir diverses interprétations.

Question de l’« autorisation des auteurs »
L’intégration des œuvres dans un système d’IA est un nouveau mode d’exploitation que la proposition semble avoir voulu prendre en compte. Doit-on comprendre que l’intégration dans une IA est une forme de reproduction de l’œuvre à laquelle s’applique, comme pour toutes formes de reproduction, l’exception de fouilles de textes et de données ? Dans ce cas, le régime actuel est inchangé : donc, les développeurs d’IA peuvent encore intégrer des œuvres à la phase d’entraînement, sauf opposition des auteurs. Doit-on plutôt comprendre que cette formulation veut rompre avec le régime actuel en consacrant expressément une exigence d’obtention d’autorisation de auteurs en écartant l’exception de fouilles de textes et de données ? Dans ce cas, le nombre d’œuvres pouvant être intégrées dans les systèmes d’IA serait réduit à celles dont une autorisation a été donnée, et non celles ne faisant pas l’objet d’opposition. La première interprétation semble la plus appropriée, notamment eu égard à la formulation de l’alinéa précisant que « [l’intégration] est soumise aux dispositions générales du présent code et donc à autorisation des auteurs », et à sa place dans le CPI (6).

Pays de « common law » et pays de « civil law »
Nouvelle exigence de transparence lorsque des œuvres sont utilisées par l’IA. La proposition AI Act, bien qu’elle n’ait pas vocation à traiter de la question du droit d’auteur, exige des fournisseurs de systèmes d’IA une certaine transparence lorsque des contenus protégés par un droit d’auteur ont été utilisés au stade du développement dudit système. En effet, le texte contraint les fournisseurs de modèles d’IA à finalité générale (« general purpose IA models ») à mettre en place une politique pour respecter le droit d’auteur de l’UE, et à rendre public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à finalité générale (7). La mise en place de la politique aurait pour objectif d’identifier et respecter les réservations de droits – ou oppositions – au titre de l’exception de fouilles de textes et de données.
La publication du résumé suffisamment détaillé devrait se faire à partir d’un modèle publié par l’Office de l’intelligence artificiel (OIA, ou AI Office), organe instauré par la proposition de législation. Il aurait pour objet – sans être techniquement détaillé – « par exemple d’énumérer les principales collections ou ensembles de données qui ont servi à la formation du modèle, tels que les grandes bases de données privées ou publiques ou les archives de données, et en fournissant une explication narrative sur les autres sources de données utilisées » (8). De telles exigences en termes de transparence témoignent de la prise en compte des exigences posées par le droit d’auteur. D’autant que le règlement IA prévoit que les obligations de transparences ne s’appliquent pas aux fournisseurs de systèmes d’IA rendant accessibles au public, sous licence libre ou ouverte, les modèles d’IA (9) sauf celles liées au droit d’auteur. Sortir les exigences de transparence liées au droit d’auteur de l’exception générale témoigne encore de leur importance.
Vers une remise en cause de la non-« protégeabilité » des créations issues d’un système d’IA ? Alors que les pays de « common law » comme le Royaume Uni et les Etats-Unis admettent la « protégeabilité » des œuvres générées par des machines (10) – notamment parce que l’œuvre est placée au centre et les auteurs obtiennent une protection indirecte à travers la protection directe de la propriété créée –, les pays de « civil law » ont tendance à refuser qu’une œuvre au sens juridique du terme puisse être créée par une machine dès lors que la protection est attachée directement à la personne de l’auteur. Traditionnellement, l’originalité s’entend en droit français et européen de l’empreinte de la personnalité de l’auteur en manifestant ses choix libres et créatifs (11). Une telle conception exclut a priori toute originalité d’une œuvre conçue par une IA du fait du défaut de personnalité de l’IA. Si, le règlement IA ne traite pas de la question de la « protégeabilité » des « créations » générées par l’IA, la proposition de loi française, a contrario, tente de plonger au cœur du sujet. Elle envisage d’intégrer au sein de l’article L.321-2 du CPI le cas précis d’une « œuvre créée par une intelligence artificielle sans intervention humaine directe » (12). Par cette disposition, le droit français semble admettre qu’une œuvre puisse être créée par une machine, et non un être humain. Dans ce cas, la proposition de loi désigne comme titulaires des droits, non pas les personnes ayant développé le système ou ayant commandé la création à la machine, mais les auteurs des œuvres intégrées au système d’IA lors de la phase d’entraînement.
L’œuvre serait-elle alors empreinte de la personnalité des auteurs des œuvres premières ayant servi à entraîner le système d’IA ? Ces auteurs seraient à la fois titulaires de droits sur leur œuvre première – sans difficulté – et de droits sur les œuvres générées par l’IA lorsque leur œuvre première aurait été exploitée au stade de développement de l’IA. La problématique qui se pose d’emblée en pratique est celle de la multitude de titulaires d’une œuvre générée par un système d’IA. La proposition de loi envisage alors que les droits soient gérés par des organismes de gestion collective (comme la Scam ou la Sacem) qui percevront la rémunération ou une taxation versée par la société qui exploite le système d’IA lorsque l’œuvre est engendrée par l’intégration d’œuvres dont l’origine ne peut être déterminée. La proposition de loi exige aussi que soit apposée la mention « Œuvre générée par IA » et inséré le nom des auteurs des œuvres premières.

Protection des œuvres générées par l’IA
En revanche, la protection accordée aux œuvres générées par l’IA ne semble pas aussi complète que celle accordée aux œuvres « classiques » : la proposition de loi française ne traite pas plus du droit moral ni des autres droits patrimoniaux que de celui de la rémunération juste et équitable des auteurs. Peut-être que cela s’explique par l’ambition de la proposition de loi « Encadrer l’intelligence artificielle par le droit d’auteur » de garantir une rémunération juste et équitable de l’exploitation des œuvres et de garantir une traçabilité des auteurs et artistes. Il reste à voir comment seront appréhendées en pratique de telles évolutions juridiques. @

* Article écrit avec la collaboration
de Camille Rodriguez, DJS Avocats

L’année 2024 sera-t-elle plus « intelligente » que les précédentes ? Les acteurs de l’IA y travaillent

Edition Multimédi@ est partenaire média du 3e World AI Cannes Festival (WAICF), rendez-vous mondial consacré à l’intelligence artificielle et organisé du 8 au 10 février 2024 au Palais des festivals de Cannes. L’occasion de faire le point sur quelques forces en présence d’envergue mondiale.

L’intelligence artificielle, c’est désormais le foisonnement permanent sur fond de bataille des LLM (Large Language Model), ces grands modèles de langage utilisés par les agents conversationnels et les IA génératives, capables d’exploiter en temps réel des milliards voire des dizaines de milliards de paramètres. Depuis le 30 novembre 2022, date du lancement fracassant de ChatGPT (1) d’OpenAI, cornaqué par Microsoft (2), le marché mondial de l’IA ne cesse de prendre de l’ampleur. Alors que les questions sur les IA responsables (éthique, biais, droit d’auteur, droit à l’image, …) sont autant de défis à relever. Parmi les derniers prétendants aux premières places de la course à l’intelligence numérique potentiellement utilisable par des milliards d’êtres humains connectés : Mistral AI, Gemini, Anthropic et Llama, en attendant Ferret… d’Apple.

Mistral AI. La start-up française, devenue licorne (non cotée en Bourse mais valorisée près de 2 milliards d’euros), a été fondée en avril 2023 par Arthur Mensch, Guillaume Lample et Timothée Lacroix. Le 10 décembre dernier, elle a annoncé avoir levé 385 millions d’euros auprès d’investisseurs et a ouvert à l’intention des développeurs sa plateforme open source de modèles génératifs « les plus puissants » dans leur version bêta (3). Arthur Mensch, un ancien « scientist » de chez DeepMind, filiale de Google (tandis que les deux autres cofondateurs viennent de Facebook/Meta), a l’ambition de « créer un champion européen à vocation mondiale dans l’intelligence artificielle ». Son modèle d’IA, baptisé « Mixtral 8x7B », a été présenté comme étant six fois plus rapide que le langage Llama 2 70B du groupe Meta qu’il « surpasse » dans « la plupart des benchmarks ». De plus, « il égale ou surpasse GPT 3.5 [d’OpenAI] » (4).

Gemini. C’est le modèle d’IA « le plus grand et le plus performant » que Google a annoncé le 6 décembre dernier dans un post (5) cosigné par Sundar Pichai, PDG de Google et de sa maison mère Alphabet, et par Demis Hassabis, directeur général et cofondateur en 2010 de la start-up DeepMind Technologies que Google a rachetée il y a dix ans (en janvier 2014) pour quelque 628 millions de dollars. Rebaptisée Google DeepMind et filiale d’Alphabet, elle a rendu disponible la version 1.0 de Gemini (6) qui est déployé dans plusieurs produits et plateformes de la firme de Mountain View (où se trouve le QG Googleplex). L’IA générative Bard, que Google a lancée précipitamment il y aura un an le 6 février (7), profite désormais d’« une version affinée de Gemini Pro pour un raisonnement plus avancé » et il s’agit de « la plus grande mise à jour de Bard depuis son lancement ». Gemini est présenté comme un modèle multimodal (texte, images, audio et vidéo).

Anthropic. Fondée en décembre 2020 par d’anciens d’OpenAI, Dario Amodei et sa sœur Daniela Amodei, la startup Anthropic – dont ils sont respectivement directeur général et présidente – est basée à San Francisco (Californie) comme OpenAI. Ils ont été suivis par sept autres de leurs collègues d’OpenAI. Amazon avait annoncé le 25 septembre 2023 l’injection de 4 milliards de dollars dans Anthropic (8), qui avait levé 1,5 milliard de dollars dix-huit mois auparavant auprès d’investisseurs – dont 300 millions de dollars de Google qui a pris 10 % du capital et a promis à la start-up de lui apporter jusqu’à 2 milliards de dollars en plus. Anthropic, qui recourt au cloud AWS d’Amazon, a lancé en mars 2023 son IA générative appelée Claude (9) (claude.ai), dont la version 2 est disponible depuis juillet dernier. Mais avec son futur « Claude-Next », la rival d’OpenAI se positionne déjà pour se mesurer au futur ChatGPT-5 attendu cette année.

Llama. Cela fera un an, le 24 février prochain, que Meta Platforms (ex-Facebook) a lancé « LLaMA » (Large Language Model Meta AI), son grand modèle de langage en open source (10). La firme de Mark Zuckerberg a ensuite annoncé le 18 juillet dernier la version Llama 2 en partenariat avec Microsoft (pour utiliser son cloud Azure), mais en la rendant aussi disponible chez Amazon Web Services (AWS), Hugging Face et d’autres fournisseurs. « Llama 2 est gratuit pour la recherche et l’utilisation commerciale », précise Meta (11). Le géant de Menlo Park (Californie) utilise aussi son IA pour créer de nouvelles fonctions sur ses réseaux sociaux Instagram, Facebook et WhatsApp. Le 7 décembre, il a présenté « Purple Llama », une boîte à outils également en open source pour la sécurité et la confiance en matière d’IA responsable (12). Rappelons que le directeur général de l’intelligence artificielle de Meta est le Français Yann Le Cun, recruté il y a dix ans maintenant (en décembre 2013) et basé à New-York. @

Charles de Laubier

La Société des droits voisins de la presse (DVP) peine à négocier avec les plateformes numériques

Créée il y a près de deux ans et épaulée par la Sacem et le CFC, la Société des droits voisins de la presse (DVP) – présidée par Jean-Marie Cavada – négocie difficilement avec une dizaine de plateformes numériques, dont Google, Meta, Microsoft, Twitter, LinkedIn ou Onclusive (ex-Kantar Media).

(Cet article a été publié dans EM@ n°304 du 24 juillet. Le 2 août, après d’autres médias, l’AFP a saisi la justice contre Twitter, rebaptisé X, pour refus de négocier)

Depuis sa création fin octobre 2021, il y a près de deux ans, la société de gestion collective des droits voisins de la presse DVP (dont la dénomination est Société des droits voisins de la presse) reste assez discrète sur l’état d’avancement de ses négociations avec une dizaine de grandes plateformes numériques. Il s’agit de tenter de trouver des accords de rémunération de la presse lorsque des articles en ligne sont exploités par ces plateformes. A ce jour, la Société DVP représente – au titre des droits voisins de la presse – 238 éditeurs et 46 agences de presse, soit plus de 624 publications de presse.

4 ans après la loi du 24 juillet 2019…
La Société DVP, présidée par Jean-Marie Cavada (photo), a en fait confié les négociations à deux organismes reconnus : la Sacem (1) pour les plateforme numériques dites B2C (orientées consommateurs) telles que Google, Meta, Microsoft, LinkedIn ou encore Twitter ; le CFC (2) pour les plateformes numériques dites B2B (orientées vers les entreprises et professionnels) telles que les prestataires de veille média comme Onclusive (ex-Kantar Media), Cision (ex- L’Argus de la presse) ou encore des crawlers (spécialistes scannant le Web pour leurs clients). La Sacem assure en outre la gestion de la société DVP, dont la directrice générale gérante est Caroline Bonin, la directrice juridique de la Sacem. Les négociations pour obtenir « une juste rémunération », et d’en obtenir le paiement, ont commencé à partir du printemps 2022, mais rien n’a filtré jusqu’à maintenant – les négociations avant tout accord d’autorisation étant soumises à une stricte règle de confidentialité.
« Une dizaine de négociations sont ainsi en cours, à des stades variés, notamment en raison de discussions juridiques complexes sur l’éligibilité au droit voisin de la presse de certaines publications, que les redevables du droit voisin contestent pour diminuer le montant de la rémunération à acquitter et que DVP défend, en application de la loi et dans l’esprit de la gestion collective », a signalé le 31 mai dernier la Société DVP à ses éditeurs membres (parmi lesquels Edition Multimédi@). Certaines négociations ont fait l’objet de plusieurs projets de contrats et offres financières, mais aucune n’a abouti à ce stade malgré des réunions hebdomadaires avec les plus importants acteurs du Net.

Le conseil d’administration de la Société DVP – composé de 16 membres (dont 12 éditeurs de presse et 3 agences de presse) et présidé par Jean-Marie Cavada – oeuvre pour obtenir « la meilleure rémunération possible pour tous ses membres et pour toutes les exploitations depuis l’entrée en vigueur de la loi reconnaissant le droit voisin de la presse [du 24 juillet 2019, ndlr], dans le respect des critères posés par cette loi, que les redevables du droit voisin contestent encore ». La loi française « Droit voisin de la presse » du 24 juillet 2019 modifiant le code de la propriété intellectuelle (3), pourtant conforté par l’Autorité de la concurrence (ADLC) qui a prononcé le 9 avril 2020 des injonctions à l’encontre des géants du Net (dont Google) rechignant à négocier, doit encore être appliquée – quatre ans après sa promulgation ! Le 21 juin 2022, l’ADLC a adopté une décision mettant fin à la procédure initiée contre Google et acceptant ses engagements modifiés. Mais des négociations traînent toujours, y compris avec d’autres GAFAM. « Alors que les éditeurs attendent avec impatience la mise en oeuvre de la loi de juillet 2019, le conseil d’administration de DVP est déterminé à signer au plus tôt des accords de licence tout en s’assurant que les fondements du droit voisin soient respectés afin d’en assurer la pérennité », a assuré fin mai la société de gestion collective. Il y a selon elle « urgence économique ».
Un travail de définition des règles de répartition entre les membres a déjà commencé, afin de leur verser rapidement les redevances qui leur revient, dès que le premier contrat sera signé avec la première plateforme. Mais la Société DVP ne cache pas « les difficultés de négociation avec certains grands acteurs du numérique » et pourrait profiter de la date anniversaire de la loi «Droits voisins de la presse » – le 24 juillet donc – pour communiquer et « alerter largement les pouvoirs publics quant à la difficulté de concrétiser l’existence de ce droit ».

Pas encore de redevances, mais des adhésions
Les comptes de l’exercice 2022 de la Société DVP (4) affichent, dans ce contexte de négociations et de bras de fer, des recettes uniquement constituées des frais d’admission versés par les nouveaux membres, pour un total de 76.918 euros. Les dépenses, elles, s’élèvent à 48.330 euros (sites web, vote électronique, commissaire au compte, dépôt de la marque). Ce premier bilan (5) et le budget prévisionnel 2023 (6) expliquent l’absence de DVP dans le rapport annuel 2023 de la commission de contrôle des organismes de gestion des droits d’auteur et des droits voisins (CCOGDA), publié le 26 juin dernier par la Cour des comptes (7). @

Charles de Laubier

ChatGPT, Midjourney, Flow Machines, … : quel droit d’auteur sur les créations des IA génératives ?

Face à la déferlante des IA créatives et génératives, le droit d’auteurs est quelque peu déstabilisé sur ses bases traditionnelles. La qualification d’« œuvre de l’esprit » bute sur ces robots déshumanisés. Le code de la propriété intellectuelle risque d’en perdre son latin, sauf à le réécrire. Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés L’utilisation de l’intelligence artificielle (IA) par les entreprises, notamment en communication, est de plus en plus répandue. Des logiciels tels que Stable Diffusion, Midjourney, Craiyon, ou encore Dall·E 2 permettent de créer des images à partir d’instructions en langage naturel (le « text-to-image »). Il est également possible de créer du texte avec des outils tels que le robot conversationnel ChatGPT lancé en novembre 2022 par OpenAI (1), voire de la musique avec Flow Machines de Sony (2). Flou artistique sur le droit d’auteur Les usages sont assez variés : illustration d’un journal, création d’une marque, textes pour un site Internet, un support publicitaire ou pour un post sur les réseaux sociaux, création musicale, publication d’une œuvre littéraire complexe, …, et bientôt produire des films. Les artistes s’en sont emparés pour développer une forme d’art appelé « art IA », « prompt art » ou encore « GANisme » (3). Et, parfois, les artistes transforment les résultats obtenus en NFT (4), ces jetons non-fongibles authentifiant sur une blockchain (chaîne de blocs) un actif numérique unique. Pour produire un texte, une image ou une musique sur commande, le logiciel a besoin d’être nourri en textes, images ou musiques préexistantes et en métadonnées sur ces contenus (« deep learning »). Plus le logiciel dispose d’informations fiables, plus le résultat sera probant. Comme toute nouveauté technologique, l’utilisation de ces logiciels soulève de nombreuses questions juridiques. La question centrale en matière de propriété intellectuelle est de savoir à qui appartiennent les droits – s’ils existent – sur les contenus générés par l’IA ? En droit français, une œuvre est protégeable si elle est originale. L’originalité est définie comme révélant l’empreinte de la personnalité de l’auteur, qui ne peut être qu’un être humain. Il faut donc déterminer qui est l’auteur, ou qui sont les auteurs d’une image, d’un texte ou d’une musique créés via une instruction donnée à un logiciel. Il faut aussi déterminer qui peut en être titulaire des droits. Il pourrait s’agir des auteurs des œuvres préexistantes, de nous-mêmes lorsque nous avons donné une instruction au logiciel, ou encore de l’auteur du logiciel (par exemple la société Stability AI qui développe Stable Diffusion). Les entités exploitant ces logiciels contribuent au processus permettant d’obtenir des textes, images ou des musiques inédites, dans la mesure où ce sont ces générateurs de contenus qui proposent un résultat comprenant un ensemble de choix plutôt qu’un autre. Ainsi, c’est la part d’« autonomie » des logiciels d’IA qui jette le trouble dans la conception traditionnelle du droit d’auteur. Un tribunal de Shenzhen (Chine) avait jugé en 2019 qu’un article financier écrit par Dreamwriter (IA mise au point par Tencent en 2015) avait été reproduit sans autorisation, reconnaissant ainsi que la création d’une IA pouvait bénéficier du droit d’auteur. Néanmoins, la contribution du logiciel se fait de manière automatisée et, à notre sens, l’usage technique d’un logiciel pour créer une image, un texte ou une musique ne donne pas au propriétaire du logiciel de droits sur l’image, sur le texte ou la musique : en l’absence d’une intervention humaine sur le choix des couleurs, des formes ou des sons, aucun droit d’auteur ou de coauteur ne peut être revendiqué au nom du logiciel. Le 21 février 2023, aux Etats-Unis, l’Office du Copyright a décidé que des images de bande dessinée créées par l’IA Midjourney ne pouvaient pas être protégées par le droit d’auteur (5). Les conditions d’utilisation de ces générateurs de textes, d’images ou de musiques peuvent le confirmer. Dans le cas de Dall·E 2, les « Terms of use » prévoient expressément que OpenAI transfère à l’utilisateur tous les droits sur les textes et les images obtenus, et demande même que le contenu ainsi généré soit attribué à la personne qui l’a « créé » ou à sa société. Stability AI octroie une licence de droits d’auteur perpétuelle, mondiale, non exclusive, gratuite, libre de redevances et irrévocable pour tous types d’usage de Stable Diffusion, y compris commercial. Mais en l’absence, selon nous, de tout droit transférable, ces dispositions semblent constituer de simples précautions. Droits de la personne utilisant le logiciel Il est donc essentiel, pour toute personne qui souhaite utiliser, à titre commercial ou non, les contenus créés via des outils d’IA, générative ou créative, de vérifier si la société exploitant le site en ligne où il les crée lui en donne les droits et à quelles conditions. Dès lors que l’apport créatif de la personne qui donne les instructions au générateur d’images, de textes ou de musique est limité à la production d’une idée mise en œuvre par le logiciel, et que les idées ne sont pas protégeables par le droit d’auteur, il est douteux qu’un tribunal reconnaisse la qualité d’auteur à cette personne. Puisque l’utilisateur du logiciel ne conçoit pas mentalement, à l’avance, le contenu obtenu, il est difficile d’avancer que ce contenu porte « l’empreinte de sa personnalité ». Mais surtout, on pourrait aller jusqu’à dénier la qualification d’œuvre de l’esprit aux images, textes ou musiques créés par l’IA. En effet, le code de la propriété intellectuelle (CPI) n’accorde la protection du droit d’auteur qu’à des « œuvres de l’esprit » créées par des humains. « Œuvre de l’esprit » inhérente à l’humain Faute d’action positive créatrice de la part d’un humain, on pourrait avancer qu’aucun « esprit » n’est mobilisé, donc qu’aucune « œuvre de l’esprit »protégeable par le droit d’auteur n’est créée. S’ils ne sont pas des « œuvres de l’esprit », les contenus ainsi créés seraient alors des biens immatériels de droit commun. Ils sont appropriables non pas par le droit d’auteur (6) mais par la possession (7) ou par le contrat (conditions générales octroyant la propriété à l’utilisateur). Il s’agit alors de créations libres de droit, appartenant au domaine public. Cela fait écho à d’autres types d’« œuvres » sans auteur comme les peintures du chimpanzé Congo ou les célèbres selfies pris en 2008 par un singe macaque. Sur ce dernier exemple, les juridictions américaines avaient décidé que l’autoportrait réalisé par un singe n’était pas une œuvre protégeable puisqu’il n’a pas été créé par un humain, sujet de droits. En revanche, dès lors que le résultat obtenu est retravaillé et qu’un apport personnel formel transforme ce résultat, la qualification d’« œuvre de l’esprit » peut être retenue, mais uniquement en raison de la modification originale apportée au résultat produit par le logiciel. Ce cas de figure est d’ailleurs prévu dans la « Sharing & Publication Policy » de Dall·E 2 qui demande à ses utilisateurs modifiant les résultats obtenus de ne pas les présenter comme ayant été entièrement produits par le logiciel ou entièrement produits par un être humain, ce qui est davantage une règle éthique, de transparence, qu’une exigence juridique. En droit français, une œuvre nouvelle qui incorpore une œuvre préexistante sans la participation de son auteur est dite « composite » (8). Si les œuvres préexistantes sont dans le domaine public, leur libre utilisation est permise (sous réserve de l’éventuelle opposition du droit moral par les ayants droit). En revanche, incorporer sans autorisation une œuvre préexistante toujours protégée constitue un acte de contrefaçon. Si, par exemple, on donne l’instruction « Guernica de Picasso en couleurs », on obtiendra une image qui intègre et modifie une œuvre préexistante. Or les œuvres de Picasso ne sont pas dans le domaine public et les ayants droit doivent pouvoir autoriser ou interdire non seulement l’exploitation de l’image obtenue et en demander la destruction, mais peutêtre aussi interdire ou autoriser l’usage des œuvres de Picasso par le logiciel. La production et la publication par un utilisateur d’un « Guernica en couleurs » pourraient donc constituer une contrefaçon ; mais l’intégration de Guernica dans la base de données du logiciel (deep learning) pourrait à elle seule constituer également un acte contrefaisant (9). En effet, le CPI sanctionne le fait « d’éditer, de mettre à la disposition du public ou de communiquer au public, sciemment et sous quelque forme que ce soit, un logiciel manifestement destiné à la mise à disposition du public non autorisée d’œuvres ou d’objets protégés » (10). Le caractère « manifeste » de la mise à disposition, et la qualification de « mise à disposition » elle-même pourraient être discutés. Mais c’est surtout la directive européenne « Copyright » de 2019 (11) qui pourrait venir en aide aux exploitants d’IA génératrices de contenus en offrant une sécurisation de leur usage d’œuvres préexistantes protégées. Elle encadre l’exploitation à toutes fins, y compris commerciales, d’œuvres protégées pour en extraire des informations, notamment dans le cas des générateurs de textes, d’images ou de musiques. Elle prévoit également une possibilité pour les titulaires de droits sur ces œuvres d’en autoriser ou interdire l’usage, hors finalités académiques. Une telle autorisation peut difficilement être préalable et les exploitants, OpenAI par exemple, mettent donc en place des procédures de signalement de création de contenu contrefaisant (12). Le site Haveibeentrained.com propose, quant à lui, de vérifier si une image a été fournie comme input à des générateurs d’images et de signaler son souhait de retirer l’œuvre de la base de données. Mais les artistes se plaignent déjà de la complexité qu’il y a à obtenir un tel retrait (13). On le voit, l’irruption des créations de l’IA perturbe le droit de la propriété intellectuelle, dont les outils actuels sont insuffisants pour répondre aux questionnements suscités. On peut imaginer que l’IA permettra un jour de produire de « fausses » sculptures de Camille Claudel, en s’adjoignant la technologie de l’impression 3D, ou encore de faire écrire à Rimbaud ou à Mozart des poèmes et des symphonies d’un niveau artistique équivalent – voire supérieur ! – qu’ils auraient pu écrire et jouer s’ils n’étaient pas morts si jeunes. La question de l’imitation du style d’auteurs encore vivant n’est d’ailleurs pas sans soulever d’autres débats. Risque de déshumanisation de la création Un avenir possible de l’art pourrait être dans la déshumanisation de la création, ce qui non seulement rendrait indispensable une refonte du premier livre du CPI, sous l’impulsion du règlement européen « AI Act » en discussion (14), mais susciterait en outre des questionnements éthiques. Si le public prend autant de plaisir à lire un roman écrit par une machine ou à admirer une exposition d’œuvres picturales créées par un logiciel, voire à écouter une musique composée et jouée par l’IA, les professions artistiques survivront-elles à cette concurrence ? @