Rapport « NFT » au CSPLA : jetons non-fongibles et propriété intellectuelle font-ils bon ménage ?

La question de la nature juridique des NFT n’est pas près d’être tranchée. Le rapport « Martin-Hot », remis au Conseil supérieur de la propriété littéraire et artistique (CSPLA), soulève les difficultés et fait des recommandations. Dommage que ni l’Arcom ni des magistrats n’aient été consultés.

Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés.

Le Conseil supérieur de la propriété littéraire et artistique (CSPLA), instance consultative chargée de conseiller le ministère de la Culture, s’est vu remettre, le 12 juillet 2022, un rapport sur les jetons non-fongibles, ou NFT (1). L’objectif fixé à leurs auteurs – Jean Martin, président de mission, et Pauline Hot, la rapporteure – était de dresser un état des lieux et une analyse du phénomène du développement des NFT en matière littéraire et artistique.

Nature juridique : question non tranchée
Le rapport formule également vingt propositions destinées à informer les acteurs et à encadrer et sécuriser le marché, à un moment où les ventes de NFT connaissent un important reflux : près de 6 milliards de dollars de volume de ventes en janvier 2022 contre moins de 700 millions en juillet et même à peine 370 millions en août (2). Nous retenons de ce dense rapport de près de cent pages (3) la caractérisation d’une triple difficulté : celle de qualifier juridiquement les NFT, celle de les encadrer juridiquement, et celle de sanctionner des usages contrefaisants qu’ils occasionnent.

La difficile qualification juridique et l’objectif pratique des NFT en matière de propriété littéraire et artistique. Le rapport part d’une constatation de la difficulté de définir les NFT, qualifiés d’« objets juridiques non identifié » (4). Il écarte toute une série de catégories juridiques : les NFT ne sont pas des œuvres d’art puisqu’ils sont le résultat de processus de codage automatisés et non le produit original de l’empreinte de la personnalité d’un auteur ; ils ne sont pas des supports d’œuvres d’art puisque, la plupart du temps, ils ne contiennent pas l’œuvre mais l’indexent ; ils ne sont ni des certificats d’authenticité ni des éléments de DRM (5) puisqu’ils peuvent porter sur des faux ou des contrefaçons ; enfin, ils ne sont pas des contrats, notamment du fait que les parties sont identifiées par des pseudonymes et que le langage de nature logicielle du NFT ne permet pas de s’assurer du consentement des parties sur le contenu du contrat. Le rapport finit par retenir plutôt la qualification, « souple », de « titre de droits sur un jeton mais aussi sur un fichier, dont l’objet, la nature, et l’étendue varie en fonction de la volonté de son émetteur exprimée par les choix techniques et éventuellement juridiques associés au smart contract ». Les NFT seraient donc assimilables à des biens meubles incorporels correspondant à des titres de propriété. Mais quand on sait que la doctrine n’est toujours pas d’accord sur la qualification d’un droit de marque (droit personnel ? droit mobilier incorporel, donc réel ? titre de propriété dont l’objet comprend les composantes traditionnelles d’usus, fructus et abusus ?), on peut imaginer que la question de la nature juridique du NFT n’est pas près d’être tranchée. Quoi qu’il en soit, le rapport liste une série d’usages actuels ou potentiels des NFT dans le secteur littéraire et artistique, qui compose un paysage assez complet. Ce que l’on peut résumer en disant que les NFT représentent de nouvelles opportunités économiques pour les ayants droit. Il peut s’agir tout d’abord de nouveaux usages monnayés : vente d’œuvres « natives » NFT, de copies numériques d’œuvres préexistantes, de prestations associées propres à créer ou renforcer des communautés de « fans », etc.
Ces nouveaux usages monnayables pourraient particulièrement intéresser de nouveaux publics et donc de nouveaux consommateurs. Il peut ensuite s’agir de favoriser le financement de projets littéraires et artistiques : des NFT peuvent être offerts en contrepartie d’un apport à des financements participatifs de films, de publications, d’expositions, … Enfin, l’usage de NFT permet d’authentifier certains droits et de prévenir des usages contrefaisants, au moyen de smart contracts dont le rapport pointe toutefois les limites eu égard au formalisme requis, pour certains contrats, par le code de la propriété intellectuelle. Ainsi, les NFT pourraient être utilisés pour la billetterie de spectacles ou pour encadrer l’usage d’une œuvre sur laquelle des droits sont transférés.

Auteur, titulaire de droits et plateforme
Le rapport recommande donc d’effectuer un travail pédagogique auprès des différents acteurs pour encourager les usages vertueux des NFT, et à clarifier leur régime juridique par des voies normatives.
Le difficile encadrement de l’usage des NFT. Créer un NFT revient soit à créer une œuvre native NFT, soit à créer la copie privée d’une œuvre acquise par le créateur du NFT. Dès lors, le rapport rappelle que ce n’est pas tant la création d’un NFT elle-même qui peut présenter un risque de non-respect des droits que l’inscription du NFT sur une plateforme spécialisée dans l’achat et la revente de NFT. En effet, le créateur du NFT ne peut l’inscrire sur cette plateforme que s’il est auteur ou titulaire des droits sur l’œuvre vers laquelle le NFT « pointe ». Or le rapport rappelle que 80 % des NFT actuellement en ligne sur la plateforme OpenSea, par exemple, sont des contrefaçons ou du spam. Ce qui représente d’ailleurs des risques pour les consommateurs potentiellement abusés.

Les ayants droit en position de force ?
Le rapport évoque bien sûr l’apport de la technologie blockchain sur la sécurisation de la chaîne des droits : les smart contracts liés aux NFT « pointant » vers des œuvres pourraient prévoir une « forme d’automatisation des royalties » qui, si elle ne mettra certainement pas fin aux litiges en la matière, placera les ayants droit en position de force. Le rapport analyse également en détail l’interaction potentielle du droit de suite avec les NFT. Selon le rapport, si les NFT permettent un paiement automatique des ayants droit identifiés dans le smart contract à l’occasion de chaque transfert de droits, il ne semble pas possible de tirer profit de cette technologie pour faire une application du « droit de suite » au sens de l’article L. 122-8 du code de la propriété intellectuelle. Et ce, en raison des critères spécifiques afférents à ce droit, notamment celui du transfert de propriété par un professionnel de la vente d’œuvres.
Enfin, le rapport s’interroge sur la qualification d’atteinte au droit moral par l’inscription d’un NFT sans l’accord de l’auteur de l’œuvre vers laquelle « pointe » le NFT : si, par exemple, une œuvre musicale est reproduite sous forme de fichier mp3, fortement compressé, ou si elle est reproduite sans mention du nom du compositeur, l’atteinte devrait pouvoir être aisément caractérisée ; mais dans le cas contraire, il restera un débat sur la question de savoir si la « transformation » d’une œuvre en NFT peut constituer une violation du droit moral.
Pour favoriser un écosystème vertueux du marché des NFT, le rapport propose l’élaboration de chartes de bonnes pratiques aux niveaux national et européen, ainsi que le développement d’outils d’observation du marché de nature à accroître la transparence sur les mouvements de fonds.
L’encore incertaine sanction des usages de NFT contrefaisants. Un des apports les plus intéressants du rapport est son analyse du statut des plateformes de NFT et des sanctions qu’elles pourraient subir, notamment en raison de la grande présence de contrefaçon parmi les NFT hébergés. Selon le rapport, il n’est pas exclu que le régime des fournisseurs de services de partage de contenu en ligne s’applique à celles qui proposent l’achat et la vente de NFT, et donc que la responsabilité des plateformes soit engagée si elles ne retirent pas promptement les contenus contrefaisants, comme l’exige la loi « Confiance dans l’économique numérique » de 2004. On regrettera, à ce sujet, qu’aucune personne de l’Arcom (ex-CSA et Hadopi) n’ait été consultée par la mission. Il est regrettable aussi de ne pas avoir consulté des magistrats spécialisés en propriété intellectuelle pour anticiper l’appréciation par les tribunaux des NFT allégués de contrefaçon et de l’application de l’arsenal procédural anti-contrefaçon. Ainsi, les praticiens pourront s’interroger sur les conditions pratiques et juridiques de la récolte de preuves de contrefaçon par des NFT : quid de la possibilité de réaliser une saisie contrefaçon descriptive, par exemple ? Il conviendrait donc que les propositions d’informations et de réflexions prônées par le rapport visent également les juges.
Nous sommes plus optimistes que le rapport sur la compétence des tribunaux français pour des atteintes à des droits d’auteur dont les titulaires sont français : les clauses attributives de juridiction des conditions générales de vente (CGV) et des conditions générales d’utilisation (CGU) des plateformes hébergeant les NFT contrefaisants ne seront pas opposables aux auteurs des œuvres contrefaites. Et la reconnaissance de plus en plus large du critère d’accessibilité en matière de contrefaçon en ligne devrait assurer la compétence des tribunaux nationaux pour des actes commis sur des sites accessibles depuis la France.
Mais le rapport soulève une question intéressante : le « caractère immuable » de la blockchain semble rendre quasiment impossible la suppression définitive de NFT contrefaisants, sinon par une procédure de « brûlage » du NFT consistant à le rendre inaccessible et par un déréférencement de la copie contrefaisante de l’œuvre, liée au NFT. La technologie évoluera peut-être encore mais, en l’état, la difficulté à faire disparaître un NFT empêche le contrefacteur de faire disparaître les preuves de la contrefaçon tout en gênant l’exécution de décisions qui ordonneraient la suppression des NFT contrefaisants.

Le « proof of stake » moins énergivore
Enfin, on saluera les alertes et les propositions écologiques du rapport à propos de l’empreinte énergétique des NFT, encore mal définie mais que l’on peut comparer à celle du bitcoin, soit plusieurs dizaines de térawatts-heure (TWh) par an, c’est-à-dire la consommation électrique de pays entiers. La plupart des blockchains fonctionnent aujourd’hui sous des modèles de « preuve de travail » (proof of work) gourmandes en énergie. Or des modèles de « preuve de participation » (proof of stake) apparaissent, qui ne reposent pas sur la puissance de calcul des utilisateurs, mais sur leur participation à la crypto-monnaie. La blockchain Ethereum, très utilisée pour les NFT, est ainsi bien moins énergivore (6) depuis le 15 septembre 2022. @

Le sud-coréen Naver s’impose comme le numéro un mondial du webtoon, en révolutionnant la BD

Le phénomène « webtoon » se propage bien au-delà de la Corée du Sud, où le groupe Naver est devenu la major mondiale dans ce domaine. Le Festival international de la bande dessinée à Angoulême n’y échappe pas, ni le prochain Salon du livre de Paris.

Le Festival international de la bande dessinée (FIBD), qui se tient du 17 au 20 mars à Angoulême, résiste encore avec des tonnes de papier à la dématérialisation de la BD. Or le début de la numérisation des bulles ne date pas d’hier, mais cette année la tendance s’accélère plus que jamais avec l’engouement pour le webtoon. « Cela nous vient de Corée. C’est une bande déroulante, par chapitres, à raison d’un par semaine, comme un feuilleton, qu’on peut lire en faisant défiler avec le pouce sur l’écran du téléphone portable », définit Marc-Antoine Boidin, vice-président du Syndicat national des auteurs et des compositeurs (Snac) et représentant de son groupement BD (1).

« L’avenir de la BD se joue là » (Boidin)
« Il est possible que ce soit l’avenir de la bande dessinée qui se joue là. Les jeunes générations sont plus attirées par une lecture numérique que sur le papier », estime même Marc- Antoine Boidin, qui est auteur de bandes dessinées (2), diplômé de l’école de BD d’Angoulême. C’est justement dans la capitale de la Charente que la 49e édition du FIBD sera aussi impactée par ce phénomène des webtoons. Une table ronde d’éditeurs et d’auteur(e)s de webtoons est organisé le 17 mars par le Snac-BD lors du festival d’Angoulême, où sera présente Emilie Coudrat, directrice marketing de Naver France, filiale française du groupe sud-coréen Naver, présidé et dirigé par Seong-sook Han (photo). Ce géant du numérique et de l’Internet, basé à Seongnam au sud de Séoul, déploie depuis 2004 sa filiale Naver Webtoon devenue le numéro un mondial dans cette catégorie de bandes dessinées numériques adaptées aux smartphones. Le webtoon se lit en faisant défiler verticalement avec son doigt les cases illustrées, procédé éditorial que les manwhas coréens et les mangas japonais ont rapidement adopté.
En France, les mangas sont déjà largement en tête des ventes de BD imprimées. Les webtoons, eux, caracolent en ligne. « Un événement est prévu le 18 mars à Angoulême autour des créateurs », indique Emilie Coudrat à Edition Multimédi@. Pour faire face à la forte demande, l’idée est d’aller à la rencontre d’auteurs pour leur présenter la plateforme Webtoons.com, éditée par la filiale Webtoon Entertainment (3), et leur expliquer « comment devenir créateur de webtoon ». La rencontre, prévue au sein du Marché international des droits (Mid) organisé au sein du FIBD pour les professionnels du 9e Art, devrait se terminer par un speed dating des candidats avec des éditeurs dans ce domaine. Car si les premiers épisodes des webtoons sont le plus souvent gratuits, les suivants sont payants ou sur abonnement. Ces feuilletons – des « scrolltons » devrait-on dire (4) – peuvent être des freemiums très rentables. Rien qu’en Corée du Sud, le marché des webtoons pèse presque autant à lui seul (750 millions d’euros, selon Kocca) que tout le marché français de la BD (890 millions d’euros, selon GfK). « En France, les éditeurs qui diffusent sur (la plateforme) Webtoon proposent aux auteurs des contrats numériques, et si la bande dessinée marche bien, elle peut être imprimée », a indiqué Marc-Antoine Boidin aux membres du Snac. Pour autant, relève-t-il, « les contrats proposés aux auteurs de webtoons semblent quelque peu être en roue libre. Ils sont souvent soumis à une clause de confidentialité, ce qui ne facilite pas le rôle de notre syndicat face à cette nouvelle pratique, qu’il faut cadrer d’urgence afin qu’elle puisse être favorable aux auteurs ».
Car la production de webtoons se fait presque à marche forcée : le rythme, pour les dessinateurs, est soutenu et cela peut aller jusqu’à 80 cases à fournir à l’éditeur en une semaine – souvent la périodicité pour les séries. Celles-ci peuvent compter de quarante à quatre-vingts épisodes. Si des initiatives françaises de plateformes de webtoons ont été lancées – comme Verytoon.com du groupe indépendant Delcourt (deuxième plus grand éditeur de BD francophones après Média-Participations, dont la plateforme Izneo.com diffuse aussi des webtoons), Webtoonfactory.com des éditions Dupuis, Delitoon.com ou encore Toomics.com –, le sudcoréen Naver domine ce marché en pleine (5) effervescence.

Introduire Naver Webtoon au Nasdaq ?
« En janvier 2021, nous avons finalisé l’acquisition de Wattpad, la plus grande plateforme de webfiction au monde [d’origine américaine, ndlr], dans le but de devenir la plus grande plateforme mondiale de narration basée sur les synergies entre Naver Webtoon et Wattpad », s’était félicitée l’an dernier Seong-sook Han. En janvier 2022, le groupe Naver revendique un cumul d’audience mondial record sur ses webtoons de 82 millions de lecteurs actifs par mois, avec un volume de transactions mensuel d’environ 75 millions d’euros (6). Wattpad lui apporte 90 millions d’utilisateurs par mois supplémentaires. Le sud-coréen a le projet depuis un an d’introduire Naver Webtoon au Nasdaq à New-York. @

Charles de Laubier

L’intelligence artificielle s’immisce dans l’industrie du livre, assise sur un tas d’or : ses données

La 22e édition des Assises du livre numérique, organisées le 6 décembre par le Syndicat national de l’édition (SNE), a pour thème « l’application de l’intelligence artificielle (IA) dans l’édition de livres ». Avec comme « invité inaugural » : Tom Lebrun, co-auteur en 2020 d’un livre blanc sur l’IA.

Ce n’est pas la première fois que les Assises du livre numérique (1) traitent de la question de l’intelligence artificielle (IA) dans l’industrie du livre. Déjà en 2017, lors de l’édition de 2017, une table-ronde avait été consacrés à ce sujet et avait fait l’objet d’une synthèse (2). Celle-ci relevait plus d’un défrichage de la part de la commission numérique que préside depuis plus de sept ans Virginie Clayssen (photo) au sein du Syndicat national de l’édition (SNE), elle-même étant par ailleurs directrice du patrimoine et de la numérisation chez Editis (groupe Vivendi).

Apprivoiser les data de l’IA
Quatre ans après cette table-ronde, le SNE muscle son approche de l’IA en lui consacrant pour la première fois – le 6 décembre pour cette 22e édition et « uniquement en distanciel » – la totalité du programme de ses Assises du livre numérique. « Comment l’intelligence artificielle peut-elle intervenir dans les différentes étapes de la chaîne du livre, de la traduction à la diffusion en passant par la fabrication ? », s’interrogent l’industrie du livre. Un invité inaugural de cette journée doit répondre à la question plus sensible : « Comment l’intelligence artificielle peut-elle transformer le monde de l’édition ? ». Cet intervenant est Tom Lebrun (photo page suivante), juriste et doctorant à l’université Laval (UL), au Québec (Canada), spécialiste en droit et intelligence artificielle, ainsi que co-auteur avec René Audet du livre blanc « L’intelligence artificielle dans le monde de l’édition » publié en septembre 2020 sous licence libre creative commons (3). Tom Lebrun est spécialisé en droit du numérique et en droit d’auteur. Ses travaux de recherche portent actuellement sur la question de « la génération de textes par intelligence artificielle ». Il publie régulièrement sur les questions de droit d’auteur, de culture numérique et de rapport entre droit et IA. Ses recherches sont financées par un fonds québécois (4). « L’intelligence artificielle fait l’objet de fantasmes et de craintes souvent irraisonnées. Elle trouve à s’insérer dans toutes les sphères de notre société : consommation, médecine, industrie, vie quotidienne, … Pourtant, encore peu de travaux ont été consacrés à sa mobilisation par les différents acteurs de l’écosystème du livre. Ce manque est d’autant plus critique que les grands acteurs du numérique – Amazon en tête – s’engouffrent très largement dans cette voie depuis un certain nombre d’années », font justement remarquer Tom Lebrun et René Audet dans l’introduction de leur livre blanc d’une trentaine de pages et mis en ligne gratuitement (5). Contacté par Edition Multimédi@, Tom Lebrun indique que depuis sa parution il y a un an, « les différences sont mineures et strictement quantitatives ». Et aujourd’hui, « les systèmes sont simplement plus performants et plus convaincants ». Les deux auteurs relèvent que le monde de l’édition – habitué jusqu’alors à la « rétroaction entre ses différents acteurs (le libraire informant le diffuseur, ce dernier informant l’éditeur, etc.) » – évolue désormais dans « un contexte de pressurisation économique croissante provoquée par la mainmise de quelques acteurs de la vente en ligne, particulièrement Amazon ». Aussi, la raison d’être de ce livre blanc est d’esquisser pour l’écosystème du livre « une possible piste à suivre », à savoir « l’idée d’une concertation de certains de ses acteurs sur l’utilisation d’IA (voire l’éventuelle mise en commun des données collectées) ». Dans leur conclusion, les deux auteurs québécois appellent toute la filière du livre (maisons d’édition, distributeurs, librairies, plateformes, …) à investir dans les technologies IA si elle n’a pas déjà commencé à le faire car « face à cette concurrence [des acteurs comme Amazon], chacun des acteurs de la chaîne du livre doit se demander comment faire face à ce mouvement de fond, qui s’apprête à modifier en profondeur de nombreux métiers du livre ». Le mieux pour l’introduction d’IA dans les différents maillons de la chaîne est, d’après eux, d’exploiter les différentes « données déjà disponibles et que ne possède pas la concurrence, quitte à nouer des accords asymétriques entre les différents acteurs intéressés pour y accéder ».

La chaîne du livre impactée
D’autant que ces données existent – statistiques centralisées des distributeurs, données des éditeurs ou encore celles collectées par les bibliothèques et les libraires – et sont des actifs précieux que tous les acteurs du milieu du livre possèdent, en particulier dans les bibliothèques, car « diversifier ses ressources en données peut constituer une stratégie payante ». Ces data constituent en tant que telles des ressources stratégiques considérables. Cela suppose que les maisons d’édition et l’ensemble des acteurs qui gravitent autour d’elles se mettent à « récolter » de façon optimale la data du livre, y compris les données qui ne sont pas « moissonnées » car, rappellent les auteurs du livre blanc de l’Université Laval, « le fonctionnement des applications d’IA [est] lié au volume et à la qualité des données disponibles ». Le succès des solutions d’IA dépendra surtout de la compatibilité des données entre elles. Pour ce faire, les auteurs recommandent d’« établir un protocole de normalisation des données en accord avec tous les acteurs concernés est un préalable nécessaire, sur lequel les pouvoirs publics ont un rôle à jouer ».

L’IA se met à écrire livres et articles !
Encore faut-il « catégoriser et étiqueter les données en fonction des objectifs visés », sans quoi, préviennent-ils, « les données collectées sont à peu près inutiles sans cette étape fondamentale de préparation des données ». Cela passe aussi par des chantiers communs entre des acteurs de la filière du livre, y compris avec des plateformes numériques, ainsi que par la mobilisation d’institutions et d’acteurs gouvernementaux pour contribuer au financement du développement de prototypes ou d’éléments logiciels partagés.« La mise en commun de données appelle une concertation, notamment dans le développement de ressources logicielles (aussi rendu possible par la création d’un cadre réglementaire favorable) », est-il souligné. Mais qui dit data dit cyberattaque : la cybersécurité des données « livrées » va devenir primordiale pour l’industrie du livre jusqu’alors épargnée par sa matière première historique qu’est le papier. La dématérialisation des ouvrages en tout genre fait basculer les maisons d’édition, parfois centenaires, dans le nuage informatique et ses fléaux.
Même si le livre blanc n’aborde pas le sujet du nuage informatique liés à l’IA, le cloud va pourtant permettre à l’industrie du livre de créer elle aussi des « lacs de données », des « Data Lake », à savoir le stockage des données dans leurs formats originaux ou peu modifiés, et à partir duquel leur analyse et leur valorisation peuvent s’opérer sous plusieurs formes révolutionnaires pour l’édition : data mining, text and data mining, marchine learning, business intelligence, cognitive search, master data management, etc. Encore fautil que l’industrie du livre sache ce qu’elle veut faire de cet « or noir du XXIe siècle » : des algorithmes de recommandation de livres ? de la traduction automatique d’ouvrage pour l’international (comme avec DeepL, l’IA utilisée par l’éditeur scientifique Springer) ? de l’animation de robots conversationnels (chatbots) pour interagir avec les lecteurs à la place de l’auteur et/ou de l’éditeur ? des réseaux de neurones artificiels afin par exemple de connaître les lecteurs d’un livre ? de la fouille intelligente de textes numérisés ? ou encore de la génération de romans ou d’essais à l’aide d’une IA créative ? Sur cette dernière possibilité, le juriste Tom Lebrun travaille justement en ce moment sur la question de la génération de textes par intelligence artificielle. « Au-delà du fantasme, beaucoup d’outils actuels permettent déjà d’écrire », écrit-il dans le livre blanc. La maîtrise du langage naturel – « et donc de l’écriture » – ne relève plus de la science-fiction. Et le livre blanc de mentionner la société OpenAI qui, cofondée par le milliardaire sud-africano-canadoaméricain Elon Musk il y a six ans, a développé en 2019 une IA nommée « GPT-2 » – devenue le 18 novembre dernier « GPT-3 » (6) – et capable de générer des textes de fiction ou de journalisme. Si la bêta 2 donnait des résultats « à peu près crédibles pour une lecture rapide et superficielle », la bêta 3 devrait avoir appris de ses erreurs. Et du livre à la presse, il n’y a qu’un pas : « L’écriture générée par IA est également utilisée dans le journalisme. Environ un tiers des dépêches publiées par [l’agence de presse] Bloomberg est ainsi générée par des machines », affirment les auteurs. Tom Lebrun signale à EM@ un modèle de génération de texte francophone développé par la société suisse Coteries et appelé Cedille, en version bêta (7). Le livre blanc aurait pu évoquer Dreamwriter, un algorithme conçu par le chinois Tencent, qui avait même écrit un article financier reproduit ensuite sans autorisation par un tiers. Un tribunal de Shenzhen en Chine avait reconnu fin 2019 et pour la première fois que Dreamwriter pouvait bénéficier de la protection du droit d’auteur (8). « L’IA pourrait conduire à développer des assistants créatifs personnifiés, de façon à aider à écrire ou même de dessiner “à la manière” d’un auteur, par exemple », estiment Tom Lebrun et René Audet. Tout au long de la vie d’un livre, de son écriture à sa lecture en passant par son édition, l’intelligence artificielle est amenée à y mettre son grain de sel, voire plus si affinités. Dans son roman « Exemplaire de démonstration » (Fayard, 2002), son auteur Philippe Vasset imaginait Scriptgenerator, un logiciel rédacteur de best-sellers, personnalisable par l’éditeur en fonction d’un public lecteur cible (9).

Encore beaucoup de progrès à faire
« Le risque d’une écriture entièrement algorithmisée existe bel et bien, mais pas exactement de la manière dont on l’imagine. Les auteurs de nouvelles strictement informatives, de récits tenant du divertissement, ont peutêtre effectivement du souci à se faire », ont déjà prévenu Tom Lebrun et René Audet dans une interview accordée en octobre 2020 à la Faculté des lettres et des sciences humaines (FLSH). Mais d’ajouter : « A l’inverse, celles et ceux qui pratiquent du journalisme d’investigation, celles et ceux qui travaillent à un art littéraire (…), en bref, toutes celles et ceux qui proposent un rapport critique et construit au texte, celles et ceux-là entrent dans une catégorie de production textuelle que la machine a encore du mal à investir » (10). Ouf ! @

Charles de Laubier

DSA & DMA : compromis numérique en vue entre les Etats membres, à défaut de consensus

Les deux propositions de règlement, l’un pour un « marché unique des services numériques » (DSA) et l’autre sur les « marchés contestables et équitables dans le secteur numérique » (DMA), entrent dans leur dernière ligne droite législative. La Commission européenne en a été l’initiatrice il y a un an.

L’issue des tractations et des lobbyings autour des deux propositions de règlement DSA (Digital Services Act) et DMA (Digital Markets Act) va maintenant se jouer entre l’actuelle présidence slovène de l’Union européenne (jusqu’au 31 décembre) et la prochaine présidence française (du 1er janvier au 30 juin 2022). Une réunion des Etats membres des Vingt-sept est prévue le 25 novembre – « Rue de la Loi », dans les locaux de la Commission européenne à Bruxe l le s – s o u s le thème de « Compétitivité » dans le marché intérieur et l’industrie.

Pays d’origine ou de destination ?
Si la présidence du Conseil de l’Union européenne (UE) est tournante, au rythme semestriel, la présidence de la Commission européenne – actuellement Ursula von der Leyen et son bras armé digital Margrethe Vestager (photo) – poursuit son mandat de cinq ans jusqu’à fin 2024 (renouvelable une fois). L’exécutif européen entend bien être doté d’ici-là de pouvoirs pour veiller à la bonne application des deux propositions de règlement – DSA et DMA – qu’elle avait présentées le 15 décembre 2020, il y a près d’un an. Dans le projet de compromis du DSA daté du 18 novembre, que Edition Multimédi@ s’est procuré (1), il est prévu que « la Commission [européenne] dispose des pouvoirs de supervision et d’application des obligations applicables aux très grandes plateformes en ligne ou aux très grands moteurs de recherche en ligne ». Ce projet de texte sur le « marché unique des services numériques » sera soumis, comme celui sur les « marchés contestables et équitables dans le secteur numérique », aux gouvernements des Etats membres qui se réunissent donc le 25 novembre pour tenter d’adopter une position commune sur la régulation de l’Internet. Sont aussi prévues, à l’ordre du jour (2), des délibérations législatives sur le projet de compromis du DMA, daté lui du 5 novembre et que nous sommes également procurés (3).
L’un des points de divergence entre les Etats européens portait sur le principe du pays d’origine, qui, dans la proposition initiale de la Commission européenne, donne compétence transfrontalière au pays où l’entreprise numérique est établie, contrairement au principe du pays de destination. Des pays, dont la France, ont milité contre ce principe du pays d’origine, préféré par des pays comme l’Irlande ou le Luxembourg où de nombreuses Big Tech ont leur siège social européen. Par exemple, Google/ YouTube, Facebook, Microsoft et Apple ont leur quartier général européen respectif en Irlande (à la fiscalité super attractive de 12,5 %) – les trois premiers à Dublin et le dernier à Cork. Mais une dizaine de pays de l’UE emmenés par l’Irlande justement ont fait barrage à la France en estimant que le principe du pays de destination avancée par celle-ci présentait des risques de fragmentation du marché unique numérique et risquait de devenir une usine à gaz administrative pour les plateformes digitales concernées.
« Nous défendons l’idée que la Commission [européenne] puisse jouer un rôle plus important dans la régulation directe », avait déclaré le président de la République française, Emmanuel Macron, le 22 octobre dernier à l’issue du sommet européen (4). Par la suite, de façon à limiter le principe du pays d’origine (à défaut d’avoir eu gain de cause sur le principe du pays de destination), la France a proposé que l’exécutif européen ait « une autorité exclusive » sur les très grandes plateformes en ligne transfrontalière – ce que l’on désigne à Bruxelles par le sigle VLOP (Very Large Online Platforms), pour ne pas dire GAFAM. L’idée de la présidence slovène – à laquelle adhère la France et d’autres Etats membres soucieux d’éviter les blocages et les impasses (5) – est de donner les pleins pouvoirs à la Commission européenne – et notamment à son actuelle vice-présidente Margrethe Vestager – pour ne pas laisser faire des pays comme l’Irlande si le principe du pays d’origine était appliqué dans la mise en œuvre des futurs règlements DSA et DMA.

Compromis de la présidence slovène
C’est le 26 octobre dernier que le gouvernement français a formalisé sa proposition à travers des amendements portant sur le pouvoir de régulation de la Commission européenne sur le marché unique numérique. Finalement, la France s’est ralliée au compromis de la présidence slovène : maintenir le principe du pays d’origine, renoncer à la compétence exclusive de la Commission européenne sur les VLOP, mais en revanche « il faudrait au moins trois Etats membres pour demander à l’autorité dirigeante d’un autre pays d’ouvrir une enquête » à l’encontre d’une plateforme numérique. Et dans le cas où un Etat membre (via son autorité de la concurrence ou celle de la protection des données par exemple) serait en désaccord avec au moins un autre pays européen, ou à l’inverse ne prenait aucune mesure, la Commission européenne serait en droit de reprendre la main sur l’affaire. « Les conclusions préliminaires de l’enquête seraient ensuite communiquées au conseil d’administration des “coordonnateurs des services numériques” [ou Digital Services Coordinators (DSC), ndlr], qui rendra son avis à la Commission européenne qui en tiendra compte dans sa décision finale ». Après cette procédure d’enquête, l’exécutif européen devra faire part – dans un délai de deux mois – de sa décision contraignante pour l’autorité nationale concernée.

Pouvoirs de la Commission européenne
La Commission européenne pourrait devenir un super régulateur vis-à-vis des GAFAM, en ayant à trancher sur des différends portant sur les contenus circulant sur les grandes plateformes transfrontalières (contenus illicites, fausses informations, œuvres piratées, violations de la vie privée, etc.). La modération des échanges sur les réseaux sociaux tels que Facebook, Twitter, TikTok ou Snapchat pourrait par exemple être délicate pour l’exécutif européen, chargé de s’assurer que les contenus illicites et les cyberhaines sont bannis, car cela pourrait heurter dans certains cas les sensibilités nationales et porter atteinte à la liberté d’expression. Egalement délicats à réguler, les « deepfake » seront, eux, dans le viseur du futur règlement Artificial Intelligence Act (lire p. 4). Quant à la lutte contre les fake news, la désinformation et aux rumeurs non fondées, elle ne s’appuiera pas directement sur le règlement DSA mais sur le code de bonnes pratiques lancé en 2018 par la Commission européenne avec Google, Facebook, Twitter, Microsoft, Mozilla et TikTok, ainsi qu’avec des entreprises du secteur de la publicité. Ce « Code européen de bonnes pratiques contre la désinformation » a été revisité en mai dernier (6) après qu’il ait été jugé insuffisant par une autre vise-présidente de la Commission européenne, Véra Jourová, (chargée, elle, des valeurs et de la transparence), et par la Cour des comptes européenne dans un rapport publié en juin dernier (7). Ce dispositive d’auto-régulation est en train d’être durci avec les plateformes et acteurs concernés afin qu’une nouvelle version renforcée soit opérationnelle début 2022. Du côté des industries culturelles cette fois, les attentes sont élevées et les actions de lobbying aussi (8). Pour elles – musique, audiovisuel, presse, livre, photo, télévision, sports, jeux vidéo, etc. –, le projet de règlement DSA est déjà « une occasion manquée et un pas en arrière ». Plus d’une vingtaine d’organisations culturelles les représentant l’ont fait savoir directement à la présidence slovène, à la rapporteure du DSA au Parlement européen, Christel Schaldemose (9), ainsi qu’aux Etats membres, dans une « lettre ouverte » datée du 26 octobre dernier (10). « Si les propositions, dans leur forme actuelle, étaient approuvées, le DSA affaiblirait le régime actuel de responsabilité [des plateformes numériques ou hébergeur, ndlr] et aurait un effet néfaste sur les normes et les bonnes pratiques existantes en matière de traitement des contenus et activités illégaux, y compris les violations en ligne du droit d’auteur et des droits voisins », mettent en garde les industries culturelles. Parmi les signataires de cette missive, il y a par exemple l’IFPI pour les producteurs de musique enregistrée (dont fait partie le Snep en France), la FEP pour les éditeurs de livre (dont est membre le SNE en France), Eurocinema pour les producteurs cinématographiques et audiovisuels (dont font partie l’UPC, le SPI ou l’ARP en France), ou encore la Gesac pour les sociétés d’auteurs et de compositeurs (donc la Sacem). En revanche, la presse n’est curieusement pas représentée. Dans leur « signal d’alarme », les industries culturelles s’en prennent à la « sphère de sécurité » (safe harbour) aménagée pour les moteurs de recherche qui bénéficient, selon elles, d’« une immunité large et injustifiée » – alors qu’ils sont tenus par ailleurs de supprimer promptement et efficacement les contenus illicites. « Nous sommes également très préoccupés par les propositions prévoyant que les services intermédiaires puissent continuer à bénéficier des privilèges du safe harbour », ajoutent les signataires. Ils fustigent aussi « l’introduction de délais spécifiques (même supérieurs) pour la suppression de contenu illicites [qui] affaiblirait considérablement l’obligation actuelle de prendre des mesures “expéditives” ». « Pas assez », disent les industries culturelles Les industries culturelles préconisent au contraire « le “retrait rapide” autrement dit “le plus rapidement possible” pour tout le contenu [illicites ou piratés, ndlr], et même “immédiatement” pendant la diffusion en direct [de retransmission d’événements sportifs par exemple, ndlr] et pour le contenu qui a une sensibilité particulière au temps ». Dernier grief : la vingtaine d’organisations culturelles demandent à ce « que le champ d’application des obligations soit étendu pour assurer la traçabilité des utilisateurs professionnels (Know Your Business Customer) afin de s’attaquer au grave problème des opérateurs illégaux agissant à l’échelle commerciale et se cachant derrière de fausses identités ». A suivre. @

Charles de Laubier

La « liste noire » des sites pirates très attendue

En fait. Le 9 avril, la Société civile des auteurs multimédias (Scam) et la société Auteurs-réalisateurs-producteurs (l’ARP) ont chacune « salu[é] » le projet de loi pour « la régulation et la protection de l’accès aux œuvres culturelles à l’ère numérique ». Dans l’arsenal contre le piratage en ligne, la « liste noire » est très attendue.

En clair. « Les mesures de protection contre le piratage des œuvres (…) via la publication de “listes noires” et la lutte contre les sites miroirs sont des dispositifs de bon sens », déclare la Société civile des auteurs multimédias (Scam) à propos de ce pouvoir de la future Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Celle-ci « peut rendre publique l’inscription sur une liste du nom et des agissements » de sites web qui « port[ent] atteinte, de manière grave et répétée, aux droits d’auteur ou aux droits voisins ». De son côté, la société Auteurs-réalisateurs-producteurs (l’ARP) salue en premier les « moyens renforcés afin (…) de lutter contre le piratage ».
Par ailleurs, l’ARP et deux autres organismes du cinéma français (1), le Blic et le Bloc, ont rappelé le 7 avril que, selon eux, « la mise en œuvre par le gouvernement de mesures d’ampleur de lutte contre le piratage constitue un préalable indispensable à toute réforme de la chronologie des médias » (2). Le 8 avril, la Société des auteurs et compositeurs dramatiques (SACD) s’est dite, elle, satisfaite de voir que « la lutte contre les sites spécialisés dans la contrefaçon sur Internet comme celle contre les sites miroirs [soient] ainsi des objectifs essentiels poursuivis par la nouvelle autorité ». C’est dire que la « liste noire » est attendue de pied ferme par le 7e Art et, bien que plus discrète sur ce projet de loi, l’industrie musicale. Ce texte, que le gouvernement a déposé le 8 avril au Sénat, sera discuté en séance publique les 18 et 19 mai. Les ayants droit pourront invoquer cette « liste noire » devant le juge pour ordonner aux opérateurs Internet (FAI) le blocage des sites pirates incriminés. Or l’Arcep prévient, dans son avis du 30 mars, qu’obliger un FAI à les bloquer sur la base des contenus piratés portés à la connaissance de ce dernier « apparaît en pratique techniquement irréaliste et sa proportionnalité soulève donc de fortes interrogations ».
Le Conseil d’Etat, lui, a proposé le 1er avril que « la procédure » d’« inscription sur une liste noire, qui présente le caractère de sanction », soit confiée à un « rapporteur indépendant » et non pas à un « membre du collège chargé de la réponse graduée ». Quant aux acteurs du e-paiement et de la publicité en ligne, ils devront eux aussi – follow the money oblige – cesser tout lien avec les sites blacklistés. @