Les livres générés par de l’IA bousculent les maisons d’édition traditionnelles du monde entier

Alors que le Syndicat national de l’édition (SNE) – qui regroupe les majors françaises du livre parmi plus de 700 membres – organise le 42e Festival du Livre de Paris (12-13 avril), les IA génératives s’invitent parmi les « auteurs » avec des ouvrages dont elles ont écrit tout ou partie. Disruptif.

Pendant que l’industrie du livre fait son festival à Paris, l’intelligence artificielle vient jouer les trouble-fête en s’immisçant de plus en plus dans le monde de l’édition. Une nouvelle génération d’éditeurs, férus de technologies, s’apprêtent à disrupter la production de livres en accélérant leur mise sur le marché grâce notamment à l’IA générative pour raccourcir le temps de l’écriture et les éditer le plus rapidement possible auprès des lecteurs.

L’IA édite un livre en quelques jours
« Le monde de l’édition a peu changé depuis l’époque de Gutenberg et appelle à la transformation », prévient la startup américaine Spines (ex-BooxAI), cofondée en 2021 par l’Israélien Yehuda Niv (photo de gauche). Spines est une plateforme d’édition basée sur l’intelligence artificielle, qui propose aux auteurs « un moyen facile de publier, distribuer et commercialiser leurs livres, le tout en un seul endroit, en seulement 8 jours, du manuscrit à un titre publié, y compris la relecture, le formatage, la conception de la couverture, la distribution et le marketing sur tous les principaux canaux et plateformes ». Une semaine ! Là où les maisons traditionnelles mettent des mois avant de publier un livre. Yehuda Niv, PDG de la startup basée en Floride (1), et ses équipes veulent « réinventer le futur de l’édition ». « Nous voulons publier jusqu’à 8.000 livres en 2025. L’objectif est d’aider 1 million d’auteurs à publier leurs livres », avait déclaré Yehuda Niv, en novembre dernier à The Bookseller (2).
La plateforme Spines revendique (au 11 avril 2025) plus de (suite)

Pourquoi le Conseil constitutionnel a censuré le délit d’« outrage en ligne » dans la loi SREN

La loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (SREN) a été publiée le lendemain au Journal Officiel, après avoir été expurgé des articles censurés par le Conseil constitutionnel. Les sages de la République ont jugé le délit d’outrage en ligne d’inconstitutionnel.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

En invalidant cinq articles de la loi, dont le délit d’« outrage en ligne » (1), le Conseil constitutionnel – par décision du 17 mai 2024 (2) – a contraint le législateur à revoir son approche de la régulation de l’espace numérique. La loi visant à sécuriser et à réguler l’espace numérique (SREN) introduisait le délit d’outrage en ligne, qui aurait été puni d’un an d’emprisonnement et de 3.750 euros d’amende forfaitaire en cas de diffusion en ligne de tout contenu portant atteinte à la dignité d’une personne ou présentant un caractère injurieux, dégradant, humiliant, ou créant une situation intimidante, hostile ou offensante.

Un délit qui manquait d’objectivité
Le Conseil constitutionnel, qui avait été saisi par deux groupes de députés différents (respectivement les 17 et 19 avril 2024), a jugé que les faits réprimés par cette nouvelle infraction étaient déjà couverts par des qualifications pénales existantes, y compris lorsque ces abus sont commis en ligne. Ainsi par exemple, les sages de la République ont relevé que la diffamation et l’injure sont réprimées par les articles 32 et 33 de la loi du 29 juillet 1881 sur la liberté de la presse (3), les violences psychologiques par le code pénal (4), et le harcèlement par le code pénal également (5).
Rappelons que la diffamation se définit comme toute allégation ou imputation d’un fait portant atteinte à l’honneur ou à la considération de la personne auquel le fait est imputé, lorsqu’elle est commise publiquement. Tandis que l’injure se définit comme toute expression outrageante, termes de mépris ou invective qui ne renferme l’imputation d’aucun fait, lorsqu’elle est proférée publiquement. En outre, le Conseil constitutionnel a relevé que cette nouvelle infraction de délit d’« outrage en ligne » manquait d’objectivité et créait un climat d’incertitude attentatoire à la liberté, en nécessitant une appréciation subjective du ressenti de la personne visée (« incertitude sur la licéité des comportements incriminés »). « Les dispositions contestées font dépendre la caractérisation de l’infraction de l’appréciation d’éléments subjectifs tenant à la perception de la victime. Elles font ainsi peser une incertitude sur la licéité des comportements réprimés », estime notamment le Conseil Constitutionnel. Il a donc jugé que cette disposition portait atteinte à la liberté d’expression et de communication de manière non nécessaire, non adaptée et disproportionnée.

Les enjeux du droit d’auteur à l’ère de l’intelligence artificielle (IA) : entre exceptions et interprétations

La propriété intellectuelle est entrée dans une zone de turbulences provoquées par les IA génératives. L’utilisation d’œuvres reste soumise à l’autorisation des auteurs, mais le droit d’auteur est limité dans certains cas comme la fouille de textes et de données. L’AI Act sera à interpréter.

Par Jade Griffaton et Emma Hanoun, avocates, DJS Avocats*

La récente législation européenne sur l’intelligence artificielle (IA) – l’AI Act dans sa dernière version de compromis final datée du 26 janvier 2024 (1) (*) (**) – adopte une définition flexible de « système d’IA », désigné comme « un système basé sur des machines conçues pour fonctionner avec différents niveaux d’autonomie et d’adaptabilité après leur déploiement et qui, à partir des données qu’il reçoit, génère des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels » (2).

Exception de « fouille de textes et de données »
La question de la relation entre le droit de la propriété littéraire et artistique et l’IA est une préoccupation ancienne. Lors de la phase d’entraînement, le système d’IA reçoit des données. A ce stade, se pose la question de l’intégration de contenus protégés par le droit d’auteur aux fins du développement du système. Lors de la phase de génération, le système d’IA génère des résultats, voire des créations, à la demande de l’humain. Se pose alors la question de l’encadrement juridique de ces créations générées, en tout ou partie, par un système d’IA. Ces problématiques juridiques actuelles doivent être envisagées à la lumière des nouveaux textes destinés à réguler le domaine de l’IA, et notamment la récente proposition de règlement européen sur l’IA, et la proposition de loi française visant à encadrer l’utilisation de l’IA par le droit d’auteur (3).
De nouveaux contours de la possibilité d’utiliser des œuvres pour entraîner l’IA ? Les systèmes d’IA ont besoin, au stade de leur apprentissage et développement, d’avoir accès à de grands volumes de textes, images, vidéos et autres données. Ces contenus sont susceptibles d’être protégés par le droit d’auteur. L’objectif principal du règlement IA, dévoilé en 2021 par la Commission européenne, consiste à réguler les systèmes d’IA introduits sur le marché européen, en adoptant une approche axée sur les risques et en assurant un niveau élevé de protection des droits fondamentaux, de la santé publique, de la sécurité et de l’environnement.

Les majors Universal Music, Sony Music et Warner Music négocient avec les éditeurs d’IA musicales

Google et sa filiale YouTube négocient avec Universal Music l’autorisation d’utiliser pour son IA musical, MusicML, les données de la première « maison de disques ». Les autres majors, Warner Music et Sony Music, devront aussi trouver des accords. C’est plus une opportunité qu’une menace.

Le 21 août, YouTube a annoncé un accord avec Universal Music autour de l’IA musicale. Le Financial Times avait par ailleurs révélé le 9 août que sa maison mère Google et la première major mondiale de la musique enregistrée étaient en pourparlers pour autoriser que les mélodies et les voix des artistes soient exploitées par l’intelligence artificielle MusicLM (développée par Google) afin que celle-ci puisse créer de nouvelles chansons. Si ces négociations devaient aboutir, un accord de ce type serait une première pour l’industrie musicale qui, jusqu’à maintenant, voient plus ces IA génératives de musiques comme une menace pour elle.

Accords avec Google et YouTube
Quel est l’impact de l’IA générative sur l’industrie musicale ? « Imaginez que quelqu’un vole tout ce qui a de la valeur à une entreprise et l’utilise pour lancer une entreprise pour lui faire concurrence. C’est exactement ce qui se passe avec beaucoup de grands modèles d’IA d’apprentissage automatique qui existent aujourd’hui. Il s’agit d’une concurrence déloyale classique. (…) Il y a un besoin urgent de “code de la route” approprié pour l’IA générative et nous vous encourageons à agir de manière décisive et sans délai », a déclaré le 12 juillet dernier Jeffrey Harleston (photo), directeur juridique et vice-président exécutif pour les affaires commerciales et juridiques d’Universal Music. Il était auditionné au Sénat américain par le sous-comité de la commission judiciaire du Sénat, sur le thème de « l’intelligence artificielle et la propriété intellectuelle » (1).

Et si les réseaux sociaux étaient régulés par l’intelligence collective de la seule société civile

« Nous sommes les réseaux sociaux » est un essai de Serge Abiteboul, un des sept membres du collège de l’Arcep, et de Jean Cattan, secrétaire général du Conseil national du numérique (CNNum). Ils prônent « une véritable régulation-supervision » des réseaux sociaux « opérée par la société ». Paru le 7 septembre 2022 aux éditions Odile Jacob, le livre de Serge Abiteboul (photo de gauche) et de Jean Cattan (photo de droite) – intitulé « Nous sommes les réseaux sociaux » – propose un nouveau modèle de régulation des Facebook, Twitter et autres TikTok. « Entre la censure excessive et le laisser-faire, une autre voie est possible, plus démocratique, plus participative », assurent-ils. Au bout de 250 pages (1), ils lancent un appel : « Une véritable régulation supervision opérée par la société nous paraît souhaitable. Une telle initiative permettrait d’animer un débat citoyen pour choisir la modération que nous souhaitons ». Les risques d’un Etat « modérateur » « Oui à une régulation fondée sur un débat citoyen, une régulation par la société », prônent Serge Abiteboul et Jean Cattan, respectivement membre du collège de l’Arcep et secrétaire général du Conseil national du numérique (CNNum). Cette régulation-supervision par la société gagnerait ainsi «sa légitimité à imposer aux réseaux sociaux une modération raisonnable qui donnerait à tous les moyens de s’exprimer dans le respect de chacun ». Et de prendre en exemple Wikipedia : l’encyclopédie en ligne montre qu’« il est possible d’exercer collectivement une forme d’intelligence de modération qui fonctionne », en tirant parti des « dynamiques collectives vertueuses ». Jimmy Wales, le fondateur de Wikipedia (2), a d’ailleurs lancé en 2019 un réseau social qu’il décrit comme « non-toxique » : WT.Social (3). L’intelligence collective des internautes en guise de régulation des réseaux sociaux serait elle la solution ? L’autorégulation par les plateformes elles-mêmes montre ses limites ; la censure stricte des contenus porte atteinte à la liberté d’expression et à la liberté d’informer ; la modération rigoriste freine l’émergence de nouvelles idées. Par conséquent, une régulation-supervision par la société semble la bonne voie : « Nous sommes les réseaux sociaux », titrent justement les auteurs de cet essai. Mais cette régulation-supervision doit-elle se faire par l’intelligence collective de la société civile elle-même et, donc, sans l’intervention d’une autorité de régulation relevant d’un Etat, ou bien faudrait-il que cette régulation-supervision soit encadrée par les pouvoirs publics (gouvernement, régulateur, législateur, justice, …) ? Serge Abiteboul et Jean Cattan rejettent d’emblée – et c’est heureux – la voie d’une régulation tout-étatique : « Une régulation-supervision qui consacrerait un tête-à-tête entre l’Etat et le réseau social ne serait pas (…) à l’abris d’un rejet de la société ». Ils prônent donc « une véritable contribution (…) de la société à la modération [qui] serait non seulement gage d’une plus grande acceptabilité mais surtout d’une plus grande qualité ». Pour autant, les deux auteurs écartent implicitement la voie – pourtant possible – d’une régulation-supervision par la seule société civile, à la manière de Wikipedia dont ils parlent – et où ce sont les 103,9 millions d’individus contributeurs et les 3.762 administrateurs, au 20 septembre 2022 (4), qui ont voix au chapitre et non les régulateurs ni les gouvernements. Au lieu de cela, le membre de l’Arcep et le secrétaire général du CNNum retiennent plutôt une approche à la manière de la « Mission Facebook ». A savoir : « Que les réseaux sociaux entrent dans un dialogue politique informé avec toutes les parties prenantes [gouvernement, législateur, justice, entreprises, société civile, …], collectivement ». Cette idée d’une « corégulation entre les plateformes et les autorités publiques » avait été évoquée par Mark Zuckerberg, PDG cofondateur de Facebook, et Emmanuel Macron, le président de la France, lors de leur rencontre en 2018 (5). Le rapport de la « Mission Facebook », remis par Macron à Zuckerberg le 17 mai 2019 à l’Elysée (6), a inspiré l’Europe sur certains points du DSA (Digital Services Act) : comme la « supervision » des moyens mis en œuvre par les plus grandes plateformes numériques – celles présentant un « risque systémique » – pour modérer les contenus nocifs. Mais le DSA, lui, n’associe pas directement la société civile et les internautes. Europe : l’acte manqué du DSA La « régulation-supervision » reste entre les mains de la Commission européenne (sur les très grandes plateformes), le nouveau Comité européen des services numériques (sur les services intermédiaires) et les régulateurs nationaux (en fonction du pays d’origine). La société civile, elle, reste absente de cette régulation-supervision des réseaux sociaux. « Un tel cadre [associant la société civile] pourrait enrichir le DSA [et] s’appliquer aussi au DMA [Digital Markets Act, ndlr], permettant ainsi à toute la société de participer à l’élaboration des objectifs de régulations », concluent les auteurs. En France, le Conseil d’Etat vient de recommander d’« armer la puissance publique dans son rôle de régulateur » (7) des réseaux sociaux… @

Charles de Laubier