L’intelligence artificielle plane sur les nouvelles « Assises du livre et de l’édition » du SNE

Alors que les Assises du livre numérique changent de nom pour devenir, le 4 décembre 2025, les « Nouvelles Assises du livre et de l’édition » (organisées par le SNE), le spectre de l’IA plane sur les maisons d’édition – avec le groupe Meta comme épouvantail, accusé d’entraîner Llama avec des livres.

Le Syndicat national de l’édition (SNE), qui regroupe les grands groupes de maisons d’édition (Hachette Livre, Editis, MediaParticipations, Madrigall, …) parmi plus de 700 membres, a débaptisé ses « Assises du livre numérique » – qui existaient depuis 2008 – pour les renommer « Nouvelles Assises du livre et de l’édition ». Fini ce rendez-vous dédié aux ebooks, place aux questions sur le livre en général et à ses innovations en particulier. Le thème de la première édition de ces nouvelles assises (1) : « Le pouvoir des livres », au cours d’une journée entière prévue le 4 décembre 2025, sur le site FrançoisMitterrand de la Bibliothèque nationale de France (BnF).

Meta invoque le « fair use » aux Etats-Unis
S’il est désormais essentiellement question de l’avenir du livre en tant que tel, dans la société (« objet social et politique ») et sur son marché (baissier en valeur et en nombre d’exemplaires), ces « Nouvelles Assises du livre et de l’édition » ne pouvaient pas faire l’impasse sur le numérique, bien que désormais relégué au second plan d’un programme tous azimuts (2). D’ailleurs, ne cherchez pas « livre numérique » dans la programmation. C’est l’intelligence artificielle (IA) qui s’est invitée à ces assises du livre. « Convaincus de son rôle essentiel à l’ère de l’intelligence artificielle, les acteurs de l’édition se mobilisent pour garantir le respect du droit d’auteur en régulant ces nouveaux outils et en développant des solutions éthiques et innovantes », a prévenu le SNE en préambule de la présentation de son événement. Et ce, au moment où – avec la Société des gens de lettres (SGDL) et le Syndicat national des auteurs et des compositeurs (Snac) – ce syndicat du boulevard Saint-Germain a porté plainte contre Meta Platforms au printemps 2025, devant la 3e chambre du Tribunal judiciaire de Paris. Ces trois organisations françaises reprochent Continuer la lecture

Entre l’AI Act, le RGPD, le droit d’auteur et la protection des bases de données, l’articulation est cornélienne

Les fournisseurs de système d’IA et les entreprises utilisatrices de ces solutions – exploitant quantités de données, personnelles comprises – doivent se conformer à plusieurs réglementations européennes : de l’AI Act au RGPD, en passant les directives « Copyright » et « Bases de données ».

Par Arnaud Touati, avocat associé, et Mathilde Enouf, juriste, Hashtag Avocats

L’AI Act – règlement européen sur l’intelligence artificielle (1) – représente un changement significatif dans la régulation technologique au sein des Vingt-sept. Il ne substitue pas aux régimes existants, mais les enrichit, engendrant une superposition complexe avec le règlement général sur la protection des données (RGPD) et la législation sur le droit d’auteur. Cela nécessite des entreprises de mettre en place une gouvernance juridique intégrée, impliquant juristes, techniciens et responsables de la conformité.

Pas d’IA contre les droits fondamentaux
L’incertitude jurisprudentielle, l’accroissement des obligations et le danger financier associé aux sanctions exigent une vigilance accrue. Cependant, cette contrainte peut se transformer en atout concurrentiel : les entreprises qui réussissent à prévoir et à incorporer la conformité progressive gagneront la confiance de leurs utilisateurs et de leurs partenaires. La capacité des acteurs à convertir ces obligations en normes de qualité et de confiance déterminera l’avenir de l’intelligence artificielle (IA) en Europe. La régulation, plutôt que d’être un simple obstacle, pourrait se transformer en un outil stratégique de souveraineté numérique et de développement durable de l’IA.
Première législation mondiale dédiée à cette innovation technologique, l’AI Act est entré en vigueur le 1er août 2024, mais ses obligations sont mises en œuvre progressivement. Les mesures prohibées ont commencé à s’appliquer en février 2025 ; les normes relatives aux modèles d’IA à usage général ont commencé à s’appliquer en août 2025 (2) ; les règles concernant les systèmes à haut risque seront mises en œuvre en août 2026. Cette mise en application progressive a pour but de donner aux entreprises le temps nécessaire pour s’adapter, tout en se concentrant d’abord sur les risques considérés comme les plus critiques. A l’inverse du RGPD, qui a mis en place en 2018 un cadre uniforme immédiatement applicable à tous les traitements de données, l’AI Act opère (suite)

Droits voisins : les Etats de l’UE peuvent obliger les réseaux sociaux à rémunérer la presse

Ce ne sont que les conclusions de l’avocat général rendues cet été, mais elles ont de grandes chances d’être suivies par la Cour de justice de l’Union européenne (CJUE) : les réseaux sociaux peuvent être obligés par les Etats membres à rémunérer la presse pour ses contenus qu’ils utilisent.

Les conclusions de l’avocat général de la Cour de justice de l’Union européenne (CJUE) – le Polonais Maciej Szpunar (photo) – ont été rendues le 10 juillet 2025. L’arrêt est donc attendu entre octobre et janvier prochains. Statistiquement, la CJUE suit les conclusions de l’avocat général dans environ 70 % à 80 % des affaires. En substance : « Les Etats membres peuvent adopter des mesures de soutien pour garantir l’effectivité des droits des éditeurs de presse pour autant que ces mesures ne portent pas atteinte à la liberté contractuelle » (1).

Les réseaux sociaux sont bien concernés
Avant d’en venir au fond de l’affaire qui opposait Meta Platforms (Facebook) au régulateur italien des communications (Agcom (2)) sur la question de la rémunération de la presse au titre des droits voisins, signalons que l’avocat général a tenu à lever le doute sur le cas des réseaux sociaux. Car lors de l’audience du 10 février 2025, la CJUE avait posé la question aux participants de savoir si les réseaux sociaux étaient soumis aux droits voisins consacrés par l’article 15 de la directive « Droit d’auteur et droits voisins dans le marché unique numérique » (« Copyright » (3)) ou en sont au contraire exemptés en tant qu’hébergeur aux responsabilités néanmoins renforcées par l’article 17 de cette même directive. Par cette question générale, les éditeurs en Europe, y compris leurs organisations professionnelles comme l’Alliance de la presse d’information générale (Apig) en France, s’étaient fortement inquiétés du risque de voir les réseaux sociaux comme Facebook, X ou encore LinkedIn échapper aux droits voisins et de n’avoir ainsi rien à payer aux médias pour les contenus qu’ils utilisent. Cette éventualité aurait été redoutable pour les journaux en ligne des Vingt-sept.
Or les conclusions de l’avocat général, (suite)

« Résumé suffisamment détaillé » : 2025 sera l’année de vérité dans la mise en œuvre de l’AI Act

Le rapport du CSPLA sur la mise en œuvre du règlement européen établissant des règles harmonisées sur l’IA fournit les ingrédients mais… pas la recette ! Le Bureau européen de l’IA, créé par l’AI Act, doit publier prochainement un « modèle européen » à suivre par les Vingt-sept.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

Le rapport « IA et Transparence des données d’entraînement » (1), publié le 11 décembre 2024 par le Conseil supérieur de la propriété littéraire et artistique (CSPLA), s’inscrit dans la préparation de la mise en œuvre du règlement européen sur l’intelligence artificielle (AI Act) et a pour objectif de clarifier l’interprétation et la portée des dispositions imposant un modèle de « résumé suffisamment détaillé » (2). Ce modèle sera présenté au nom de la France dans le cadre du processus d’adoption d’un modèle européen par le Bureau européen de l’IA (AI Office), autorité créée par l’AI Act et chargée d’accompagner les fournisseurs d’IA dans leur mise en conformité. La publication du modèle européen est attendue pour janvier 2025.

Transparence des données d’entraînement
La collecte de données de qualité, notamment de données culturelles, est d’une importance stratégique pour les fournisseurs d’IA, puisque les systèmes d’IA ont besoin d’ingurgiter de grandes quantités de données, leur servant de modèles dans leurs productions. Or, des données contenant des créations protégées par un droit de propriété intellectuelle peuvent avoir été obtenues sans autorisation ou sans tenir compte d’un « opt-out », et avoir été effectivement exploitées. Il en va de même concernant des données personnelles (posts Facebook, Instagram, …) potentiellement utilisées pour l’entraînement de modèles d’IA. L’enjeu est alors d’avoir accès à l’information sur les données d’entraînement utilisées par une IA, pour bien des raisons et notamment ouvrir une visibilité aux ayants droits dont des données et/ou créations auraient été mobilisées, quelles qu’en soient les modalités.
Pour ce faire, les fournisseurs d’IA sont désormais soumis à une obligation de transparence qui se concrétise par la mise en place d’une politique de conformité, ainsi que par la mise à disposition au public d’un « résumé suffisamment détaillé » (sufficiently detailed summary) des contenus utilisés pour l’entraînement du modèle d’IA. Ce résumé permet le développement d’une IA de confiance souhaitée au niveau européen (3), en remédiant aux difficultés rencontrées par les titulaires de droits, confrontés à une charge de la preuve disproportionnée concernant l’utilisation de leurs contenus. Pour autant, le résumé doit répondre aux enjeux de la création d’un marché dynamique et équitable de l’IA. Ce qui impose un compromis pour restreindre la quantité d’informations mise à disposition afin de protéger le secret des affaires, moteur d’innovation pour les fournisseurs d’intelligence artificielle. (suite)

Les deepfakes audio inquiètent l’industrie musicale

En fait. Le 10 septembre, la Fédération internationale de l’industrie phonographique (IFPI) a publié son premier rapport sur « la musique dans l’UE ». Au-delà des inquiétudes sur la croissance musicale dans les Vingt-sept, une nouvelle pratique préoccupe : les deepfakes audio. Les détecteurs s’organisent.

En clair. « L’industrie musicale est préoccupée par la capacité des systèmes d’IA de générer du contenu “deepfake” qui s’approprie sans autorisation la voix, l’image et la ressemblance distinctives des artistes », alerte la Fédération internationale de l’industrie phonographique (IFPI), dans son rapport sur la musique dans l’Union européenne (UE) publié le 10 septembre. « Cela peut induire les fans en erreur, porter gravement atteinte à la réputation d’un artiste et fausser la concurrence en permettant aux clones générés de concurrencer de manière déloyale les artistes dont la musique et l’image ont été utilisées pour former le modèle d’IA » redoute-t-elle.
Six jours avant, de l’autre côté de l’Atlantique, un dénommé Michael Smith a été arrêté par le FBI et présenté devant juge de Caroline du Nord pour avoir créé des centaines de milliers de chansons avec une intelligence artificielle et utilisé des programmes automatisés (bots) pour diffuser des milliards de fois ces chansons générées par l’IA sur les plateformes de streaming (Amazon Music, Apple Music, Spotify et YouTube Music). Ce stratagème de fake streams (1) a permis à l’accusé de générer frauduleusement plus de 10 millions de dollars de royalties (2). De l’IA générative musicale au deepfake audio, il n’y a qu’un pas : les deux pratiques utilisent des masses de données audio pour générer du contenu fictif mais audible et vraisemblable.