Premier jugement historique en Europe condamnant OpenAI pour atteinte au droit d’auteur

Même si ce jugement historique du 11 novembre 2025 – prononcé par le tribunal de Munich contre de l’éditeur américain de ChatGPT accusé de contrefaçon musicale – est provisoire (OpenAI ayant fait appel), il sonne comme un avertissement planétaire à toutes les sociétés d’IA génératives.

Tobias Holzmüller (photo), le PDG de la Gema, qui est en Allemagne ce que la Sacem est en France, peut être fier du verdict historique obtenu en première instance du tribunal régional de Munich le 11 novembre 2025 : la manière dont OpenAI gère actuellement ChatGPT viole les lois européennes applicables sur le droit d’auteur. « Pour la première fois en Europe, l’argument en faveur de l’utilisation par les systèmes d’IA générative d’œuvres protégées par le droit d’auteur a été examiné juridiquement et statué en faveur des créateurs des œuvres », s’est félicitée la Société pour les droits d’exécution musicale et de reproduction mécanique (Gema).

Copyright : Internet n’est pas open bar
Cette décision judiciaire allemande – première de ce type dans l’Union européenne (UE) et au retentissement mondial – a clairement jugé que la licorne américaine OpenAI aurait dû acquérir les droits sur les paroles des paroliers et auteurs-compositeurs du répertoire de la Gema, avant de les utiliser pour entraîner ses modèles d’IA et de les exploiter avec son chatbot ChatGPT. De telles reproductions sans autorisations constituent aux yeux du tribunal de Munich des violations du droit d’auteur, et pour lesquelles OpenAI aurait dû obtenir une licence qui offre aux titulaires des droits une rémunération appropriée.
C’est la première fois dans l’UE qu’une décision clarifie aujourd’hui des questions juridiques-clés concernant la manière dont les nouvelles technologies interagissent avec le copyright européen. « Internet n’est pas une sorte de buffet en libre-service, et les réalisations créatives des êtres humains ne sont pas simplement des modèles à utiliser gratuitement. Aujourd’hui, nous avons établi un précédent qui protège et clarifie les droits des détenteurs de droits d’auteur créatifs : les opérateurs d’outils d’IA tels que ChatGPT doivent (suite)

L’intelligence artificielle plane sur les nouvelles « Assises du livre et de l’édition » du SNE

Alors que les Assises du livre numérique changent de nom pour devenir, le 4 décembre 2025, les « Nouvelles Assises du livre et de l’édition » (organisées par le SNE), le spectre de l’IA plane sur les maisons d’édition – avec le groupe Meta comme épouvantail, accusé d’entraîner Llama avec des livres.

Le Syndicat national de l’édition (SNE), qui regroupe les grands groupes de maisons d’édition (Hachette Livre, Editis, MediaParticipations, Madrigall, …) parmi plus de 700 membres, a débaptisé ses « Assises du livre numérique » – qui existaient depuis 2008 – pour les renommer « Nouvelles Assises du livre et de l’édition ». Fini ce rendez-vous dédié aux ebooks, place aux questions sur le livre en général et à ses innovations en particulier. Le thème de la première édition de ces nouvelles assises (1) : « Le pouvoir des livres », au cours d’une journée entière prévue le 4 décembre 2025, sur le site FrançoisMitterrand de la Bibliothèque nationale de France (BnF).

Meta invoque le « fair use » aux Etats-Unis
S’il est désormais essentiellement question de l’avenir du livre en tant que tel, dans la société (« objet social et politique ») et sur son marché (baissier en valeur et en nombre d’exemplaires), ces « Nouvelles Assises du livre et de l’édition » ne pouvaient pas faire l’impasse sur le numérique, bien que désormais relégué au second plan d’un programme tous azimuts (2). D’ailleurs, ne cherchez pas « livre numérique » dans la programmation. C’est l’intelligence artificielle (IA) qui s’est invitée à ces assises du livre. « Convaincus de son rôle essentiel à l’ère de l’intelligence artificielle, les acteurs de l’édition se mobilisent pour garantir le respect du droit d’auteur en régulant ces nouveaux outils et en développant des solutions éthiques et innovantes », a prévenu le SNE en préambule de la présentation de son événement. Et ce, au moment où – avec la Société des gens de lettres (SGDL) et le Syndicat national des auteurs et des compositeurs (Snac) – ce syndicat du boulevard Saint-Germain a porté plainte contre Meta Platforms au printemps 2025, devant la 3e chambre du Tribunal judiciaire de Paris. Ces trois organisations françaises reprochent (suite)

Entraînement des IA avec les données personnelles de Facebook et d’Instagram : validation européenne ?

Une décision rendue le 23 mai 2025 par un tribunal de Cologne (OLG Köln), couplée aux échanges préalables avec la « Cnil » irlandaise (DPC) et à la mise en place des mesures proposées par cette dernière, entérine la possibilité pour Meta de lancer son projet d’entraînement des modèles d’IA.

Par Sandra Tubert, avocate associée, et Miguel Piveteau, élève avocat, Algo Avocats

Le groupe Meta Platforms utilise depuis le 27 mai 2025 les données partagées publiquement par les utilisateurs majeurs et les comptes institutionnels sur ses services Facebook et Instagram (1) : publications, photos, vidéos ou encore commentaires (exceptés les messages échangés entre utilisateurs et contenus privés), mais aussi les interactions des utilisateurs avec ses systèmes d’intelligence artificielle (IA) pour entraîner ses grands modèles de langage (LLM) comme Llama.

Décision d’un tribunal de Cologne
A la différence de X (ex-Twitter) (2), Meta a engagé un dialogue constructif avec l’autorité irlandaise de protection des données (DPC). En effet, avant que le grand public ne découvre ce nouveau projet fin mai 2024, Meta avait informé la DPC, au mois de mars 2024, de son souhait d’utiliser les contenus publics de ses utilisateurs européens de Facebook et d’Instagram pour l’entraînement de ses modèles d’IA (3). Meta avait finalement suspendu le projet, le 14 juin 2024 (4), après le dépôt de plusieurs plaintes par l’organisation autrichienne Nyob auprès de onze autorités de contrôle européennes (5) et d’échanges avec la DPC (6), laquelle avait émis des réserves concernant notamment (suite)