Tout le monde pourra devenir développeur d’applications sans coder, grâce aux « IA codeuses »

Fini les geeks qui se retrouvent seuls à écrire des lignes de codes pour développer – « from scratch » (à partir d’une feuille blanche) – des programmes ou des applications. Les développeurs informatiques sont une espèce en voie de disparition. A terme, tout le monde pourra programmer sans coder.

Imaginez un monde numérique dans lequel tout un chacun pourra créer son application mobile ou ses programmes informatiques, sans connaître le codage ni même avoir entendu parler de langages de programmation tels que les Python, C++ et autres Java. Dans ce futur, pas si lointain, n’importe qui pourra concevoir son logiciel ou son application en fonction de ses besoins ou inventer son jeu vidéo à lui, pour se divertir. Et ce, sans écrire la moindre ligne de code ni faire appel à un programmeur professionnel.

De l’autocomplétion passive à l’agentique actif
Votre rêve pourrait rapidement devenir réalité grâce à la déferlante en cours des « IA codeuses », ces intelligences artificielles agentiques capables de coder à votre place en fonction du logiciel, de l’application ou du jeu vidéo que vous souhaitez. Les grands modèles de langage (LLM) dernière génération – Gemini 3 de Google, GPT 5 d’OpenAI, Claude 4.5 d’Anthropic, Large de Mistral AI ou encore Grok 4 de xAI – ont donné naissance à agents codeurs qui génèrent euxmêmes du code, le testent et en assurent sa maintenance. Par exemple, si l’on reprend nos précédents LLM (1), ces IA codeuses s’appellent Antigravity (lancée le 18 novembre 2025), GPT 5.1 High (lancée par OpenAI le 12 novembre), Claude Code (lancée largement le 22 mai), Codestral (lancée par Mistral AI le 29 janvier) ou encore Grok Thinking (lancé par xAI le 17 novembre). L’année 2025 marque donc un tournant et une accélération sur le nouveau marché mondial des IA codeuses, où l’on retrouve bien d’autres concurrents tels que GitHub Copilot (Microsoft), Cursor (Anysphere), Qwen3-Max (Alibaba), Replit Agent (Replit), …
A ce train-là, l’intelligence artificielle (suite) pourrait générer à terme la quasi-totalité des milliards de milliards de lignes de code nécessaires au fonctionnement de nos mondes numériques. Google, qui a présenté le 18 novembre 2025 Antigravity, parle pour le moment d’« une nouvelle ère dans le développement de logiciels assistés par l’IA ». Les développeurs du monde entier – communément appelés les « devs » – connaissent depuis bien longtemps les environnements de développement intégré (ou IDE, pour Integrated Development Environment). Il s’agit d’un logiciel de programmation composé d’au moins un éditeur de code source, d’outils d’automatisation de compilation et d’un débogage, lorsqu’il n’inclut pas aussi de concepteur d’interface graphique utilisateur (GUI), d’un navigateur d’objets (composants-logiciels) ou encore de diagramme de classes (pour la modélisation orientée objet). Mais avec les IA codeuses, l’IDE change de dimension ou, plus précisément, laisse place à une « nouvelle plateforme de développement agentique ». Le fait nouveau est que cette nouvelle génération d’outils intégrés pour le codage n’est plus réservée aux seuls développeurs, mais elle s’adresse in fine à tous. « Nous voulons qu’Antigravity soit la base du développement logiciel à l’ère des agents. Notre vision est de permettre à toute personne, ayant une idée, de vivre le décollage et de la concrétiser », indique Google qui, via sa filiale Google DeepMind dirigée par Demis Hassabis (2), rend Antigravity disponible « en avant-première publique gratuitement, avec des limites tarifaires généreuses sur l’utilisation de Gemini 3 Pro » (3).
D’ailleurs, la filiale d’Alphabet parle de « développement » mais n’utilise pas le thème « développeur »… C’est révélateur. La révolution dans le développement réside dans le passage d’un mode passif d’autocomplétion – où l’IA codeuse se comportait comme un assistant de suggestion dans l’écriture de la suite d’une ligne de code ou de snippets (morceaux de code) – à un mode actif agentique autonome capable de coder de bout-en-bout, en planifiant des tâches complexes, d’exécuter plusieurs étapes de codage sans intervention humaine : écrire les lignes de code, générer des tests, configurer un pipeline, corriger et refactoriser du code existant, interagir avec d’autres outils, …
Les IA codeuses, désormais proactives, peuvent comprendre les objectifs globaux de l’utilisateur – qui n’est plus forcément un développeur – et orchestrer plusieurs étapes, au lieu de se limiter à compléter du code, ligne par ligne. Et cela change tout.

Les IA codeuses from scratch et full stack
Fini les développeurs « from scratch », c’est-à-dire ceux qui partent de zéro (ou d’une page blanche) sans réutiliser de code ou de composants préexistants. Les « devs », qui deviennent des architectes et superviseurs d’IA codeuses plutôt que des « scribes du code », verront leur productivité décupler, voire centupler si ce n’est… milleupler. Les IA codeuses accélèrent et automatisent les développements – jusqu’à donner l’impression d’avoir une compréhension profonde des systèmes. Elles fournissent non seulement ce que l’on appelle chez les devs le framework (ou « cadriciel » en français), à savoir un ensemble cohérent de composants logiciels (bibliothèques, outils, conventions) servant de socle pour construire une application, mais elles peuvent surtout procéder au codage de l’ensemble. L’IA codeuse peut même être « full stack » comme un développeur professionnel peut l’être, autrement dit à même de développer un logiciel, une application ou un site web à la fois en front-end (développement de l’interface graphique utilisateur), en back-end (gestion et traitement des données en coulisses), database comprise (base de données).

Low-code, no-code, vibe coding et IA codeuses
A terme, tout le monde pourra donc potentiellement créer sa propre application, sans générer aucune ligne de code. Les techniques de programmation dites « low-code » (avec un peu de code à écrire) et « no-code » (sans aucune ligne de code à écrire) ont préparé les esprits à du développement sans codage ou peu. Mais dans les deux cas, il faut que l’utilisateur passe par une interface graphique ou visuelle telle que : Bubble, Webflow, Zapier ou Make pour le no-code (s’adressant aux non-développeurs) ; OutSystems, Mendix, Appian ou Power Apps pour le low-code (destinés aux développeurs) ; Salesforce Lightning, ServiceNow App Engine ou Microsoft Power Apps (hybrides pour développeurs ou non).
« Le no-code est conçu pour les utilisateurs non techniques. Il permet de créer des applications via des interfaces visuelles, sans écrire une seule ligne de code. C’est idéal pour des tâches simples comme des formulaires, des tableaux de bord ou des automatisations de base, souvent utilisées par les équipes métiers. Le low-code, quant à lui, combine des éléments visuels avec la possibilité d’écrire un peu de code. Il est plus flexible et puissant, permettant de créer des solutions complexes et évolutives. Il s’adresse aux développeurs et équipes techniques, mais peut aussi être utilisé par des profils hybrides – comme les citizen developers », explique à Edition Multimédi@ Andreia Lopes Hermínio (photo), responsable du développement au sein de la division Low-code d’Axians, filiale de Vinci Energies. Mais la démocratisation du code – sans coder soi-même – s’est accélérée avec l’IA, à commencer par le vibe coding, expression apparue depuis le début de l’année 2025 pour désigner une technique de développement logiciel assisté par intelligence artificielle. C’est le principe du « S’il vous plaît… dessine-moi un mouton ! », d’Antoine de SaintExupéry dans « Le Petit Prince », appliqué au développement informatique à partir d’un prompt en langage naturel : « Fais-moi telle app ! », et l’IA génère directement le code fonctionnel et l’application, sans que l’utilisateur ait de connaissances techniques. C’est ce que l’informaticien slovaco-canadien Andrej Karpathy (4), ancien chercheur scientifique et membre fondateur d’OpenAI ainsi qu’ex-directeur de l’IA chez Tesla, appelle le « codage d’ambiance » (vibe coding). « Il existe un nouveau type de codage que j’appelle le “vibe coding”, où l’on se laisse aller à l’ambiance, où l’on adopte les exponentielles et où l’on oublie même l’existence du code. C’est possible parce que les LLM (par exemple, Cursor Composer [d’Anysphere, start-up issue du MIT, ndlr] avec Sonnet [le modèle d’Anthropic, ndlr]) sont de plus en plus performants. De plus, je communique avec Composer via SuperWhisper [modèle de transcription vocale développé par OpenAI, ndlr], ce qui fait que je touche à peine au clavier », avait expliqué Andrej Karpathy en février 2025 sur X (5). Et du vibe coding aux IA codeuses, il n’y a qu’un pas agentique vers l’« agent-first » (l’agent d’abord) où l’IA planifie et exécute de manière autonome des tâches logicielles complexes – de bout en bout.
Mais pas de panique ! Les IA codeuses, comme pour le no-code ou le vibe coding, auront toujours besoin de supervision humaine. Ces agents du codage sont comme des professionnels full stack, mais intégrés dans les workflows des développeurs. De simple créateur de lignes de code, le développeur va devenir un « prompt engineer », ou superviseur d’IA codeuse. « Le développeur devient un architecte », souligne Sornin (27 ans), lui-même développeur full stack. Cependant, certains devs pourraient craindre une déqualification de leur expertise, réduite à de la validation ou à du débogage. Le métier de développeur en France concerne environ un demi-million de personnes, parmi plus de 9 millions de développeurs dans l’Union européenne (plus de 45 millions dans le monde). Leur métier est-il en sursis ? La fédération syndicale Uni Europa ICTS dit « se batt[re] pour que l’IA serve les intérêts des travailleurs » (6).

Les développeurs réduits au chômage ?
« Aujourd’hui, l’IA est devenue un véritable compagnon de travail, capable non seulement d’écrire du code, mais aussi de naviguer dans les applications, de tester automatiquement et même de déboguer plus vite que moi, témoigne sur LinkedIn Antoine Martinelli, développeur web et intégrateur IA, basé en Suisse. Le développeur de demain ressemblera davantage à un intégrateur, un responsable de développement, ou un créatif technologique » (7). L’avenir dira si les IA codeuses augmentent la productivité des développeurs, ce que semble contredire pour l’instant une étude du centre de recherche METR (8) selon laquelle « lorsque les développeurs utilisent des outils d’IA, ils prennent 19 % de plus de temps que sans eux – l’IA les ralentit » (9). Pour l’instant… @

Charles de Laubier

Premier jugement historique en Europe condamnant OpenAI pour atteinte au droit d’auteur

Même si ce jugement historique du 11 novembre 2025 – prononcé par le tribunal de Munich contre de l’éditeur américain de ChatGPT accusé de contrefaçon musicale – est provisoire (OpenAI ayant fait appel), il sonne comme un avertissement planétaire à toutes les sociétés d’IA génératives.

Tobias Holzmüller (photo), le PDG de la Gema, qui est en Allemagne ce que la Sacem est en France, peut être fier du verdict historique obtenu en première instance du tribunal régional de Munich le 11 novembre 2025 : la manière dont OpenAI gère actuellement ChatGPT viole les lois européennes applicables sur le droit d’auteur. « Pour la première fois en Europe, l’argument en faveur de l’utilisation par les systèmes d’IA générative d’œuvres protégées par le droit d’auteur a été examiné juridiquement et statué en faveur des créateurs des œuvres », s’est félicitée la Société pour les droits d’exécution musicale et de reproduction mécanique (Gema).

Copyright : Internet n’est pas open bar
Cette décision judiciaire allemande – première de ce type dans l’Union européenne (UE) et au retentissement mondial – a clairement jugé que la licorne américaine OpenAI aurait dû acquérir les droits sur les paroles des paroliers et auteurs-compositeurs du répertoire de la Gema, avant de les utiliser pour entraîner ses modèles d’IA et de les exploiter avec son chatbot ChatGPT. De telles reproductions sans autorisations constituent aux yeux du tribunal de Munich des violations du droit d’auteur, et pour lesquelles OpenAI aurait dû obtenir une licence qui offre aux titulaires des droits une rémunération appropriée.
C’est la première fois dans l’UE qu’une décision clarifie aujourd’hui des questions juridiques-clés concernant la manière dont les nouvelles technologies interagissent avec le copyright européen. « Internet n’est pas une sorte de buffet en libre-service, et les réalisations créatives des êtres humains ne sont pas simplement des modèles à utiliser gratuitement. Aujourd’hui, nous avons établi un précédent qui protège et clarifie les droits des détenteurs de droits d’auteur créatifs : les opérateurs d’outils d’IA tels que ChatGPT doivent (suite) également se conformer à la loi sur le droit d’auteur. Aujourd’hui, nous avons défendu avec succès les moyens de subsistance des créateurs de musique », a déclaré Tobias Holzmüller. Et ce n’est pas faute pour la Gema de ne pas proposer un modèle de licence développé spécifiquement pour les fournisseurs de systèmes d’IA. Depuis septembre 2024, la « Sacem » allemande (basée à Berlin) propose ce type de licence IA comme « base juridique sûre » pour utiliser la musique afin de faire fonctionner et d’entraîner les modèles d’IA, « en garantissant que les créateurs de musique soient équitablement rémunérés, de manière à continuer d’encourager l’innovation musicale ». Or, jusqu’à présent, la Gema constate qu’OpenAI a montré « une réticence générale » à suivre tout modèle de licence quel qu’il soit. L’organisation berlinoise, qui lance ainsi un avertissement à toutes les sociétés d’IA dans le monde, a par ailleurs déposé plainte contre une autre entreprise américaine, Suno, qui, elle, fournit des contenus audios générés par une IA entraînée sur des enregistrements originaux d’œuvres du répertoire de la Gema. L’audience devrait avoir lieu le 26 janvier 2026. A noter que par ailleurs Suno a annoncé le 25 novembre 2025 un accord avec Warner Music (1). « La décision du tribunal régional de Munich montre que la manière dont les systèmes d’IA fonctionnent porte systématiquement atteinte aux droits des auteurs. Il y a un besoin urgent d’agir ici. Le modèle de licence de la Gema propose une solution, mais le cadre juridique doit également être amélioré en faveur des artistes créatifs, afin que l’acquisition des licences par les entreprises devienne la règle. Nous continuerons à travailler vers cet objectif », a prévenu Kai Welp, le directeur juridique de la société allemande de gestion collective des musiciens (2).
La justice allemande a clairement indiqué qu’OpenAI n’est pas une organisation de recherche bénéficiant de privilèges et que l’autorisation légale de ce que l’on appelle l’exploration de texte et de données – Text and Data Mining (TDM) – ne justifie en aucun cas le stockage et la production de paroles de chansons protégées par le droit d’auteur. Or la Gema a pu démontrer que ChatGPT reproduit des paroles protégées par le droit d’auteur, en réponse à de simples prompts. Le tribunal munichois a confirmé que cette utilisation suppose une obligation de délivrance de licences.

OpenAI Ireland Ltd et OpenAI LLC
Le groupe OpenAI a donc été condamné pour violation du droit d’auteur. La Gema représente les droits d’auteur détenus par plus de 100.000 membres – compositeurs, paroliers et éditeurs de musique – et plus de 2 millions de détenteurs de droits de propriété intellectuelle dans le monde. C’est l’une des plus grandes sociétés de gestion collective des droits d’auteur dans l’industrie musicale. La 42e chambre civile du tribunal régional de Munich lui a donné raison en confirmant l’essentiel de ses demandes de mesures injonctives, d’informations et de dommages-intérêts, contre deux sociétés du groupe OpenAI : la filiale européenne opératrice du chatbot ChatGPT, OpenAI Ireland Ltd (à Dublin), et la maison mère américaine – du moins l’entité commerciale à but lucratif OpenAI LLC (3) – basée en Californie (à San Francisco). La Gema a porté plainte contre ces deux sociétés du groupe d’IA génératives pour avoir mémorisé les paroles de la chanson dans des grands modèles de langage (LLM), permettant ainsi à ChatGPT de donner des réponses aux utilisateurs en grande partie fidèles aux paroles originales.

Pas de Text and Data Mining (TDM)
Les accusations de la Gema à l’encontre de la firme de Sam Altman (photo ci-contre) pour contrefaçon portent sur les paroles de neuf auteurs allemands célèbres : « Atemlos » de Kristina Bach, « 36 Grad » de Thomas Eckart, Inga Humpe, Peter Plate et Ulf Leo Sommer, « Bochum » et « Männer » de Herbert Grönemeyer, « Über den Wolken » de Reinhard Mey, « June » de Jan Vetter ainsi que « Es schneit », « In der Weihnachtsbäckerei » et « Wie schön, dass du geboren bist » de Rolf Zuckowski. OpenAI avait contesté les affirmations de la Gema, en prétendant qu’au contraire ses « modèles linguistiques » ne sauvegardaient pas ou ne copiaient pas de données d’entraînement spécifiques, mais reflétaient dans leurs paramètres ce qu’ils auraient appris sur la base de l’ensemble des données d’entraînement.
L’éditeur de ChatGPT estimait que les réponses du chatbot ne seraient générées qu’à la suite de saisies d’utilisateurs (prompts), et que par conséquence ce n’était pas OpenAI mais l’utilisateur en tant que producteur de la sortie qui serait responsable de celles-ci. De plus, dans tous les cas, OpenAI a invoqué les limites au droit d’auteur, en particulier l’exception pour ce que l’on appelle la fouille de textes et de données (TDM). Le jury allemand ne l’a pas entendu de cette oreille, et a décidé que « la mémorisation dans les modèles de langage et la reproduction des paroles des chansons dans les sorties du chatbot empiètent sur les droits d’exploitation du droit d’auteur. Celles-ci ne sont pas couvertes par les dispositions de restriction, en particulier la limitation de l’exploration de texte et de données ». Selon la 42e chambre civile, les paroles de la chanson en question étaient « reproductiblement » contenues dans les modèles linguistiques 4 (GPT 4) et 4o (GPT4Turbo) d’OpenAI. En effet, les données d’entraînement d’IA peuvent être contenues dans des modèles de langage et extraites en tant que résultats. C’est ce qu’on appelle la « mémorisation ». Une telle situation existe si les modèles de langage non seulement prennent des informations de l’ensemble de données d’entraînement pendant l’entraînement, mais trouvent également un transfert complet des données d’entraînement dans les paramètres spécifiés après l’entraînement. « Cette mémorisation a été établie en comparant les paroles des chansons contenues dans les données d’entraînement avec les reproductions dans les sorties. Compte tenu de la complexité et de la longueur des paroles, la coïncidence a été écartée comme cause de la reproduction des paroles. La mémorisation donnait une incarnation, comme condition préalable à la reproduction par droit d’auteur, des paroles contestées par des données dans les paramètres spécifiés du modèle. Les paroles des chansons en question étaient  »reproductiblement » définies dans les modèles », a expliqué le tribunal régional de Munich dans une communication (4) émise le 11 novembre 2025 dans la foulée du rendu de sa décision. A l’appui de son jugement, le jury s’est appuyé sur la directive européenne « Droit d’auteur et des droits voisins dans la société de l’information » de 2001 – ou DADVSI (5), parfois appelée « InfoSoc » – où il est précisé « par quelque moyen et sous quelque forme que ce soit » lorsqu’il est question de « reproduction directe ou indirecte, provisoire ou permanente » (6). Ce que l’Allemagne a, elle, transposé dans sa législation nationale dans sa loi sur le droit d’auteur dite « UrhG » (7). Aussi, selon la jurisprudence de la Cour de justice de l’Union européenne (CJUE), « une perceptibilité indirecte suffit à caractériser une reproduction dès lors que l’œuvre peut être perçue au moyen d’un dispositif technique ».
Et le tribunal insiste sur le fait que cette reproduction dans les modèles d’IA n’est pas couverte par les dispositions de limitation de l’exploration de texte et de données (TDM). Selon lui, la formation des IA extrait non seulement des informations des données d’entraînement, mais reproduit également des œuvres, ce qui ne constitue pas du TDM. « Le principe de l’exploration de texte et de données – ainsi que les dispositions de limitation associées selon lesquelles aucun intérêt d’exploitation n’est affecté par l’évaluation automatisée de la simple information elle-même – ne s’applique pas à [OpenAI]. Au contraire, les reproductions données dans le modèle empiètent sur le droit d’exploitation des titulaires de droits. […] Dans le cas des reproductions du modèle, l’exploitation de l’œuvre est définitivement compromise et les intérêts légitimes des titulaires des droits en sont violés », développe la décision judicaire.

En France, SACD et Scam réjouies
Autant l’homologue française de la Gema – la Société des auteurs, compositeurs et éditeurs de musique (Sacem) – n’a pas publié de communiqué sur cette première victoire européenne, autant la Société des auteurs et compositeurs dramatiques (SACD) et la Société civile des auteurs multimédia (Scam) ont fait communiqué commun (8) le 14 novembre 2025 pour se réjouir de cette décision historique et se dire « prêtes à négocier » des licences : « Cette décision crée un précédent essentiel que les services d’IA, qu’ils s’agissent des licornes européennes ou des multinationales américaines ou chinoises, ne peuvent ignorer : l’innovation ne peut se faire au détriment des créateurs et au mépris de leurs droits ». @

Charles de Laubier

L’Europe est en mal de souveraineté numérique

En fait. Le 18 novembre, la France et l’Allemagne ont tenu à Berlin un « Sommet franco-allemand sur la souveraineté numérique » où plusieurs ministres des Etats membres – dont Anne Le Hénanff – étaient conviés. Les Gafam, eux, ont été tenus à l’écart. La souveraineté numérique cherche ses champions européens.

En clair. Le chancelier de la République fédérale d’Allemagne Friedrich Merz et le président de la République française Emmanuel Macron l’avaient programmé lors du 25e conseil des ministres franco-allemand qui s’était réuni le 29 août 2025. Le Sommet franco-allemand sur la souveraineté numérique – ou Summit on European Digital Sovereignty (SEDS) – vient donc d’avoir lieu à Berlin, le 18 novembre dernier (1), avec 800 invités triés sur le volet (dont 250 pour la délégation française).
Le couple franco-allemand cherche, avec d’autres pays européens, à faire contre-poids à la position dominante des Gafam sur le marché unique numérique. A défaut des champions européens capables jusqu’à maintenant de sérieusement rivaliser avec les Big Tech américaines, Paris et Berlin se sont mis d’accord pour que leurs administrations publiques fassent de la préférence européenne, en montrant l’exemple dans le domaine de « l’IA souveraine » dans leurs services publics. Et ce, en prévoyant d’établir un « partenariat public-privé stratégique avec [le français] Mistral AI et [l’allemand] SAP ». L’éditeur français de (suite) l’IA générative Le Chat – déjà largement promu en France par Emmanuel Macron (2) – et l’éditeur allemand de logiciel de gestion intégrée SAP – depuis longtemps numéro un des logiciels en Europe – devront se mettre d’accord d’ici mi 2026. A ce moment-là, dans le cadre d’une nouvelle entité créée sous le statut juridique de Consortium pour une infrastructure numérique européenne (Edic, dans le jargon bruxellois), « la France, l’Allemagne, Mistral AI et SAP formaliseront leur engagement par la signature d’un accord-cadre contraignant ». Cet Edic « Mistral AI-SAP », qui sera « présidé par les ministres compétents des deux pays », sera ouvert à d’autres fournisseurs européens (3).
Le chemin de la souveraineté numérique des Vingt-sept sera long, car leurs services publics utilisent à plus de 80 % des outils numériques non-européens et le plus souvent américains. Les Gafam avancent aussi masqués en Europe, comme lorsque EDF annonce le 5 novembre renforcer « la souveraineté de ses données en se dotant de son “cloud de confiance” » auprès de Bleu (Orange et Capgemini) et S3NS (Thalès), deux sociétés françaises alliées respectivement à… Microsoft et Google (4). Cinq jours avant, la Cour des comptes (5) pointait le retard de la France dans le « cloud souverain ». @

L’intelligence artificielle plane sur les nouvelles « Assises du livre et de l’édition » du SNE

Alors que les Assises du livre numérique changent de nom pour devenir, le 4 décembre 2025, les « Nouvelles Assises du livre et de l’édition » (organisées par le SNE), le spectre de l’IA plane sur les maisons d’édition – avec le groupe Meta comme épouvantail, accusé d’entraîner Llama avec des livres.

Le Syndicat national de l’édition (SNE), qui regroupe les grands groupes de maisons d’édition (Hachette Livre, Editis, MediaParticipations, Madrigall, …) parmi plus de 700 membres, a débaptisé ses « Assises du livre numérique » – qui existaient depuis 2008 – pour les renommer « Nouvelles Assises du livre et de l’édition ». Fini ce rendez-vous dédié aux ebooks, place aux questions sur le livre en général et à ses innovations en particulier. Le thème de la première édition de ces nouvelles assises (1) : « Le pouvoir des livres », au cours d’une journée entière prévue le 4 décembre 2025, sur le site FrançoisMitterrand de la Bibliothèque nationale de France (BnF).

Meta invoque le « fair use » aux Etats-Unis
S’il est désormais essentiellement question de l’avenir du livre en tant que tel, dans la société (« objet social et politique ») et sur son marché (baissier en valeur et en nombre d’exemplaires), ces « Nouvelles Assises du livre et de l’édition » ne pouvaient pas faire l’impasse sur le numérique, bien que désormais relégué au second plan d’un programme tous azimuts (2). D’ailleurs, ne cherchez pas « livre numérique » dans la programmation. C’est l’intelligence artificielle (IA) qui s’est invitée à ces assises du livre. « Convaincus de son rôle essentiel à l’ère de l’intelligence artificielle, les acteurs de l’édition se mobilisent pour garantir le respect du droit d’auteur en régulant ces nouveaux outils et en développant des solutions éthiques et innovantes », a prévenu le SNE en préambule de la présentation de son événement. Et ce, au moment où – avec la Société des gens de lettres (SGDL) et le Syndicat national des auteurs et des compositeurs (Snac) – ce syndicat du boulevard Saint-Germain a porté plainte contre Meta Platforms au printemps 2025, devant la 3e chambre du Tribunal judiciaire de Paris. Ces trois organisations françaises reprochent (suite) à la maison mère de Facebook, Instagram et WhatsApp « une utilisation massive d’œuvres sous droits, sans autorisation de leurs auteurs et éditeurs, afin d’entraîner son modèle d’intelligence artificielle générative ».
Le président du SNE, Vincent Montagne, par ailleurs PDG de Média-Participations, dénonce un « parasitisme » et entend « faire reconnaître le non-respect du droit d’auteur » (3). Pour le président de la commission numérique du SNE, Florent Souillot (photo), également responsable du numérique chez Madrigall (Gallimard-Flammarion), la France est « le seul pays où des représentants d’éditeurs et d’auteurs poursuivent conjointement un fournisseur d’IA – Meta – pour suspicion d’utilisation de livres piratés » (4). L’assignation en justice en France n’est pas la seule action contre Meta, puisque le groupe de Mark Zuckerberg est aussi visé, cette fois aux Etats-Unis, par un groupe de 13 auteurs publiés, qui, à partir de juillet 2023, ont poursuivi Meta devant la justice pour « violation du Digital Millennium Copyright Act (DMCA) et du droit d’auteur en formant ses modèles de langage Llama (LLM (5)) sur leurs œuvres sans autorisation ».
Toutes ces actions américaines contre Meta ont été consolidées dans l’affaire « Kadrey, et al. v. Meta Platforms » devant le tribunal du Northern District de Californie. Et comme l’indique Meta, « le 25 juin 2025, le tribunal a accepté notre requête sur l’usage loyal [“fair use”, dans le texte, en référence à ce principe qui existe en droit américain mais par en Europe, ndlr] » qui permettrait « l’utilisation [par Meta] de livres protégés par un droit d’auteur pour une formation de ses modèles d’IA générative » (6). Le fair use est une exception au copyright, qui, dans le droit d’auteur américain, prévoit une utilisation équitable et sans autorisation de l’auteur. Meta avait téléchargé des livres sur Library Genesis (LibGen) et sur Anna’s Archive, une compilation de « bibliothèques fantômes » comprenant LibGen, Z-Library et d’autres. La cour californienne, qui a ainsi donné raison à Meta pour l’instant, doit encore entendre les requêtes lors d’une prochaine audience prévue le 2 avril 2026.

En Europe, les exceptions au droit d’auteur
A défaut de fair use dans l’Union européenne, où Meta a son siège européen à Dublin en Irlande, les ayants droit de l’édition (éditeurs et auteurs) en Europe doivent agir dans le cadre du règlement européen sur l’IA (AI Act) et dans le respect des exceptions au droit d’auteur dispensant d’obtenir l’autorisation des ayants droit justement. Car la directive européenne « Droit d’auteur et droits voisins dans le marché unique numérique » de 2019, dite directive « Copyright » (7), prévoit une exception de « fouilles de textes et de données » – en anglais, Text and Data Mining (TDM) – qui garantit aux fournisseurs de systèmes d’IA le droit de « moissonner » – « à des fins de recherche scientifique » (8) – un grand volume de données librement accessibles afin d’entraîner leurs modèles d’IA. @

Charles de Laubier

Mesure hybride : pas de comparaison entre chaînes télé et plateformes vidéo avant mi-2026

C’est dispersées que des chaînes (Canal+, TF1, M6, …) et des plateformes (Netflix, Disney+, YouTube, …) ont fait part, fin octobre, des premiers résultats de la « mesure hybride » de leur audience réalisée par Médiamétrie. Or les comparer ne sera possible qu’en milieu d’année 2026.

La bataille de l’audience dans le PAF – ce paysage audiovisuel français qui, décidément, n’en finit pas de se délinéariser en streaming, par-delà les fréquences hertziennes de la TNT dont l’audience s’érode (1) – se prépare à faire rage en 2026. C’est au cours de l’an prochain que la « mesure hybride », proposée par Médiamétrie via son nouveau dispositif Watch, permettra de comparer les audiences des acteurs de la télé et de la vidéo : d’un côté les chaînes de télé (TF1, M6, France 2, BFMTV, Canal+, …) et de l’autre les plateformes vidéo (Netflix, Disney+, Amazon Prime Video, YouTube, Pluto TV, …).

Délinéarisation et plateformisation
Cette nouvelle mesure d’audience unifiée télé et vidéo – avec panel unifié et cross média complet – est en vue, mais elle ne sera vraiment effective que vers le milieu de l’année 2026. C’est à se moment-là que l’on pourra enfin comparer la fréquentation des chaînes de télévision avec celle des plateformes vidéo. Cela suppose que la « mesure hybride » soit reconnue par tous les acteurs de l’audiovisuel qui y adhèrent – lorsque que chacun d’eux la juge « équitable » et certifiée par un « tiers de confiance », en l’occurrence en France Médiamétrie, lequel fête d’ailleurs ses 40 ans en 2025 (2). « Les mesures hybrides constituent un défi à la hauteur de leurs promesses. Elles s’imposent aujourd’hui comme une réponse incontournable à la fragmentation croissante des usages médias. En combinant la richesse des panels et la granularité des data, elles offrent une vision plus fine, plus complète et plus précise des comportements d’audience », explique sur LinkedIn Aurélie Vanheuverzwyn (photo), directrice exécutive Data science chez Médiamétrie (3), et coauteure avec Julien Rosanvallon du livre blanc « Hybride & IA » publié début novembre (4).
La mesure hybride permettra non seulement aux éditeurs mais aussi aux annonceurs publicitaires, aux marques ou encore aux publicitaires eux-mêmes de comparer ce qui est comparable pour analyser et monétiser la consommation globale de l’audiovisuel en France. Autrement dit, il s’agit de savoir (suite) ce que les Français regardent chaque jour, chaque semaine et chaque mois en moyenne, et quels sont leurs profils de consommation (homme, femmes, jeunes, plus âgés, sexe, catégories socio-professionnelles, …) par rapport à quels contenus audiovisuels (émissions, séries, films, documentaires, sports, directs, live streaming, …). Encore faut-il qu’il y ait une méthode unifiée et un panel unique : c’est ce que Médiamétrie a indiqué vouloir faire d’ici « mi-2026 », selon la présentation que l’institut a faite lors d’un premier « briefing pédagogique » organisé le 30 octobre, suivi d’un second le 14 novembre, alors que des tests sont en cours avec les plateformes vidéo des chaînes de télévision – dites BVOD (5) — telles que MyTF1, France.tv, 6play ou encore Arte.tv, mais aussi avec les contenus audiovisuels accessibles sur les téléviseurs connectés – ou CTV (6). Les plateformes globales, notamment américaines comme Netflix, Disney+ et Amazon Prime Video, qu’elles soient SVOD (7) et/ou AVOD (8), devraient intégrer le dispositif en 2026.
Cette toute première mesure hybride, commune aux chaînes télé et aux plateformes vidéo, sera aussi étendue l’an prochain à la mesure des campagnes publicitaires et des marques en tant qu’annonceurs. Le comité cross-média télé et vidéo, lancé par Médiamétrie en janvier 2025 (9), a en effet vocation à s’élargir en 2026 aux annonceurs, afin que ceux-ci puissent aussi mesurer « la performance des campagnes [publicitaires] diffusées à la fois dans les écosystèmes numériques à la demande (plateformes de partage vidéo, SVOD, services de streaming) et la télévision linéaire ». Pour cela, l’institut français Médiamétrie s’est associé à la société danoise AudienceProject, basée à Copenhague, qui se donne comme mission d’« apporter la lumière dans le noir de la publicité » (10). Le périmètre ainsi élargi de la mesure crossmédia concernera à la fois les éditeurs, les annonceurs et les agences, avec la présence d’organisations professionnelles telles que l’Union des entreprises de conseil et d’achat médias (Udecam), l’Union des marques (UDA) ou encore l’Alliance des médias TV et vidéo (ADMTV).

Passer de deux panels complémentaires…
Le comité cross-médias sera évolutif, dans la mesure où d’autres acteurs pourront y intégrer leurs propres données et obtenir une vision unifiée et dédupliquée de leurs campagnes vidéo, sur tous les écrans et tous les canaux, y compris les plateformes vidéo, les télévisions linéaires, les réseaux sociaux, les téléviseurs connectés, ainsi que la télévision segmentée. Les premiers résultats des mesures publicitaires du cross-média télé et vidéo sont attendus pour le premier trimestre 2026 (11). La consommation des médias numériques étant toujours plus fragmentée (écrans, plateformes, formats et moments de consommation) et leur audience de plus en plus difficile à mesurer avec un dispositif unique, la « mesure hybride » permet de tirer parti des forces complémentaires des différents dispositifs : panels, enquêtes, données numériques, CRM, logs, ou encore métadonnées. En attendant le panel unique, la mesure Watch de Médiamétrie exploite pour l’instant deux panels distincts mais complémentaires : le panel Médiamat et le panel Plateformes.

… à un panel unifié « Médiamat » en 2026
Le panel Médiamat,
représentatif de la population française avec plus de 5.500 foyers, soit environ 12.000 individus âgés de quatre ans et plus, auxquels s’ajoutent en complément un panel « hors domicile et mobilité » (AIP) de 5.000 individus (âgés de quinze ans et plus). Techniquement, la mesure automatiquement du visionnage par chacun des utilisateurs se fait par le watermarking, une empreinte sonore intégrée aux programmes télé.
Le panel Plateformes, représentatif de la population française avec cette fois 2.730 foyers, soit environ 5.500 individus âgés de quatre ans et plus. Techniquement, la mesure automatique se fait par un streaming meter, un boîtier relié à la box Internet de l’opérateur télécoms. Ce dispositif à domicile (pas encore en mobilité) permet de mesurer le flux de données de tous les écrans connectés en Wifi au sein du foyer, et de calculer le temps passé sur les différentes plateformes de streaming.
Médiamétrie s’est fixé comme objectif, pour le milieu de l’année 2026, de rapatrier les panélistes des plateformes vers son panel historique « Médiamat », lequel avait succédé en 1989 à l’Audimat créé il y a quatre décennies (12) en prenant le virage du numérique puis des plateformes. Cela suppose aussi pour les audiences des plateformes de les mesurer en mobilité, hors du domicile – comme c’est le cas pour les chaînes, afin d’assurer la « comparabilité » des mesures entre acteurs.
D’ici cette réunification des panels qui s’annonce pour l’an prochain comme une étape historique, les deux mondes du PAF sont – dans l’actuel comité cross-média télé et vidéo –, d’un côté, les chaînes de télévision représentées pour l’instant par six acteurs (France Télévisions dont France 2 et France 3, TF1, M6, Canal+, Arte, RMC-BFM), et, de l’autre, les plateformes vidéo actuellement représentées par sept acteurs (Netflix, Amazon Prime Video, Disney+, Dailymotion de Canal+, Pluto TV de Paramount, Twitch d’Amazon et YouTube de Google). Ainsi, ce sont au total treize acteurs du PAF qui sont à ce jour souscripteurs de la mesure hybride Watch de Médiamétrie, que d’autres chaînes et plateformes pourraient rejoindre d’ici à 2026. Cela pourrait être le cas, par exemple, des grandes plateformes de SVOD Apple TV+, Paramount+ et Max (ex-HBO Max de Warner Bros. Discovery), lesquelles sont distribuées en France par Canal+. Il reste en outre à convaincre Meta Platforms (Facebook, Instagram), malgré son refus, et TikTok (ByteDance), en cours de discussion, à rejoindre le cross-média télé et vidéo (13).
Ce n’est pas que chaînes et plateformes continuent de se regarder en chiens de faïence, quoique. Mais plutôt que leurs panels et leurs périmètres de mesure étant encore différents pour les prochains moins, la « comparabilité » de leurs résultats d’audience ne peut être effectuée de façon « équitable ». Les premiers résultats de Watch divulgués en octobre, portant sur l’ensemble du mois de septembre 2025 mesuré, l’ont donc été en ordre dispersé, à l’initiative de certains acteurs seulement (notamment Canal+, TF1, M6, côté chaînes, et Netflix, Disney+, YouTube, côté plateformes). La France est donc sur la voie d’un comparatif unifié de l’audience des télévisions et des plateformes, comme cela existe aux Etats-Unis avec « The Gauge » ou « One » de l’institut américain Nielsen. @

Charles de Laubier