Copyright & GenAI : la résolution des eurodéputés adoucit la « présomption » en faveur de l’innovation

Depuis que les eurodéputés ont adopté, en séance plénière le 10 mars 2026, une résolution sur le droit d’auteur et l’intelligence artificielle générative, texte qui n’a pas de caractère contraignant, la balle est dans le camp de la Commission européenne pour qu’elle clarifie les règles du jeu.

Le texte sur le copyright et l’IA adopté le 10 mars 2026 à Strasbourg par le Parlement européen – intitulé « Résolution sur le droit d’auteur et l’intelligence artificielle générative – opportunités et défis » (1) – posent des principes mais ne résout pas à ce stade les relations compliquées entre l’innovation qu’est l’IA et le copyright. D’autant que cette résolution politique issue du rapport de l’eurodéputé Axel Voss (photo) est non contraignante, le rapport lui-même dit « d’initiative » (du Parlement européen) étant non législatif, et n’a pas vocation à être publié au Journal Officiel de l’Union européenne (JOUE).

Les « ambiguïtés » de la directive « Copyright »
Il faudra attendre que la Commission européenne suive éventuellement les recommandations de cette résolution « Copyright & GenAI », notamment dans le cadre de la révision de la directive « Droit d’auteur et droits voisins dans le marché unique numérique » de 2019, dite « Copyright » (2), voire dans de futures lignes directrices sur l’entraînement des IA, pour que de nouvelles clarifications soient publiées au JOUE après adoption par le Parlement européen. Or il est justement prévu dans cette directive « Copyright » que la Commission européenne doit procéder – « au plus tôt le 7 juin 2026 » – au réexamen de la présente directive et présente un rapport exposant ses principales conclusions au Parlement européen, au Conseil de l’UE et au Comité économique et social européen.
C’est dire que cette perspective devient hautement politique à l’approche de cette échéance, tandis que les lobbies sont à la manœuvre pour défendre d’ici là leurs points de vue. Les organisations européennes de gestion collective des droits d’auteurs et représentants des ayants droit ont déjà les oreilles des eurodéputés, lesquels ont adopté cette résolution « Copyright & GenAI » par 460 voix pour, 71 voix contre et 88 abstentions. Ils font notamment observer dans leur résolution que « l’application de la directive [« Copyright » de 2019] est, à ce jour, ambiguë dans le contexte de l’entraînement de l’IA générative, et recommande d’apporter rapidement des clarifications à l’égard de son application et de sa mise en œuvre ». Les eurodéputés se font les porte-paroles des ayants droit en estimant que « la législation actuelle sur le droit d’auteur est insuffisante pour répondre aux enjeux de la concession de licences, pour l’IA générative, sur du matériel protégé par le droit d’auteur », et dès lors préconisent d’« instaurer un cadre juridique supplémentaire pour clarifier les règles d’octroi de licences pour l’IA générative et lutter contre les éventuelles violations de la législation actuelle en matière de droit d’auteur ». Les parlementaires européens insistent même sur le fait qu’« un tel cadre devrait inclure des dispositions garantissant la coopération effective des fournisseurs d’IA générative avec les créateurs et les autres titulaires de droits, y compris au regard d’un marché des licences opérationnel qui rétablit le pouvoir de négociation des titulaires de droits et des solutions de protection viables ». Pas question ici de licence légale (« contribution obligatoire »), comme l’a préconisée le 20 mars Arthur Mensch, patron du français Mistral AI (3).
Les eurodéputés rappellent en tout cas que « toute exception aux droits actuels relevant de l’acquis en matière de droit d’auteur, y compris en matière d’IA, doit être en conformité avec le test en trois étapes » prévu par la directive « Droit d’auteur et des droits voisins dans la société de l’information » de 2001, dite « DADVSI » (4). Celle-ci encadre strictement les exceptions et limitations aux droits exclusifs des auteurs par ce que l’on appelle le « test en trois étapes », qui consiste à faire respecter trois conditions cumulatives énoncées de cette manière : « Les exceptions et limitations […] ne sont applicables que dans certains cas spéciaux [première étape, ndlr] qui ne portent pas atteinte à l’exploitation normale de l’œuvre ou autre objet protégé [deuxième étape, ndlr] ni ne causent un préjudice injustifié aux intérêts légitimes du titulaire du droit [troisième étape, ndlr] » (5). Ce test en trois étapes provient à l’origine de la Convention de Berne (1886, révisée) et a été repris dans l’accord de l’OMC sur les droits de propriété intellectuelle (ADPIC (6)) ou encore dans les traités de l’Organisation mondiale de la propriété intellectuelle (OMPI).

Le copyright ne doit pas tuer l’innovation
Dans la foulée du Sommet pour l’action sur l’IA, qui s’était tenu à Paris en février 2025, la Commission européenne avait présenté en avril 2025 son « Plan d’action pour le continent de l’IA » (7), dont l’objectif est de faire de l’Europe un leader mondial dans le domaine de l’intelligence artificielle. Et ce, en promouvant – plutôt qu’en entravant – les progrès des technologies et services d’IA générative « dans l’intérêt général au sein de l’Union européenne afin de protéger la souveraineté technologique de l’Europe, sa compétitivité, sa culture plurilingue ainsi que sa capacité d’innovation, tout en restant fidèle à ses valeurs et en veillant à ce que le développement technologique favorise durablement la croissance économique, la compétitivité et l’innovation ». Il s’agit aussi de faciliter un large accès aux technologies de l’IA dans les Vingt-sept. Dans leur résolution « Copyright & GenAI », les eurodéputés considèrent, eux, que « pour rester compétitif dans la course à l’amélioration de l’IA générative, il faut également un accès à des contenus de haute qualité, ce qui souligne l’importance d’un secteur créatif équitablement rémunéré en tant que source de données d’entraînement de qualité pour l’IA ».

De présomption « irréfragable » à « réfragable »
Si les parlementaires européens reconnaissent que l’innovation IA ne doit être compromise par le droit d’auteur, ils estiment cependant « nécessaire d’établir un mécanisme en vertu duquel, dans certaines conditions, l’absence de transparence totale de la part de fournisseurs ou de déployeurs d’IA donne lieu à une présomption réfragable que tout œuvre ou objet concerné protégé par le droit d’auteur a été utilisé à des fins d’entraînement, d’inférence ou de génération augmentée par récupération ». Ce principe de « présomption réfragable » (rebuttable presumption), reprise par la résolution « Copyright & GenAI » dans le rapport final Voss adopté le 10 mars 2026, tient compte de la version amendée de celui-ci.
En effet, dans sa version initiale datée de l’été 2025 (8), le projet de rapport Voss suggérait au Parlement européen d’introduire un principe différent dit « présomption irréfragable » (irrebuttable presumption). Ce que des amendements en commission « Juri » du Parlement européen ont changé, en janvier 2026, pour « présomption réfragable » – autrement dit réfutable. C’est une nuance de taille et fondamentale en droit : le concept a été ainsi adouci pour permettre aux fournisseurs d’IA de renverser la présomption par des preuves contraires (transparence partielle, opt-out respecté, etc.) ; la présomption réfragable est provisoire et considérée comme vraie jusqu’à preuve(s) du contraire apportée(s) par la partie adverse (les ayants droit en l’occurrence). Alors que la présomption irréfragable, elle, aurait été absolue et conclusive, étant considérée comme un fait établi de manière définitive, sans possibilité de la contredire par des preuves. Concrètement : si un fournisseur d’IA générative ne respecte pas pleinement les obligations de transparence (liste détaillée des contenus utilisés pour l’entraînement, l’inférence lorsque le modèle raisonne et livre une réponse, la RAG (9) ou génération augmentée par récupération, etc.), il y a présomption réfragable que les œuvres concernées ont été utilisées. Mais : le fournisseur d’IA peut renverser cette présomption en prouvant le contraire, comme démontrer qu’il n’a pas utilisé telle œuvre, via des logs, des filtres, des opt-out respectés, etc. Ce changement de pied du rapport Voss est une victoire pour les Mistral AI (français), OpenAI/ChatGPT (américain), Google/Gemini (américain) ou encore Anthropic/Claude (américain), voire DeepSeek (chinois), grâce aux pressions des groupes progressistes et proinnovation (S&D, Greens, Renew) qui critiquaient la version initiale du rapport Voos comme trop punitive et risquant d’être incompatible avec l’AI Act et les principes de proportionnalité. « Le texte actuel contient encore une présomption d’usage, mais celle-ci est désormais devenue réfutable, ce qui est une exigence plus raisonnable », s’est félicitée l’association CommunIA, cofondée à Bruxelles par Wikimedia Europe (éditeur de Wikipedia) et défenseuse du domaine public et de l’accès ouvert à la connaissance et à la culture. « Le projet initial du député européen Voss affirmait que la formation des systèmes d’IA générative échappait au cadre existant du droit d’auteur. Cette interprétation contredisait directement l’approche adoptée dans le règlement sur l’IA et introduisait une incertitude juridique inutile. Cette incertitude s’est fait particulièrement sentir par les acteurs cherchant à se conformer à la loi, tels que les chercheurs et les développeurs de systèmes d’IA d’intérêt public », avait notamment pointé dès janvier 2026.
Cette association pro-domaine public critique le rapport Voos et la résolution « Copyright & GenAI ». « Le texte de compromis recule de cette position, faisant plutôt référence à des “ambiguïtés” supposées dans l’application des exceptions de l’exploration de texte et de données (TDM) à l’entraînement des modèles d’IA générative. Bien que cela représente une nette amélioration par rapport à la version originale, cela reste problématique », estime-t-elle (10).

La France veut sa présomption réfragable
En France, une proposition de loi pour l’instauration d’une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle » a obtenu le 19 mars 2026 l’aval du Conseil d’Etat (11). Le texte, dont la rapporteure est la sénatrice Laure Darcos (photo ci-dessus), sera débattu au Sénat le 8 avril 2026. La présomption française est bien réfragable ; elle peut donc être renversée par la preuve contraire (12). « En soutenant l’instauration d’une présomption réfutable d’utilisation des œuvres, [le rapport Voss] renforce la dynamique engagée en France avec la proposition de loi transpartisane déposée [au Sénat] », s’est félicitée le 1er mars la SACD (13). Tout comme la Sacem : « Faisons en sorte que la dynamique européenne soit confortée par le parlement en France », a déclaré le 10 mars sur LinkedIn (14) sa directrice générale, Cécile Rap-Veber. @

Charles de Laubier

DeepSeek fête ses un an et pourrait profiter de la Fête des Lanternes pour lancer sa V4

Le « ChatGPT » chinois DeepSeek, qui avait secoué les IA américaines après son lancement low cost et frugale il y a un an, va lancer la version 4 de son modèle d’IA open source. L’Empire du Milieu et l’Occident sont ses terrains de jeu. Son fondateur Liang Wenfeng fait frémir Sam Altman (OpenAI).

En Chine, avec ou sans intelligence artificielle, le Nouvel An lunaire donnant le coup d’envoi de la Fête du Printemps se célèbre – cette année 2026 – du 17 février au 3 mars, le dernier jour des festivités étant la Fête des Lanternes, connue aussi pour ses boulettes de riz gluantes (tuanyuan). Pour marquer les un an de son IA générative DeepSeek, dont la « R1 » avait été lancée massivement et mondialement le 20 janvier 2025 (1), la société éditrice Hangzhou DeepSeek AI (2), fondée par son PDG Liang Wenfeng (photo), pourrait dégainer son modèle V4 d’ici au 3 mars.

Les « sino-AI » se sont multipliées
Les administrations « Trump I », « Biden » et « Trump II » ont eu beau restreindre les exportations de puces IA américaines les plus avancées, dont les GPU (3) de Nvidia, cela n’a pas empêché des rivaux chinois des ChatGPT d’OpenAI, Gemini de Google et autres Claude d’Anthropic de relever le défi des IA génératives entraînées sur de grands modèles de langage (LLM) performants. Un an après le lancement de la première version de DeepSeek par la société de Hangzhou (capitale de la province du Zhejiang, dans l’Est de la Chine), les « sino-AI » se sont multipliées pour conquérir le monde : Qwen d’Alibaba, Doubao de ByteDance, Hunyuan de Tencent, Ernie de Baidu, M de MiniMax, Kimi de Moonshot AI, Spark d’Iflytek, Ziyue de Netease Youdao, DM0 de Dexmal, ou encore GLM de Zhipu AI.
Publiée en janvier 2026, une étude de l’organisation américaine à but non lucratif Research and Development (Rand) – émancipée de l’US Air Force depuis 1948 mais toujours financé en grande partie par le gouvernement fédéral américain – constate que (suite) « les modèles chinois coûtent entre un sixième et un quart du prix des rivaux américains ». Mais cette étude pro-américaine (4) fait l’impasse sur la sobriété énergétique des IA chinoises qui ont un avantage sur leurs concurrents américains énergivores. De plus, DeepSeek s’est d’emblée démarqué de ses rivaux américains en étant open source. Bien qu’il ne soit pas le seul à être libre (5), son IA low cost et low energy – du moins jusqu’alors dans sa version V3.2 – est en pole position dans les catégories de raisonnement avancé, d’efficacité/coût, de mathématiques/coding et d’adoption massive sur des plateformes d’hébergement et de téléchargement telles que Hugging Face (6), Ollama ou GitHub. DeepSeek surpasse parfois GPT-5 ou Gemini 3.0 Pro sur des tâches spécifiques. Cette ouverture du chinois attire développeurs et entreprises, favorisant l’adoption rapide de DeepSeek, y compris en France (7). « La part de marché mondiale des LLM chinois est passée de [moins de] 3 % à [plus de] 13 % en deux mois [entre décembre 2024 et février 2025, ndlr], principalement portée par DeepSeek, alors même que le trafic des sites web des LLM américains a continué d’augmenter régulièrement durant cette période », relève l’étude de Rand. La ville de Hangzhou, où se situe aussi le siège mondial du géant chinois Alibaba, n’a rien à envier à la Silicon Valley et est devenu une plaque tournante de l’IA mondiale. Avec sa V4 – entraînée malgré l’embargo sur des puces IA Nvidia, d’après Reuters le 24 février (8) –, DeepSeek entend ne pas se faire distancer au niveau mondial. D’autant que s’endormir sur ses lauriers serait laisser la part belle aux autres LLM ouverts dits « open-weight » (« poids du modèle » téléchargeable) que sont, par exemple, les modèles Llama de Meta, populaire chez les développeurs, Gemma de Google ou encore Large, Ministral, Devstral et Magistral du français Mistral AI.
La société Hangzhou DeepSeek AI, privée et principalement financée par le fonds High-Flyer Quant (fonds spéculatifs, ou hedge fund, piloté par l’IA) appartenant à Liang Wenfeng, se concentre pour l’instant sur la recherche fondamentale (R&D), plutôt que sur la réalisation d’un chiffre d’affaires : non divulgué, celui-ci ne dépasserait pas les 50 millions de dollars en 2025 selon les spéculations (9). Reste à savoir aussi combien de temps le PDG de DeepSeek résistera aux sirènes de la Bourse.

Liang Wenfeng s’apprête à sortir une AGI
Dans une rare interview, accordée à 36Kr (le « TechCrunch » chinois) en juillet 2024 (10), soit trois après la sortie de la V2 de DeepSeek et six mois avant le lancement mondial de sa R1 bien plus puissante, Liang Wenfeng a dévoilé ses ambitions : « La chose la plus importante est de faire partie de cette vague mondiale d’innovation. […] Les API et l’IA devraient être abordables et accessibles à tous. […] Mais notre l’objectif est l’AGI [Artificial General Intelligence, capable de surpasser les humains, ndlr]. Cela peut être dans deux ans, cinq ans ou dix ans […] OpenAI n’est pas une entité toute-puissante qui peut toujours être en première ligne ». DeepSeek s’inscrit dans le temps long. @

Charles de Laubier

Meta Platforms accélère dans l’intelligence artificielle et ambitionne d’être l’Apple-killer, quoi qu’il en coûte

La firme Meta est entrée dans sa 5e année depuis son changement de nom pour coller aux métavers. L’échec cuisant a valu à la division Reality Labs de cumuler 77 milliards de dollars de pertes depuis 2021. Mais l’ex-groupe Facebook avec Instagram et WhatsApp reste une cash machine. Et mise sur l’IA contre Apple.

Meta Platforms (ex-groupe Facebook), maison mère de Instagram, WhatsApp, Oculus et aussi éditrice des services Messenger et Threads, a franchi pour son exercice 2025 – dont les résultats ont été présentés le 28 janvier – la barre des 200 milliards de dollars de chiffre d’affaires. Lors de ses précisions pour l’année 2025, établie fin octobre (lors de la présentation des résultats du troisième trimestre), la directrice financière du groupe, Susan Li (photo de gauche) n’avait pas exclu de parvenir à dépasser cette barre symbolique.
Avec un peu plus de 200,9 milliards de dollars encaissés l’an dernier, cela représente un bond de 22,1 % sur an. Le groupe cofondé en 2004 et dirigé par Mark Zuckerberg continue d’être une cash machine très rentable, avec plus de 60,4 milliards de dollars de bénéfice net, bien qu’en léger recul de – 3 % par rapport à l’exercice précédent. Mais le revers de la médaille est que Meta est aussi un cash burner – une machine à brûler de la trésorerie. Et c’est Reality Labs qui est le gouffre financier de la firme de Menlo Park (Californie), cette activité accusant à elle seule une perte opérationnelle de près de 20 milliards de dollars (19,2) en 2025, aggravée de – 8,2 % en un an.

RL, jusqu’à 88 milliards de $ perdus depuis 2019
« Zuck » a payé très cher sa précipitation dans le métavers, non seulement en rebaptisant son entreprise Facebook en « Meta », mais surtout – selon les calculs de Edition Multimédi@ – en y injectant depuis 2021 près de 77 milliards de dollars. Puits sans fond, l’entité Reality Labs (RL, ex-Facebook Reality Labs), que dirige depuis 2017 Andrew Bosworth (photo de droite) en tant que directeur de la technologie (CTO) de Meta Platforms depuis 2022, cumule même – toujours selon notre pointage – une perte opérationnelle de plus de 88 milliards de dollars depuis l’année 2019 pré-covid. RL regroupe les activités de réalité virtuelle (VR), de réalité augmentée (AR) et de métavers. Ainsi, Mark Zuckerberg a misé très gros sur tout ce qui n’était pas publicitaire numérique ni réseau social, à savoir les casques VR Quest et Quest Pro (ex-Oculus), le métavers Horizon (XR) et tous ses déclinaisons (Worlds, OS, Workrooms, …), les lunettes connectées Ray Ban Meta en partenariat avec le fabricant franco-italien EssilorLuxottica.

Arrêt des solutions métavers aux entreprises
Alors que Meta Platforms est en train de licencier environ 10 % des effectifs de Reality Labs, soit un millier et demi d’emplois sur un total de 15.000 employés « RL », Susan Li a indiqué le 28 janvier que (suite) sur l’ensemble de l’année 2026 en cours « les pertes opérationnelles de Reality Labs rest[eraient] similaires aux niveaux de 2025 » – soit à nouveau un déficit opérationnel d’environ 20 milliards de dollars. Et toutes activités confondues, Meta s’attend cette année à dépenser au total « entre 162 et 169 milliards de dollars » dans des infrastructures (centres de données, cloud, techniciens, …) et les activités de Meta Superintelligence Labs (laboratoire IA créé en juin 2025). Meta prend ses distances avec les métavers et essaie d’y voir plus clair avec ses lunettes IA, lesquelles sont devenues « la priorité » depuis l’an dernier (1) et plus encore en 2026, en raison d’une plus forte demande pour ces prothèses oculaires connectées que pour les mondes virtuels en manque d’avatars et de débouchés commerciaux. Depuis son lancement en 2023, la gamme des lunettes intelligentes Ray-Ban Meta – venue après le Ray-Ban Stories lancées en 2021 – s’est vendue à plus de 2 millions d’exemplaires.
Mais Meta veut voir aussi plus loin que le bout de son nez : sur les traces des pionniers des assistants portatifs dopés à l’IA que sont Humane avec AI Pin et Rabbit avec R1, Mark Zuckerberg (photo ci-contre) s’apprête aussi à se lancer dès cette année sur le marché naissant du « post-smartphone » (2) avec des appareils légers intelligents (épingles IA, écouteurs IA, microphones IA et autres AI wearables). Le designer d’Apple depuis près de 20 ans (conception d’« interfaces humaine »), Alan Dye, vient d’être débauché par Meta. Une réponse à OpenAI qui, à partir de 2023, s’est attaché les services d’une autre pointure d’Apple, Jony Ive (designer de l’iPhone) pour concevoir lui aussi un « smartphone-killer » (3).
Résultat : l’horizon de Meta a changé de ligne. D’autant que « Zuck » verrait bien Meta comme le nouvel « Apple ». Conséquence de cette offensive dans les « AI devices » : Horizon Workrooms va être désactivé et les services Meta Horizon aux entreprises ne seront plus commercialisés. C’est « à partir du 16 février 2026 » que sera supprimé le métavers Horizon Workrooms, conçu comme un espace virtuel pour la collaboration dans le monde du travail. « A partir de cette date, vous ne pourrez plus accéder à Workrooms, et toutes les données associées à Workrooms seront supprimées », prévient Meta (4). Puis c’est « à compter du 20 février 2026 » que ne seront plus vendus aux entreprises les services gérés Meta Horizon et les identifiants des casques VR Meta Quest. « La clientèle pourra toujours accéder aux services gérés Meta Horizon pour Meta Quest 3 et 3S jusqu’au 4 janvier 2030 », précise cependant Meta (5). Les utilisateurs de casques VR, eux, sont invités à « essayer plusieurs applications du Meta Horizon Store telles que Arthur, Microsoft Teams immersif et Zoom Workplace » pour se réunir et collaborer. Et pour continuer à interagir avec ses amis, sa famille et sa communauté, il y a les univers de Meta Horizon Worlds (6). Le métavers n’est donc pas abandonné, mais ses développements moins dispendieux seront orientés plus vers les smartphones que sur les casques VR. Andrew Bosworth, qui a accordé plusieurs interviews à Davos lors du Forum économique mondial (WEF) de janvier, a déclaré que Meta allait « redoubler d’efforts pour apporter les meilleures expériences Horizon et les meilleurs outils de création d’IA sur le mobile ». Les mondes totalement immersifs, vers lesquels « Zuck » s’était précipité beaucoup trop vite, ne sont plus le Graal recherché.
Place donc aux dispositifs portables intelligents. « Meta prototype toutes sortes d’idées folles que vous pouvez imaginer. Il y a plein de gens qui jouent avec tous les formats. Vous avez des pendentifs, des stylos, des épingles et des poignets. Vous pouvez supposer sans risque que nous jouons avec tout cela. En interne, nous avons une très bonne équipe », a notamment confié Andrew Bosworth le 21 janvier au média indien Moneycontrol (7). Le CTO (8) de Meta à la tête de Reality Labs et de Meta Superintelligence Labs (MSL) prévoit que les dispositifs d’IA finiront par donner aux consommateurs « une ouïe, une vision, une cognition et une mémoire surhumaines », à tel point que s’ils les enlèvent, ils se sentiront désavantagés, tout comme quelqu’un qui a besoin de lunettes de correction est pénalisé par rapport à d’autres personnes qui n’en ont pas besoin. A Davos, Andrew Bosworth n’a pas démenti que la nouvelle équipe de MSL travaillait sur un modèle d’IA texte appelé Avocado, dont le lancement serait prévu pour ce premier trimestre 2026, ni sur un modèle axé sur l’image et la vidéo appelé Mango. Quoi qu’il en soit, il s’attend à ce que 2026 et 2027 soient deux années « plus affirmées » pour l’IA grand public.

Trop accro à la publicité, bientôt des abonnements
Reste que le chiffre d’affaires de la division Reality Labs atteint « seulement » 2,2 milliards de dollars sur l’année 2025, soit une petite hausse de 2,8 % sur un an. Alors qu’elle est le principal foyer de pertes de la firme de Menlo Park, cette entité ne génère que 1 % du chiffre d’affaires global du groupe. La publicité en ligne sur Facebook, Instagram, Messenger, WhatsApp et autres services – logée dans l’agrégat Family of Apps (FoA) – constitue encore l’essentiel des revenus du groupe : FoA a généré près de 198,7 milliards de dollars de chiffre d’affaires en 2025, soit 98,9 % des recettes globales. Le conglomérat Meta a indiqué au média américain TechCrunch le 26 janvier qu’il allait bientôt proposer des abonnements payants sur Instagram, Facebook et WhatsApp, donnant accès à des fonctionnalités IA et vidéo exclusives via aussi son nouveau réseau social Vibes lancé l’an dernier. @

Charles de Laubier

Tout le monde pourra devenir développeur d’applications sans coder, grâce aux « IA codeuses »

Fini les geeks qui se retrouvent seuls à écrire des lignes de codes pour développer – « from scratch » (à partir d’une feuille blanche) – des programmes ou des applications. Les développeurs informatiques sont une espèce en voie de disparition. A terme, tout le monde pourra programmer sans coder.

Imaginez un monde numérique dans lequel tout un chacun pourra créer son application mobile ou ses programmes informatiques, sans connaître le codage ni même avoir entendu parler de langages de programmation tels que les Python, C++ et autres Java. Dans ce futur, pas si lointain, n’importe qui pourra concevoir son logiciel ou son application en fonction de ses besoins ou inventer son jeu vidéo à lui, pour se divertir. Et ce, sans écrire la moindre ligne de code ni faire appel à un programmeur professionnel.

De l’autocomplétion passive à l’agentique actif
Votre rêve pourrait rapidement devenir réalité grâce à la déferlante en cours des « IA codeuses », ces intelligences artificielles agentiques capables de coder à votre place en fonction du logiciel, de l’application ou du jeu vidéo que vous souhaitez. Les grands modèles de langage (LLM) dernière génération – Gemini 3 de Google, GPT 5 d’OpenAI, Claude 4.5 d’Anthropic, Large de Mistral AI ou encore Grok 4 de xAI – ont donné naissance à agents codeurs qui génèrent euxmêmes du code, le testent et en assurent sa maintenance. Par exemple, si l’on reprend nos précédents LLM (1), ces IA codeuses s’appellent Antigravity (lancée le 18 novembre 2025), GPT 5.1 High (lancée par OpenAI le 12 novembre), Claude Code (lancée largement le 22 mai), Codestral (lancée par Mistral AI le 29 janvier) ou encore Grok Thinking (lancé par xAI le 17 novembre). L’année 2025 marque donc un tournant et une accélération sur le nouveau marché mondial des IA codeuses, où l’on retrouve bien d’autres concurrents tels que GitHub Copilot (Microsoft), Cursor (Anysphere), Qwen3-Max (Alibaba), Replit Agent (Replit), …
A ce train-là, l’intelligence artificielle (suite) pourrait générer à terme la quasi-totalité des milliards de milliards de lignes de code nécessaires au fonctionnement de nos mondes numériques. Google, qui a présenté le 18 novembre 2025 Antigravity, parle pour le moment d’« une nouvelle ère dans le développement de logiciels assistés par l’IA ». Les développeurs du monde entier – communément appelés les « devs » – connaissent depuis bien longtemps les environnements de développement intégré (ou IDE, pour Integrated Development Environment). Il s’agit d’un logiciel de programmation composé d’au moins un éditeur de code source, d’outils d’automatisation de compilation et d’un débogage, lorsqu’il n’inclut pas aussi de concepteur d’interface graphique utilisateur (GUI), d’un navigateur d’objets (composants-logiciels) ou encore de diagramme de classes (pour la modélisation orientée objet). Mais avec les IA codeuses, l’IDE change de dimension ou, plus précisément, laisse place à une « nouvelle plateforme de développement agentique ». Le fait nouveau est que cette nouvelle génération d’outils intégrés pour le codage n’est plus réservée aux seuls développeurs, mais elle s’adresse in fine à tous. « Nous voulons qu’Antigravity soit la base du développement logiciel à l’ère des agents. Notre vision est de permettre à toute personne, ayant une idée, de vivre le décollage et de la concrétiser », indique Google qui, via sa filiale Google DeepMind dirigée par Demis Hassabis (2), rend Antigravity disponible « en avant-première publique gratuitement, avec des limites tarifaires généreuses sur l’utilisation de Gemini 3 Pro » (3).
D’ailleurs, la filiale d’Alphabet parle de « développement » mais n’utilise pas le thème « développeur »… C’est révélateur. La révolution dans le développement réside dans le passage d’un mode passif d’autocomplétion – où l’IA codeuse se comportait comme un assistant de suggestion dans l’écriture de la suite d’une ligne de code ou de snippets (morceaux de code) – à un mode actif agentique autonome capable de coder de bout-en-bout, en planifiant des tâches complexes, d’exécuter plusieurs étapes de codage sans intervention humaine : écrire les lignes de code, générer des tests, configurer un pipeline, corriger et refactoriser du code existant, interagir avec d’autres outils, …
Les IA codeuses, désormais proactives, peuvent comprendre les objectifs globaux de l’utilisateur – qui n’est plus forcément un développeur – et orchestrer plusieurs étapes, au lieu de se limiter à compléter du code, ligne par ligne. Et cela change tout.

Les IA codeuses from scratch et full stack
Fini les développeurs « from scratch », c’est-à-dire ceux qui partent de zéro (ou d’une page blanche) sans réutiliser de code ou de composants préexistants. Les « devs », qui deviennent des architectes et superviseurs d’IA codeuses plutôt que des « scribes du code », verront leur productivité décupler, voire centupler si ce n’est… milleupler. Les IA codeuses accélèrent et automatisent les développements – jusqu’à donner l’impression d’avoir une compréhension profonde des systèmes. Elles fournissent non seulement ce que l’on appelle chez les devs le framework (ou « cadriciel » en français), à savoir un ensemble cohérent de composants logiciels (bibliothèques, outils, conventions) servant de socle pour construire une application, mais elles peuvent surtout procéder au codage de l’ensemble. L’IA codeuse peut même être « full stack » comme un développeur professionnel peut l’être, autrement dit à même de développer un logiciel, une application ou un site web à la fois en front-end (développement de l’interface graphique utilisateur), en back-end (gestion et traitement des données en coulisses), database comprise (base de données).

Low-code, no-code, vibe coding et IA codeuses
A terme, tout le monde pourra donc potentiellement créer sa propre application, sans générer aucune ligne de code. Les techniques de programmation dites « low-code » (avec un peu de code à écrire) et « no-code » (sans aucune ligne de code à écrire) ont préparé les esprits à du développement sans codage ou peu. Mais dans les deux cas, il faut que l’utilisateur passe par une interface graphique ou visuelle telle que : Bubble, Webflow, Zapier ou Make pour le no-code (s’adressant aux non-développeurs) ; OutSystems, Mendix, Appian ou Power Apps pour le low-code (destinés aux développeurs) ; Salesforce Lightning, ServiceNow App Engine ou Microsoft Power Apps (hybrides pour développeurs ou non).
« Le no-code est conçu pour les utilisateurs non techniques. Il permet de créer des applications via des interfaces visuelles, sans écrire une seule ligne de code. C’est idéal pour des tâches simples comme des formulaires, des tableaux de bord ou des automatisations de base, souvent utilisées par les équipes métiers. Le low-code, quant à lui, combine des éléments visuels avec la possibilité d’écrire un peu de code. Il est plus flexible et puissant, permettant de créer des solutions complexes et évolutives. Il s’adresse aux développeurs et équipes techniques, mais peut aussi être utilisé par des profils hybrides – comme les citizen developers », explique à Edition Multimédi@ Andreia Lopes Hermínio (photo), responsable du développement au sein de la division Low-code d’Axians, filiale de Vinci Energies. Mais la démocratisation du code – sans coder soi-même – s’est accélérée avec l’IA, à commencer par le vibe coding, expression apparue depuis le début de l’année 2025 pour désigner une technique de développement logiciel assisté par intelligence artificielle. C’est le principe du « S’il vous plaît… dessine-moi un mouton ! », d’Antoine de SaintExupéry dans « Le Petit Prince », appliqué au développement informatique à partir d’un prompt en langage naturel : « Fais-moi telle app ! », et l’IA génère directement le code fonctionnel et l’application, sans que l’utilisateur ait de connaissances techniques. C’est ce que l’informaticien slovaco-canadien Andrej Karpathy (4), ancien chercheur scientifique et membre fondateur d’OpenAI ainsi qu’ex-directeur de l’IA chez Tesla, appelle le « codage d’ambiance » (vibe coding). « Il existe un nouveau type de codage que j’appelle le “vibe coding”, où l’on se laisse aller à l’ambiance, où l’on adopte les exponentielles et où l’on oublie même l’existence du code. C’est possible parce que les LLM (par exemple, Cursor Composer [d’Anysphere, start-up issue du MIT, ndlr] avec Sonnet [le modèle d’Anthropic, ndlr]) sont de plus en plus performants. De plus, je communique avec Composer via SuperWhisper [modèle de transcription vocale développé par OpenAI, ndlr], ce qui fait que je touche à peine au clavier », avait expliqué Andrej Karpathy en février 2025 sur X (5). Et du vibe coding aux IA codeuses, il n’y a qu’un pas agentique vers l’« agent-first » (l’agent d’abord) où l’IA planifie et exécute de manière autonome des tâches logicielles complexes – de bout en bout.
Mais pas de panique ! Les IA codeuses, comme pour le no-code ou le vibe coding, auront toujours besoin de supervision humaine. Ces agents du codage sont comme des professionnels full stack, mais intégrés dans les workflows des développeurs. De simple créateur de lignes de code, le développeur va devenir un « prompt engineer », ou superviseur d’IA codeuse. « Le développeur devient un architecte », souligne Sornin (27 ans), lui-même développeur full stack. Cependant, certains devs pourraient craindre une déqualification de leur expertise, réduite à de la validation ou à du débogage. Le métier de développeur en France concerne environ un demi-million de personnes, parmi plus de 9 millions de développeurs dans l’Union européenne (plus de 45 millions dans le monde). Leur métier est-il en sursis ? La fédération syndicale Uni Europa ICTS dit « se batt[re] pour que l’IA serve les intérêts des travailleurs » (6).

Les développeurs réduits au chômage ?
« Aujourd’hui, l’IA est devenue un véritable compagnon de travail, capable non seulement d’écrire du code, mais aussi de naviguer dans les applications, de tester automatiquement et même de déboguer plus vite que moi, témoigne sur LinkedIn Antoine Martinelli, développeur web et intégrateur IA, basé en Suisse. Le développeur de demain ressemblera davantage à un intégrateur, un responsable de développement, ou un créatif technologique » (7). L’avenir dira si les IA codeuses augmentent la productivité des développeurs, ce que semble contredire pour l’instant une étude du centre de recherche METR (8) selon laquelle « lorsque les développeurs utilisent des outils d’IA, ils prennent 19 % de plus de temps que sans eux – l’IA les ralentit » (9). Pour l’instant… @

Charles de Laubier

Premier jugement historique en Europe condamnant OpenAI pour atteinte au droit d’auteur

Même si ce jugement historique du 11 novembre 2025 – prononcé par le tribunal de Munich contre de l’éditeur américain de ChatGPT accusé de contrefaçon musicale – est provisoire (OpenAI ayant fait appel), il sonne comme un avertissement planétaire à toutes les sociétés d’IA génératives.

Tobias Holzmüller (photo), le PDG de la Gema, qui est en Allemagne ce que la Sacem est en France, peut être fier du verdict historique obtenu en première instance du tribunal régional de Munich le 11 novembre 2025 : la manière dont OpenAI gère actuellement ChatGPT viole les lois européennes applicables sur le droit d’auteur. « Pour la première fois en Europe, l’argument en faveur de l’utilisation par les systèmes d’IA générative d’œuvres protégées par le droit d’auteur a été examiné juridiquement et statué en faveur des créateurs des œuvres », s’est félicitée la Société pour les droits d’exécution musicale et de reproduction mécanique (Gema).

Copyright : Internet n’est pas open bar
Cette décision judiciaire allemande – première de ce type dans l’Union européenne (UE) et au retentissement mondial – a clairement jugé que la licorne américaine OpenAI aurait dû acquérir les droits sur les paroles des paroliers et auteurs-compositeurs du répertoire de la Gema, avant de les utiliser pour entraîner ses modèles d’IA et de les exploiter avec son chatbot ChatGPT. De telles reproductions sans autorisations constituent aux yeux du tribunal de Munich des violations du droit d’auteur, et pour lesquelles OpenAI aurait dû obtenir une licence qui offre aux titulaires des droits une rémunération appropriée.
C’est la première fois dans l’UE qu’une décision clarifie aujourd’hui des questions juridiques-clés concernant la manière dont les nouvelles technologies interagissent avec le copyright européen. « Internet n’est pas une sorte de buffet en libre-service, et les réalisations créatives des êtres humains ne sont pas simplement des modèles à utiliser gratuitement. Aujourd’hui, nous avons établi un précédent qui protège et clarifie les droits des détenteurs de droits d’auteur créatifs : les opérateurs d’outils d’IA tels que ChatGPT doivent (suite) également se conformer à la loi sur le droit d’auteur. Aujourd’hui, nous avons défendu avec succès les moyens de subsistance des créateurs de musique », a déclaré Tobias Holzmüller. Et ce n’est pas faute pour la Gema de ne pas proposer un modèle de licence développé spécifiquement pour les fournisseurs de systèmes d’IA. Depuis septembre 2024, la « Sacem » allemande (basée à Berlin) propose ce type de licence IA comme « base juridique sûre » pour utiliser la musique afin de faire fonctionner et d’entraîner les modèles d’IA, « en garantissant que les créateurs de musique soient équitablement rémunérés, de manière à continuer d’encourager l’innovation musicale ». Or, jusqu’à présent, la Gema constate qu’OpenAI a montré « une réticence générale » à suivre tout modèle de licence quel qu’il soit. L’organisation berlinoise, qui lance ainsi un avertissement à toutes les sociétés d’IA dans le monde, a par ailleurs déposé plainte contre une autre entreprise américaine, Suno, qui, elle, fournit des contenus audios générés par une IA entraînée sur des enregistrements originaux d’œuvres du répertoire de la Gema. L’audience devrait avoir lieu le 26 janvier 2026. A noter que par ailleurs Suno a annoncé le 25 novembre 2025 un accord avec Warner Music (1). « La décision du tribunal régional de Munich montre que la manière dont les systèmes d’IA fonctionnent porte systématiquement atteinte aux droits des auteurs. Il y a un besoin urgent d’agir ici. Le modèle de licence de la Gema propose une solution, mais le cadre juridique doit également être amélioré en faveur des artistes créatifs, afin que l’acquisition des licences par les entreprises devienne la règle. Nous continuerons à travailler vers cet objectif », a prévenu Kai Welp, le directeur juridique de la société allemande de gestion collective des musiciens (2).
La justice allemande a clairement indiqué qu’OpenAI n’est pas une organisation de recherche bénéficiant de privilèges et que l’autorisation légale de ce que l’on appelle l’exploration de texte et de données – Text and Data Mining (TDM) – ne justifie en aucun cas le stockage et la production de paroles de chansons protégées par le droit d’auteur. Or la Gema a pu démontrer que ChatGPT reproduit des paroles protégées par le droit d’auteur, en réponse à de simples prompts. Le tribunal munichois a confirmé que cette utilisation suppose une obligation de délivrance de licences.

OpenAI Ireland Ltd et OpenAI LLC
Le groupe OpenAI a donc été condamné pour violation du droit d’auteur. La Gema représente les droits d’auteur détenus par plus de 100.000 membres – compositeurs, paroliers et éditeurs de musique – et plus de 2 millions de détenteurs de droits de propriété intellectuelle dans le monde. C’est l’une des plus grandes sociétés de gestion collective des droits d’auteur dans l’industrie musicale. La 42e chambre civile du tribunal régional de Munich lui a donné raison en confirmant l’essentiel de ses demandes de mesures injonctives, d’informations et de dommages-intérêts, contre deux sociétés du groupe OpenAI : la filiale européenne opératrice du chatbot ChatGPT, OpenAI Ireland Ltd (à Dublin), et la maison mère américaine – du moins l’entité commerciale à but lucratif OpenAI LLC (3) – basée en Californie (à San Francisco). La Gema a porté plainte contre ces deux sociétés du groupe d’IA génératives pour avoir mémorisé les paroles de la chanson dans des grands modèles de langage (LLM), permettant ainsi à ChatGPT de donner des réponses aux utilisateurs en grande partie fidèles aux paroles originales.

Pas de Text and Data Mining (TDM)
Les accusations de la Gema à l’encontre de la firme de Sam Altman (photo ci-contre) pour contrefaçon portent sur les paroles de neuf auteurs allemands célèbres : « Atemlos » de Kristina Bach, « 36 Grad » de Thomas Eckart, Inga Humpe, Peter Plate et Ulf Leo Sommer, « Bochum » et « Männer » de Herbert Grönemeyer, « Über den Wolken » de Reinhard Mey, « June » de Jan Vetter ainsi que « Es schneit », « In der Weihnachtsbäckerei » et « Wie schön, dass du geboren bist » de Rolf Zuckowski. OpenAI avait contesté les affirmations de la Gema, en prétendant qu’au contraire ses « modèles linguistiques » ne sauvegardaient pas ou ne copiaient pas de données d’entraînement spécifiques, mais reflétaient dans leurs paramètres ce qu’ils auraient appris sur la base de l’ensemble des données d’entraînement.
L’éditeur de ChatGPT estimait que les réponses du chatbot ne seraient générées qu’à la suite de saisies d’utilisateurs (prompts), et que par conséquence ce n’était pas OpenAI mais l’utilisateur en tant que producteur de la sortie qui serait responsable de celles-ci. De plus, dans tous les cas, OpenAI a invoqué les limites au droit d’auteur, en particulier l’exception pour ce que l’on appelle la fouille de textes et de données (TDM). Le jury allemand ne l’a pas entendu de cette oreille, et a décidé que « la mémorisation dans les modèles de langage et la reproduction des paroles des chansons dans les sorties du chatbot empiètent sur les droits d’exploitation du droit d’auteur. Celles-ci ne sont pas couvertes par les dispositions de restriction, en particulier la limitation de l’exploration de texte et de données ». Selon la 42e chambre civile, les paroles de la chanson en question étaient « reproductiblement » contenues dans les modèles linguistiques 4 (GPT 4) et 4o (GPT4Turbo) d’OpenAI. En effet, les données d’entraînement d’IA peuvent être contenues dans des modèles de langage et extraites en tant que résultats. C’est ce qu’on appelle la « mémorisation ». Une telle situation existe si les modèles de langage non seulement prennent des informations de l’ensemble de données d’entraînement pendant l’entraînement, mais trouvent également un transfert complet des données d’entraînement dans les paramètres spécifiés après l’entraînement. « Cette mémorisation a été établie en comparant les paroles des chansons contenues dans les données d’entraînement avec les reproductions dans les sorties. Compte tenu de la complexité et de la longueur des paroles, la coïncidence a été écartée comme cause de la reproduction des paroles. La mémorisation donnait une incarnation, comme condition préalable à la reproduction par droit d’auteur, des paroles contestées par des données dans les paramètres spécifiés du modèle. Les paroles des chansons en question étaient  »reproductiblement » définies dans les modèles », a expliqué le tribunal régional de Munich dans une communication (4) émise le 11 novembre 2025 dans la foulée du rendu de sa décision. A l’appui de son jugement, le jury s’est appuyé sur la directive européenne « Droit d’auteur et des droits voisins dans la société de l’information » de 2001 – ou DADVSI (5), parfois appelée « InfoSoc » – où il est précisé « par quelque moyen et sous quelque forme que ce soit » lorsqu’il est question de « reproduction directe ou indirecte, provisoire ou permanente » (6). Ce que l’Allemagne a, elle, transposé dans sa législation nationale dans sa loi sur le droit d’auteur dite « UrhG » (7). Aussi, selon la jurisprudence de la Cour de justice de l’Union européenne (CJUE), « une perceptibilité indirecte suffit à caractériser une reproduction dès lors que l’œuvre peut être perçue au moyen d’un dispositif technique ».
Et le tribunal insiste sur le fait que cette reproduction dans les modèles d’IA n’est pas couverte par les dispositions de limitation de l’exploration de texte et de données (TDM). Selon lui, la formation des IA extrait non seulement des informations des données d’entraînement, mais reproduit également des œuvres, ce qui ne constitue pas du TDM. « Le principe de l’exploration de texte et de données – ainsi que les dispositions de limitation associées selon lesquelles aucun intérêt d’exploitation n’est affecté par l’évaluation automatisée de la simple information elle-même – ne s’applique pas à [OpenAI]. Au contraire, les reproductions données dans le modèle empiètent sur le droit d’exploitation des titulaires de droits. […] Dans le cas des reproductions du modèle, l’exploitation de l’œuvre est définitivement compromise et les intérêts légitimes des titulaires des droits en sont violés », développe la décision judicaire.

En France, SACD et Scam réjouies
Autant l’homologue française de la Gema – la Société des auteurs, compositeurs et éditeurs de musique (Sacem) – n’a pas publié de communiqué sur cette première victoire européenne, autant la Société des auteurs et compositeurs dramatiques (SACD) et la Société civile des auteurs multimédia (Scam) ont fait communiqué commun (8) le 14 novembre 2025 pour se réjouir de cette décision historique et se dire « prêtes à négocier » des licences : « Cette décision crée un précédent essentiel que les services d’IA, qu’ils s’agissent des licornes européennes ou des multinationales américaines ou chinoises, ne peuvent ignorer : l’innovation ne peut se faire au détriment des créateurs et au mépris de leurs droits ». @

Charles de Laubier