Numérique et IA : cocktail explosif pour le climat

En fait. Le 7 janvier, Donald Trump a signé un décret retirant les Etats-Unis d’organisations internationales « ne serv[a]nt plus les intérêts américains », dont la Convention-cadre de l’ONU sur les changements climatiques. Dans le même temps, il défend bec et ongles les Big Tech américaines. Sale temps pour le climat.

En clair. L’intensification du numérique et la déferlante de l’intelligence artificielle s’accompagnent d’une multiplication des centres de données (datacenters), qui poussent comme des champignons dans le monde entier. Ces infrastructures très énergivores (c’est un euphémisme), consomment des quantités colossales d’électricité pour alimenter et refroidir serveurs et équipements informatiques. L’Agence internationale de l’énergie (IEA) indique, dans sa dernière étude « Energy & AI » de 304 pages (1), que « les centres de données représentaient environ 1,5 % de la consommation mondiale d’électricité en 2024, soit 415 térawattheures (TWh) ».
C’est 415 milliards de kilowattheures (kWh), soit la consommation électrique annuelle d’un pays comme l’Italie ou le Royaume-Uni, et presque la France ! Sans surprise, les Etats-Unis – pays des Gafam – représentent la plus grande part de la consommation mondiale d’électricité des datacenters en 2024 (45 %), suivis par la Chine (25 %) et l’Europe (15 %). « Les centres de données axés sur l’IA peuvent consommer autant d’électricité que les usines énergivores telles que les fonderies d’aluminium, mais ils sont beaucoup plus concentrés géographiquement », remarque l’IEA. A lui seul, le pays de Donald Trump aurait atteint en 2025 la moitié de cette voracité des centres de données – alors que le 7 janvier 2026 le président américain a claqué la porte de la Convention-cadre de l’ONU sur le climat. Et ce n’est pas fini car (suite) cette consommation mondiale des datacenters croît plus de quatre fois plus vite que le taux de consommation totale d’électricité – environ de 12 % par an depuis 2017. A ce rythme, prévoit l’IEA, « la consommation d’électricité des centres de données devrait plus que doubler pour atteindre environ 945 TWh d’ici 2030 », soit l’équivalent du Japon actuel. Avec un scénario à horizon 2025 d’environ 1.200 TWh, soit quasiment la moitié des besoins annuels de l’Union européenne d’aujourd’hui…
Qu’en est-il en France ? Selon l’étude de 225 pages (2) publiée le 6 janvier par l’Agence de la transition écologique (Ademe), 352 centres de données sont actifs dans l’Hexagone (3), pour un total de 8,16 TWh d’électricité consommés en 2024 (4). « Si rien n’est fait pour la limiter, la consommation électrique des centres de données risque d’être multipliée par 3,7 rien que sur le territoire français », prévient l’Ademe. @

« Physical AI » : pourquoi Nvidia ne lancera pas son propre robot humanoïde nouvelle génération

Au CES 2026 de Las Vegas, Nvidia a donné un coup d’accélérateur à sa conquête des « cerveaux » de robots humanoïdes. Cette diversification, au-delà des centres de données et des IA génératives, devrait conforter sa place de première capitalisation boursière mondiale.

« Le prochain voyage, la prochaine ère pour les systèmes robotiques, ce sera les robots, et ces robots viendront dans toutes sortes de tailles différentes », a lancé Jensen Huang (photo), le PDG fondateur de Nvidia, lors de son intervention ultramédiatisée au CES 2026 de Las Vegas, le 5 janvier, où ont évolué sur scène à ses côtés de petits robots humanoïdes dignes de la saga Star Wars (R2-D2, C-3PO, …), ainsi que le robot infirmier Nurabot développé par le taïwanais Foxconn avec Nvidia et Kawasaki. Agibot du chinois Zhiyuan Robotics et Chenille du sud-coréen LG Electronics étaient aussi de la partie (1).

Boston Dynamics, Neura, Franka, Humanoid, …
« Et voilà donc le prochain chapitre. Nous parlerons beaucoup plus de robotique à l’avenir, mais ce n’est pas seulement des robots au final. […] Et l’une des industries les plus importantes au monde qui sera révolutionnée par l’IA physique et la physique de l’IA est celle qui nous a tous fondés », a prédit l’Américano-Taïwanais Jensen Huang, lors de sa keynote aux allures de one-man-show.
Le patron emblématique des puces IA a cité de nombreux clients partenaires de Nvidia tels que : l’américain Boston Dynamics (détenu depuis 2021 par le sud-coréen Hyundai Motor Group), qui a sorti son robot humanoïde Atlas de son laboratoire pour lancer sa version commerciale durant ce CES 2026 (2) ; l’allemand Neura Robotics, qui a lancé aussi à Las Vegas sa nouvelle génération de robots humanoïdes 4NE (3) ; le britannique Humanoid, qui a annoncé au CES son premier robot humanoïde baptisé « HMND-01 Alpha » (4), roulant et bipède, intégrant « dans sa pile technologique » (technology stack) les technologies Nvidia que sont (suite) Jetson Thor, Isaac Sim et Isaac Lab. La société centenaire américaine Caterpillar (fondée en 1925), fabricants de machines de construction et de vêtements de travail, n’a pas annoncé d’ouvrier humanoïde au CES 2026, mais un partenariat élargi avec Nvidia pour apporter l’IA sur les chantiers (5). Pas de robot humanoïde non plus chez l’entreprise allemande Franka Robotics (ex-Franka Emika, détenu par Agile Robots depuis 2023, s’appuyant également sur les solutions IA de Nvidia, mais de la robotique manipulatrice comme avec les deux bras de FR3 Duo (plateforme bimanuale) dont les tâches sont alimentées par « GR00T N1.6 », le modèle d’IA physique (Physical AI) de Nvidia (6). C’est autant de clients d’envergure, dont les partenariats stratégiques expliquent pourquoi Nvidia ne prendra pas le risque de se lancer luimême dans la fabrication de robots humanoïdes, comme Tesla avec Optimus. « N’est-ce pas incroyable ? C’est comme ça que tu as appris à être un robot. Tu as tout fait à l’intérieur d’Omniverse. Et le simulateur de robots s’appelle Isaac, Isaac Sim et Isaac Lab », s’est enthousiasmé Jensen Huang. La firme de Santa Clara (Californie) s’est fait un nom en devenant le numéro mondial des processeurs graphiques (GPU) et des puces IA pour les centres de données ; elle compte s’imposer maintenant dans la robotique industrielle mais aussi dans les robots humanoïdes grâce à ses « piles » matérielles, logicielles et IA intégrées. Cela passe par sa plateforme Omniverse (7), offrant des bibliothèques et des microservices pour développer des jumeaux numériques industriels et des applications de simulation d’IA physique.
« Les avancées en IA physique permettent à l’IA de passer des écrans à notre monde physique, et juste à temps, alors que le monde construit des usines de toutes sortes pour des puces, des ordinateurs, des médicaments vitaux et l’IA. Alors que la pénurie mondiale de main-d’œuvre s’aggrave, nous avons plus que jamais besoin d’automatisation alimentée par l’IA physique et la robotique », a développé le PDG de Nvidia à Las Vegas (8). Le marché de masse n’est pas loin, et Jensen Huang veut en être le n°1. Une rare prévision chiffrée, avancée par Research Nester, estime le marché mondial des robots humanoïdes à plus de 3,1 milliards de dollars en 2025 et prévoit plus de 81,5 milliards de dollars d’ici 2035, à raison d’une croissance moyenne annuelle de 38,5 % sur la période (9).

Marché grand public à partir de 2026
« La nouvelle ère des robots » est décidément en marche (10). La fabrication de robots humanoïdes commence à entrer dans une phase de production industrielle, au rythme de dizaines de milliers d’unités chaque année chez Tesla, BYD, Agibot ou encore Agility Robotics, certains modèles étant désormais vendus en dessous de 10.000 dollars. La société d’études ResearchAndMarkets parle de « déploiement grand public attendu à partir de 2026 » (11), à l’instar de Tesla qui prévoit d’atteindre 100.000 Optimus cette année. @

Charles de Laubier

Ce que l’Europe a répondu aux Etats-Unis suite au bannissement de cinq personnalités du numérique

Depuis que l’administration « Trump II » a interdit de visa cinq personnalités européennes jugées responsables ou complices de la régulation numérique dans les Vingt-sept, soi-disant au détriment des Gafam américains, l’Europe s’insurge et demande des explications. Bras de fer transatlantique.

« Le département d’Etat [américain] prend des mesures décisives contre cinq individus qui ont mené des efforts organisés pour contraindre les plateformes américaines à censurer, démonétiser et réprimer les points de vue américains auxquels elles s’opposent. Ces militants radicaux et ces ONG militarisées ont favorisé la répression de la censure par des Etats étrangers — dans chaque cas ciblant les orateurs américains et les entreprises américaines », avait lancé sans retenue Marco Rubio (photo), le secrétaire d’Etat américain à Washington (1), le 23 décembre 2025.

Le ministre Roland Lescure au créneau
Le Département d’Etat s’est aussi dit « prêt et disposé à élargir la liste actuelle », qui, pour l’heure comprend cinq personnalités européennes que sont (par ordre alphabétique) : le Britannique Imran Ahmed (fondateur et directeur général du Center for Countering Digital Hate), l’Allemande Josephine Ballon (directrice juridique de HateAid), le Français Thierry Breton (ancien commissaire européen à la Commission européenne), la Britannique Clare Melford (cofondatrice et directrice générale du Global Disinformation Index), l’Allemande Anna-Lena von Hodenberg (fondatrice et directrice générale de l’organisation HateAid).
Ainsi, parmi ces « militants radicaux et ces ONG militarisées » (dixit l’administration Trump II), celui qui suscite le plus de réaction est Thierry Breton, ancien commissaire européen au Marché intérieur de 2019 jusqu’à sa démission en 2024. Le dimanche 4 janvier, Roland Lescure, ministre de l’Economie, des Finances et de la Souveraineté industrielle, énergétique et numérique, a annoncé sur Franceinfo qu’« [il se] rendr[a] aux Etats-Unis, dans quelques jours [pour] rencontrer [son] alter ego, Scott Bessent [secrétaire au Trésor des Etats-Unis, ndlr] », en précisant : « Et je vais lui parler de ça. […] Je vais évidemment lui demander des explications sur cette mesure que je regrette, mais lui rappeler aussi que ce qu’on a adopté en Europe, eh bien oui, c’est différent de la manière dont les Etats-Unis voient la soi-disant liberté d’expression qui conduit à raconter n’importe quoi ». Dans la Commission « von der Leyen II », Thierry Breton fut un des artisans de (suite) la règlementation sur les services numériques – le Digital Services Act (DSA) critiqué par les Etats-Unis – ainsi que de la règlementation sur les marchés numériques – le Digital Markets Act (DMA) également dans le collimateur américain. « Notre première réaction face à ces événements, avait ajouté Roland Lescure sur Franceinfo, c’est qu’on ne reculera pas et qu’on continuera à appliquer une réglementation européenne qui est conforme aux valeurs européennes et qui, oui, contrevient à un certain nombre de convictions américaines aujourd’hui ». Le DSA est particulièrement contraignant pour les grandes plateformes numériques du monde entier, dès lors que ces « VLOP » (Very Large Online Platforms) et « VLOSE » (Very Large Online Search Engines), soit à ce jour une vingtaine de services en ligne (2), ont l’obligation de lutter a priori contre les contenus illicites. C’est sur ce fondement que le réseau social X (ex-Twitter) s’est vu infliger par la Commission européenne la toute première amende « DSA », de 120 millions d’euros, annoncée le 5 décembre 2025 pour « violation de ses obligations de transparence » (conception trompeuse de son “badge bleu de vérification”, manque de transparence de son dépôt publicitaire et refus d’accès aux données publiques pour les chercheurs).
« La DSA rétablit la confiance dans l’environnement en ligne », avait déclaré Henna Virkkunen, vice-présidente de la Commission européenne pour la souveraineté technologique, la sécurité et la démocratie. Cette première sanction financière prise au nom de DSA (3) aurait été, pour l’administration « Trump II », la goutte qui aurait fait déborder le vase. Selon Roland Lescure, les Etats-Unis auraient pris les mesures de « Visa ban » à l’encontre de cinq personnalités européennes, « c’est parce qu’on a fait des choses qui leur déplaisent ; on a frappé juste ».

La Commission européenne condamne
Quant à la Commission européenne, dans une déclaration publiée le 24 décembre 2025, elle a « condamn[é] fermement la décision américaine d’imposer des restrictions de voyage à cinq personnes européennes, dont l’ancien commissaire européen Thierry Breton », et elle a « demandé des clarifications aux autorités américaines ». Le ton reste très diplomatique, avec une mise en garde de circonstance : « Si nécessaire, nous réagirons rapidement et de manière décisive pour défendre notre autonomie réglementaire contre des mesures injustifiées ». Ce statement (4) n’est pas signé, ni par la présidente de la Commission européenne Ursula von der Leyen ni par la vice-présidente Henna Virkkunen. Il réfute l’idée trumpienne que le DSA porte atteinte à la liberté d’expression par la censure, laquelle est au contraire « un droit fondamental en Europe et une valeur fondamentale partagée avec les Etats-Unis à travers le monde démocratique ». Et de défendre les DSA, DMA et autres RGPD : « Nos règles numériques garantissent un terrain de jeu sûr, équitable et équitable pour toutes les entreprises, appliquées de manière équitable et sans discrimination ». Et Henna Virkkunen d’abonder dans le sens de la légitimité de ces règles : « Notre législation numérique a été décidée démocratiquement par le Parlement européen et nos Etats membres » (5).

Des règles transposées par les Vingt-sept
En France, la ministre déléguée à l’Intelligence artificielle et au Numérique, Anne Le Henanff, intervenait la veille de Noël sur Franceinfo pour bien préciser que « la réponse qui sera apportée, s’il y en a une – elle n’est pas de mon niveau – sera collective et européenne », tout en défendant elle aussi le DSA et en rappelant le soutien du gouvernement français à Thierry Breton (photo ci-contre), qui se voient – comme les quatre autres ressortissants européens – interdit de séjour sur le sol américain. « Le DSA a été démocratiquement composé, puisque les 27 membres ont choisi de l’appliquer dans chacun de leur pays et au niveau européen, a-t-elle rappelé. C’est un règlement qui est décidé par les Européens pour les Européens. C’est un texte que nous avons collectivement souhaité pour nous protéger des dérives et des risques que nous rencontrons parfois sur les grandes plateformes ou les moteurs de recherche, quelle que soit leur origine. On décide que chaque Etat, chaque entité, chaque entreprise qui décide de venir s’implanter sur le territoire européen, respecte nos règles » (6).
La veille, soit dès le 23 décembre 2025, le ministre de l’Europe et des Affaires étrangères, Jean-Noël Barrot, avait posté sur X une déclaration prenant fait et cause pour le Français et les quatre autres : « La France dénonce avec la plus grande fermeté la restriction de visa prise par les Etats-Unis à l’encontre de Thierry Breton, ancien ministre et Commissaire européen, et quatre autres personnalités européennes ». Et le chef de la diplomatie française de mettre les points sur les « i » en faveur de l’Union européenne : « Le DSA a été démocratiquement adopté en Europe pour que ce qui est illégal hors ligne le soit aussi en ligne. Il n’a absolument aucune portée extraterritoriale et ne concerne en aucun cas les Etats-Unis. Les peuples de l’Europe sont libres et souverains et ne sauraient se faire imposer par d’autres les règles s’appliquant à leur espace numérique » (7). Thierry Breton, lui, a réagi à son bannissement des Etats-Unis en dénonçant le 24 décembre sur X « un vent de maccarthysme », et en rappelant que « 90 % du Parlement européen — démocratiquement élu — et les 27 Etats membres à l’unanimité ont voté le DSA » (8). Le Parlement européen a adopté le DSA par 539 voix (54 contre et 30 abstentions), et le DMA par 588 voix (11 contre et 31 abstentions). Quant à la présidente de la Commission européenne, Ursula von der Leyen, elle a été « roulée dans la farine » par un Donald Trump sans scrupules ni limites. L’Allemande avait été tout sourire avec Donald Trump lors de l’annonce, à Bruxelles le 27 juillet 2025, de l’accord conclu sur les droits de douane – l’« accord 15 % ». Mais une fois scellé le 21 août suivant, cet accord commercial transatlantique avait été aussitôt suivi – fin août (9) – par des attaques en règle lancées par Donald Trump lui-même contre l’Union européenne et ses taxes sur les services numérique (TSN), son DSA et son DMA.
Même le président de la Federal Trade Commission (FTC), Andrew Ferguson, avait écrit une lettre à treize patrons de Big Tech américaines – dont Apple, Google, Meta, Microsoft, Amazon, X, Signal ou encore Slack – pour dire tout le mal qu’il pensait du DSA qui, selon lui, « incite les entreprises technologiques à censurer le discours, y compris le discours en dehors de l’Europe » (10). La FTC s’est appuyé sur un rapport à charge publié le 25 juillet 2025 par les républicains de la commission judiciaire, présidée par le trumpiste Jim Jordan, à la Chambre des représentants. Son titre : « La menace de la censure étrangère : comment la loi sur les services numériques de l’Union européenne impose une censure mondiale et enfreint la liberté d’expression américaine » (11). En fin d’année 2025, le locataire de la Maison-Blanche, qui adore se faire appeler « président de l’Europe » par… certains dirigeants européens, avait fait préparer le bras de fer par son secrétaire d’Etat au Commerce Howard Lutnick, venu à Bruxelles le 24 novembre 2025 – épaulé par le représentant commercial des Etats-Unis Jamieson Greer – pour mettre à nouveau en cause la législation numérique européenne. Avec un chantage à la clé, sur l’acier et l’aluminium (12).

Plainte contre l’administration Trump
Ces attaques personnelles font suite à plusieurs offensives antérieures de l’administration « Trump II » à l’encontre du cadre législatif européen pour les services et les marchés numériques. Le secrétaire d’Etat américain Marco Rubio avait lancé les hostilités en demandant – par écrit le 4 août 2025 – aux diplomates américains en Europe de lancer une campagne de lobbying contre le DSA (13). Le Britannique Imran Ahmed (Center for Countering Digital Hate), qui vit aux Etats-Unis et sous la menace d’une expulsion, a déposé plainte le 24 décembre 2025 contre l’administration Trump. Le tribunal de New York lui a accordé une injonction temporaire empêchant son expulsion le temps de l’examen de sa plainte. @

Charles de Laubier

La présomption d’exploitation des contenus culturels par les IA reste incertaine voire inconstitutionnelle

La proposition de loi instaurant une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle » a été déposée au Sénat le 12 décembre 2025. Ce projet de texte ne fait pas l’unanimité, ni en France ni au Parlement européen, et soulève des questions.

(La commission juridique du Parlement européen a voté le 28 janvier 2026 pour le rapport de l’eurodéputé Alex Voss, mais expurgé de l’irrebuttable presumption of use).

La proposition de loi instaurant une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle », déposée au Sénat le 12 décembre 2025, sera-t-elle examinée en ce début 2026 ? Rien n’est moins sûr, car ce texte – concocté en plein lobbying d’organisations d’ayants droits et sur recommandation d’une mission du ministère de la Culture conduite par le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – soulève des questions et des réserves de la part des entreprises visées et du gouvernement.

Les deux objectifs poursuivis par le Sénat
Pour les sénatrices Agnès Evren (LR) et Laure Darcos (Indépendants) ainsi que le sénateur Pierre Ouzoulias (communiste/CRCE), qui ont publié le 9 juillet 2025 un rapport d’information intitulé « Création et IA : de la prédation au partage de la valeur » (1), il s’agit d’instaurer une inversion de la charge de la preuve ou tout du moins d’alléger la charge de la preuve pesant sur les ayants droit lorsque ces derniers forment un recours. En clair : ce serait aux entreprises de systèmes d’IA de démontrer qu’elles n’utilisent pas de contenus culturels pour l’entraînement de leurs systèmes d’IA.
« La présomption proposée ici est dite simple ou réfragable [réfutable, pouvant être contredits, ou mis en défaut par un raisonnement ou une preuve, ndlr]. Elle peut donc être renversée par la preuve contraire, c’est-à-dire la démonstration au juge que le ou les contenus n’ont pas été utilisés », justifient les sénateurs emmenés par Laure Darcos (photo). D’autant que pour les auteurs de la proposition de loi, « il serait difficilement audible de soutenir que la charge de la preuve, qui incombe aujourd’hui aux titulaires de droits, alors qu’ils n’ont pas la maîtrise technique de l’outil IA, est trop lourde pour des professionnels de l’exploitation de la donnée ». La proposition de loi vise donc à instaurer cette présomption légale, en poursuivant un double objectif comme (suite) cela est expliqué dans les motifs (2) :
Le premier objectif est de restaurer l’effectivité des droits en allégeant la charge de la preuve. Au lieu de la preuve de l’exploitation d’un contenu culturel pour entraîner un modèle d’IA, quasi impossible à rapporter sans une transparence totale de la part des fournisseurs d’IA, le mécanisme de présomption requiert la preuve d’un fait connu, plus simple à rapporter.
Le second objectif de cette présomption est de dissuader les acteurs de l’intelligence artificielle d’adopter certains comportements ou, à l’inverse, de les inciter à en suivre d’autres. La règle de droit a un effet prophylactique. Aussi, la présomption n’est pas qu’un outil contentieux. Elle a également pour objectif de favoriser l’émergence d’un marché éthique et compétitif, conciliant soutien à l’innovation et préservation de la culture, hors de tout procès, par le simple effet incitatif de la règle.
Mais qu’est-ce que la présomption ? « La présomption est fondée sur la vraisemblance de ce qui advient le plus souvent. Lorsqu’une IA générative produit un contenu à la manière d’un contenu protégé ou dans le style d’un créateur ou d’un auteur, il est vraisemblable qu’elle a utilisé les contenus de ce dernier. Il en est de même lorsque l’IA “régurgite” des extraits ou des éléments d’une œuvre ou d’un objet protégé, lorsqu’elle en développe une analyse, ou lorsqu’il existe des ressemblances entre l’objet protégé et le contenu généré », expliquent les sénateurs pour justifier leur proposition de loi qui inverse la charge de la preuve.
Quoi qu’il en soit, la France devra notifier cette mesure législative à la Commission européenne, via le Tris (Technical Regulation Information System), avant son éventuelle adoption – donc avant l’examen parlementaire. Cette procédure déclencherait alors une période de statu quo de trois mois, durant laquelle le texte ne peut pas être adopté. Selon les constatations de Edition Multimédi@, la base Tris (3) ne fait pas encore état d’une notification de la France sur ce texte.

De Laure Darcos à l’eurodéputé Axel Voss
« Par cette proposition de loi, le législateur français entend être précurseur et susciter un élan auprès de ses partenaires européens pour rééquilibrer le rapport de force entre titulaires de droits et fournisseurs d’IA », assurent les porteurs de la proposition de loi. Le lobbying des ayants droits s’est d’ailleurs intensifié au niveau de de l’Union européenne, où l’idée d’une présomption d’utilisation des contenus culturels par les fournisseurs d’IA est poussée par député européen Axel Voss (photo ci-dessous). Ce démocrate-chrétien allemand – membre de la CDU dans son pays et membre du PPE (4) au Parlement européen – est l’un des principaux architectes des politiques européennes sur le droit d’auteur (ex- rapporteur de la directive droit d’auteur de 2019), la régulation numérique et l’IA, ainsi que sur la protection des données. Il est régulièrement perçu comme proche des positions des ayants droit.

Vote européen incertain le 9 mars 2026
C’est Axel Voss qui suggère au Parlement européen d’introduire le principe de « présomption irréfragable d’utilisation » (irrebuttable presumption of use) de contenus protégés par le droit d’auteur utilisés pour la formation des systèmes d’IA, lorsque les obligations de transparence complètes n’ont pas été pleinement respectées. Porte-parole du PPE au sein de la commission des affaires juridiques (Juri) du Parlement européen, il est l’auteur du rapport « Copyright et IA générative – opportunités et challenges » (5) pour cette dernière qui examine le rapport « Voss » amendé, contenant cette disposition de présomption, en vue d’un vote en plénière prévu initialement le 19 janvier 2026 mais renvoyé au 9 mars. Il recommande à la Commission européenne de « proposer l’établissement d’une présomption irréfragable selon laquelle, pour tout modèle ou système d’IA à usage général (GenAI) mis sur le marché de l’Union, les œuvres et autres objets protégés par le droit d’auteur ou les droits voisins ont été utilisés pour sa formation lorsque les obligations légales de transparence énoncées dans la présente résolution n’ont pas été pleinement respectées » (6). Ainsi, lorsque les fournisseurs ou les diffuseurs d’IA ne font pas preuve d’une transparence complète, cela donne lieu à une présomption irréfragable selon laquelle toute œuvre protégée par un droit d’auteur ou tout autre objet protégé pertinent a été utilisé à des fins de formation (7). Le rapport « Voss » recommande en outre que « lorsqu’un titulaire de droits obtient gain de cause dans une procédure judiciaire, soit sur la base de cette présomption, soit en présentant des preuves, tous les frais de justice et autres dépenses raisonnables et proportionnés engagés […] sont à la charge du fournisseur du modèle ou système d’IA ».
Qu’est-ce que la transparence des systèmes d’IA ? Le rapport « Copyright & GenAI » estime que cette transparence doit consister en « une liste détaillée identifiant chaque contenu protégé par le droit d’auteur utilisé pour la formation » et cette même exigence devrait « s’appliquer mutatis mutandis à toute utilisation ultérieure du contenu à des fins d’inférence, de génération augmentée par récupération ou de fine-réglage non seulement par les fournisseurs de modèles d’IA, comme le stipule [l’AI Act (8)], mais aussi par les fournisseurs ou les déploiements de systèmes d’IA ». Il suggère en outre qu’une telle transparence pourrait être facilitée par un intermédiaire de confiance, tel que l’Office de l’Union européenne pour la propriété intellectuelle (EUIPO), lequel serait chargé d’informer les titulaires de droits de l’utilisation de leur contenu, leur permettant ainsi de faire valoir des revendications en lien avec son utilisation pour la formation des systèmes d’IA (9).
Mais les débats en commission Juri du Parlement européen, avant le vote en plénière le 19 janvier, ont révélé de sérieuses divergences sur le rapport « Voss » et sur les nombreux amendements déposés et consignés le 15 septembre 2025 dans un document de… 193 pages – en lien ici (10), environ 300 selon le rapporteur Axel Voss. Sans préjuger de l’issu des travaux législatifs européens, les titulaires de droits français, eux, se sont réjouis le 17 décembre 2025 du dépôt au Sénat de la proposition de loi « Présomption d’exploitation des contenus culturels par les fournisseurs de systèmes d’IA » : « Ce dépôt s’inscrit dans la droite ligne de l’impulsion donnée par la ministre de la Culture, Rachida Dati, depuis son arrivée rue de Valois en matière de défense du droit d’auteur et des droits voisins, en venant traduire l’une des principales recommandations de la mission confiée par le CSPLA à la professeure Alexandra Bensamoun (11) sur la rémunération des contenus culturels utilisés par les systèmes d’intelligence artificielle (volet juridique) », ont acclamé une quinzaine d’organisations professionnels (12) telles que la SACD (13), la Sacem (14), l’Apig (15), la Scam (16) ou encore le SNE (17). Mais cette présomption légale d’exploitation des contenus culturels par les IA génératives soulève des questions constitutionnelles au regard du droit français.

La présomption IA : anticonstitutionnelle ?
C’est ce que se demande Vincent Fauchoux, avocat associé chez Deprez Guignot Associés (DDG), et président de l’International Law Association for Artificial Intelligence (ILAAI). « Si la jurisprudence constitutionnelle admet le recours à des présomptions légales, c’est à la condition qu’elles soient réfragables, proportionnées à l’objectif poursuivi et qu’elles ne portent pas une atteinte excessive aux droits de la défense, à la présomption d’innocence et à la liberté d’entreprendre. […] L’avenir normatif de cette proposition apparaît, à tout le moins, incertain », prévient-il dans une note juridique publiée le 19 décembre (18). Les start-up françaises de l’IA, Mistral AI en tête, s’inquiètent d’une telle mesure, tandis que les ministères de la Culture et du Numérique s’interrogent sur la viabilité juridique de cette présomption IA. @

Charles de Laubier

Le Français Yann LeCun (ne) retournera (pas) en France

En fait. Le 9 décembre marquera l’anniversaire des 12 ans du Français Yann LeCun chez Facebook (devenu Meta), jour où il a été nommé directeur du laboratoire de R&D en intelligence artificielle (FAIR), tout juste crée. Le 31 décembre 2025, le « frenchie » quittera Meta pour créer sa start-up.

En clair. « Je prévois de quitter Meta après 12 ans : 5 ans en tant que directeur fondateur de FAIR [Facebook AI Research] et 7 ans en tant que scientifique en chef de l’IA [Chief AI Scientist]. Je crée une start-up pour poursuivre le programme de recherche en intelligence machine avancée (AMI) que j’ai engagé depuis plusieurs années avec des collègues de FAIR, de NYU [New York University] et au-delà », a annoncé le 20 novembre le Français Yann LeCun, sur son compte LinkedIn (1).
Il veut aller au-delà des LLM (Large Language Model), qui ont atteint leurs limites, pour passer à ce qu’il appelle « la prochaine grande révolution dans l’IA » : les Advanced Machine Intelligence (AMI), « des systèmes qui comprennent le monde physique, possèdent une mémoire persistante, savent raisonner et planifient des séquences d’actions complexes ». Mais le « frenchie » (65 ans) ne quitte pas New York pour autant ni ne va servir la France dans sa quête de souveraineté numérique. Yann LeCun a indiqué qu’il (suite) va non seulement lancer sa start-up « AMI » en collaboration avec des collègues du labo FAIR et de l’Université de New York où il enseigne depuis 2003, mais aussi rester proche de la firme de Mark Zuckerberg. « Meta sera partenaire de la nouvelle société », a précisé l’informaticien diplômé de l’Esiee Paris (1983) et de l’Université Pierre et Marie Curie (1987), et devenu spécialiste mondial des neurosciences et du deep learning. Comprenez : l’ex-groupe Facebook sera l’un des investisseurs de sa start-up. « L’AMI aura des applications de grande envergure dans de nombreux secteurs de l’économie, dont certains recoupent les intérêts commerciaux de Meta, mais beaucoup non », a-t-il aussi indiqué, alors qu’il reste salarié de Meta jusqu’au 31 décembre 2025.
Concernant le labo FAIR, devenu Fundamental AI Research lorsque le groupe a été rebaptisé Meta Platforms en octobre 2021, il réduit la voilure d’environ 600 postes, selon CNBC (2), pour passer sous les 3.000 employés, lesquels sont répartis dans différentes implantations : New York, Menlo Park, Londres, Montréal et Paris. Les bureaux de FAIR Paris (3), installés il y a 10 ans, sont aussi impactés en proportion par rapport à plus d’une centaine de chercheurs. Le départ de Yann LeCun s’explique par la décision de « Zuck » d’investir plus sur la commercialisation de l’IA, comme son modèle Llama (4), au détriment de la recherche fondamentale. @