Entraînement des IA avec les données personnelles de Facebook et d’Instagram : validation européenne ?

Une décision rendue le 23 mai 2025 par un tribunal de Cologne (OLG Köln), couplée aux échanges préalables avec la « Cnil » irlandaise (DPC) et à la mise en place des mesures proposées par cette dernière, entérine la possibilité pour Meta de lancer son projet d’entraînement des modèles d’IA.

Par Sandra Tubert, avocate associée, et Miguel Piveteau, élève avocat, Algo Avocats

Le groupe Meta Platforms utilise depuis le 27 mai 2025 les données partagées publiquement par les utilisateurs majeurs et les comptes institutionnels sur ses services Facebook et Instagram (1) : publications, photos, vidéos ou encore commentaires (exceptés les messages échangés entre utilisateurs et contenus privés), mais aussi les interactions des utilisateurs avec ses systèmes d’intelligence artificielle (IA) pour entraîner ses grands modèles de langage (LLM) comme Llama.

Décision d’un tribunal de Cologne
A la différence de X (ex-Twitter) (2), Meta a engagé un dialogue constructif avec l’autorité irlandaise de protection des données (DPC). En effet, avant que le grand public ne découvre ce nouveau projet fin mai 2024, Meta avait informé la DPC, au mois de mars 2024, de son souhait d’utiliser les contenus publics de ses utilisateurs européens de Facebook et d’Instagram pour l’entraînement de ses modèles d’IA (3). Meta avait finalement suspendu le projet, le 14 juin 2024 (4), après le dépôt de plusieurs plaintes par l’organisation autrichienne Nyob auprès de onze autorités de contrôle européennes (5) et d’échanges avec la DPC (6), laquelle avait émis des réserves concernant notamment (suite) la base légale et la transparence d’un tel traitement. Le 4 septembre 2024, la DPC avait alors demandé au Comité européen sur la protection des données (EDPB) de rendre un avis sur l’utilisation de données personnelles pour le développement et le déploiement de modèles d’IA (7). Tenant compte de cet avis du 17 décembre (8), Meta a réévalué certaines modalités de son projet (notamment le renforcement des mesures de filtrage pour réduire le risque que des données personnelles soient mémorisées par les modèles d’IA lors de la phase d’entraînement) et a fourni à la DPC une documentation actualisée dans l’optique de débuter l’entraînement de ses modèles d’IA le 27 mai 2025.
Après avoir examiné les propositions de Meta et recueilli les commentaires des autres autorités de contrôle européennes, la DPC a formulé un certain nombre de recommandations qui ont été appliquées par Meta, parmi lesquelles la simplification des formulaires d’opposition au traitement et leur accessibilité pendant plus d’un an, la fourniture d’une information claire sur les moyens permettant aux utilisateurs de contrôler les données utilisées (paramétrage des contenus en mode privé), et un délai plus long entre ces informations et le lancement du projet pour leur permettre réellement de s’y opposer (9). L’annonce de ce projet a suscité une levée de boucliers par plusieurs associations, telles que UFC-Que Choisir (10) en France ou Noyb en Autriche. Cette dernière a notamment adressé à l’entreprise une mise en demeure (11), se réservant la possibilité d’intenter une action de groupe au civil. En parallèle, une association de consommateurs allemande (VZNRW) a saisi en référé le tribunal régional supérieur de Cologne – Oberlandesgericht Köln (OLG Köln) – afin qu’il soit interdit à Meta de traiter les données personnelles partagées publiquement par les utilisateurs sur les services Facebook et Instagram afin de développer et améliorer ses IA. Dans une décision (12) rendue le 23 mai 2025, le tribunal rejette la demande de l’association (après un examen qu’il qualifie de sommaire de l’affaire, mais qui est pourtant très étayé), et ne remet pas en cause la légalité du projet de Meta. En effet, en s’appuyant sur une argumentation documentée, conforme à l’avis de l’EDPB et enrichie de l’avis circonstancié des autorités de contrôle des Länder du Bade-Wurtemberg et d’Hambourg, il a écarté, un à un, les griefs soulevés tenant à : la violation du Digital Markets Act (DMA) ; l’impossibilité pour Meta de fonder le traitement sur l’intérêt légitime ; et l’absence d’exception autorisant le traitement de données sensibles. L’OLG Köln a d’abord estimé que la constitution d’une base de données d’entraînement au moyen des données publiques issues des services Facebook et Instagram ne violait pas le DMA (13) – Meta étant désigné comme contrôleur d’accès par la Commission européenne pour ces services essentiels.

Gatekeeper : pas de violation du DMA
Le DMA interdit à tout contrôleur d’accès de combiner, sans consentement préalable de l’utilisateur, les données personnelles provenant d’un service essentiel, qu’il propose aux utilisateurs, avec celles provenant d’un autre service. Selon le tribunal, le fait que Meta introduise des données partiellement désidentifiées et fragmentées provenant de deux services de plateforme dans un ensemble non structuré de données d’entraînement ne constitue pas une combinaison de données, au sens du DMA, en l’absence de lien et mise en relation des données personnelles d’un utilisateur provenant d’un service à celles du même utilisateur provenant d’un autre service. L’OLG Köln valide ensuite le recours à l’intérêt légitime comme base légale de traitement, en réalisant une analyse complète, s’appuyant sur les différents critères exigés par l’EDPB. Le tribunal y reconnaît ainsi que l’intérêt poursuivi, à savoir proposer une IA générative optimisée en fonction des habitudes régionales, quoique commercial, est légitime, puis que le traitement envisagé par Meta s’avère nécessaire pour atteindre cet intérêt en l’absence d’un moyen moins intrusif.

Rapport de Meta pour octobre 2025
Pour démontrer cette nécessité, le tribunal de Cologne mobilise l’AI Act (14) qui reconnaît expressément que le développement et l’entraînement des modèles d’IA génératifs requièrent un accès à de grandes quantités de données (15). S’agissant des moyens moins intrusifs proposés notamment par l’association – à savoir le fait d’utiliser uniquement des données anonymisées ou synthétiques (données qui ne sont pas issues d’une observation réelle, mais qui sont créées artificiellement via des simulations), ou de restreindre l’entraînement aux seules données d’interaction avec les systèmes d’IA –, ils ne permettraient pas, selon l’OLG Köln, d’obtenir des résultats comparables.
Enfin, la mise en balance de l’intérêt légitime poursuivi par Meta avec les intérêts et droits des personnes concernées est jugée adéquate. Le tribunal allemand a identifié les conséquences négatives du traitement, notamment les atteintes aux droits des personnes de décider et contrôler l’usage de leurs données et au droit à l’effacement. Ces conséquences négatives sont toutefois tempérées en raison, d’une part, du caractère public des données traitées limitant les risques liés à une divulgation (puisque ces données sont déjà accessibles librement), et, d’autre part, des mesures de mitigation mises en place par Meta. Sont soulignées les mesures visant à réduire le caractère identifiant des données (incluant la tokenisation) et à les rassembler sous une forme non structurée. Sont également mises au crédit de Meta les possibilités offertes aux utilisateurs pour empêcher l’inclusion de leurs données dans la base d’entraînement : le retrait du statut « public » de leurs publications ou de leur compte ainsi que l’opposition au traitement spécifique des données pour entraîner les modèles d’IA par l’intermédiaire de deux formulaires disponibles en ligne. L’OLG Köln a estimé que l’opposition pouvait ainsi être exercée sans difficulté et de manière éclairée par l’utilisateur dans un délai suffisant (six semaines avant la mise en œuvre effective du traitement). La décision laisse toutefois en suspens la question du caractère effectif de cette possibilité d’opposition pour les tiers non-utilisateurs cités dans les publications ou commentaires. Concernant les attentes raisonnables des personnes concernées, le traitement des données publiées à partir du 26 juin 2024 est jugé prévisible pour les utilisateurs qui ont été informés de ce traitement par l’annonce du 10 juin 2024. S’agissant des données publiées antérieurement, leur traitement n’est, en revanche, pas jugé prévisible car sa finalité n’est pas d’améliorer les services existants de Meta mais de développer des IA utilisables de manière autonome et accessibles à tous. Cette absence de prévisibilité n’est toutefois pas vue comme une difficulté pour la juridiction qui justifie l’absence d’interdiction de traiter ces données au motif que les utilisateurs disposent d’un instrument d’opposition efficace. Enfin, le traitement des données sensibles des utilisateurs est autorisé car il porte sur des données manifestement rendues publiques par l’utilisateur, l’une des exceptions prévues à l’article 9 du RGPD. S’agissant des données sensibles de tiers partagées par les utilisateurs via des publications, le tribunal de Cologne reconnaît que l’exception précédente ne peut pas être mobilisée, mais estime – en s’appuyant notamment sur une jurisprudence de la Cour de Justice de l’UE de 2019 (qui n’aborde pourtant pas cette problématique précise (16)) et sur le fait qu’une application littérale de l’article 9 du RGPD ne permettrait pas d’atteindre les objectifs de l’AI Act – que Meta peut traiter ces données de manière incidente et résiduelle jusqu’à ce que l’interdiction de le faire soit sollicitée par le tiers concerné. Cette décision de l’OLG Köln, couplée aux échanges avec la DPC et à la mise en place des mesures proposées par cette dernière – enrichies de l’avis des autres autorités de l’UE –, entérinent donc la possibilité pour Meta de lancer son projet d’entraînement des modèles d’IA. Mais l’entreprise ne bénéficie pas d’un blanc-seing pour autant.
La DPC suit de près le déploiement du projet et attend un rapport complet de Meta pour le mois d’octobre 2025 contenant, entre autres, des développements sur l’efficacité et l’adéquation des mesures. En parallèle, les autorités de l’UE collaborent (17) pour évaluer plus largement la conformité des traitements envisagés par Meta, notamment en lien avec la phase de déploiement des systèmes d’IA qui pose d’autres questions au regard du RGPD. Meta n’est donc pas totalement à l’abri de l’engagement d’une procédure de sanction par la DPC si des manquements sont constatés. Enfin, bien que la Cnil ne se soit pas officiellement positionnée sur la licéité des pratiques de Meta, la récente mise à jour de ses fiches sur la mobilisation de l’intérêt légitime pour développer un système d’IA (18) témoigne d’une certaine tolérance concernant ce type de pratiques.

Position de la Cnil sur l’intérêt légitime
La Cnil, ayant pris en compte les retours du terrain, y a notamment précisé que l’intérêt commercial entourant les projets de développement de systèmes d’IA par les entreprises constituait un intérêt légitime à part entière. Elle a également admis que cette base légale pouvait être mobilisée par un réseau social qui collecte des données d’utilisateurs rendues librement accessibles et manifestement publiques sur son forum en ligne afin de développer un agent conversationnel. Cette prise en compte par la Cnil des réalités économiques et opérationnelles est bienvenue et rassurera les développeurs de systèmes d’IA qui envisagent d’utiliser ou de constituer de grandes bases de données pour entraîner leurs modèles. @

Passage de 4 à 3 opérateurs télécoms dans les Etats de l’Union européenne : nouvelle doctrine ?

La Commission européenne est en train de changer son fusil d’épaule au sujet des concentrations d’opérateurs télécoms au niveau des marchés nationaux des Vingt-sept. Elle prépare les esprits à une nouvelle doctrine du « 4-to-3 », alors qu’en France la vente de SFR pourrait aller dans ce sens.

Par Marta Lahuerta Escolano, avocate associée, et Mathilde Dubois, collaboratrice, Jones Day*

Le passage de quatre à trois opérateurs de télécommunications sur un marché national occupe, depuis plus d’une décennie, le cœur des débats européens en matière de politique de la concurrence et de régulation sectorielle. Longtemps réticente à autoriser des opérations de concentration aboutissant à une telle réduction du nombre d’acteurs, la Commission européenne a, par le passé, systématiquement opposé une forte résistance à ces fusions, invoquant le risque d’une diminution de la concurrence, d’une hausse des prix pour les consommateurs et d’un ralentissement de l’innovation.

De l’ouverture à la fermeté nationale
Cependant, un infléchissement notable de la position de la Commission européenne semble se dessiner récemment. Face à l’évolution rapide du secteur, à la nécessité d’investissements massifs dans les infrastructures numériques (notamment la 5G et la fibre optique) et à la pression croissante de la concurrence mondiale (avec les Etats Unis et la Chine), la Commission européenne amorce un changement doctrinal significatif.
Depuis l’entrée en vigueur du règlement européen de 2004 sur le contrôle des concertations (1), elle évalue les fusions au regard de leur compatibilité avec le marché intérieur, notamment à l’aune de l’entrave significative à la concurrence effective. Dans le secteur des télécommunications, cette grille d’analyse l’a conduit à adopter une vigilance particulière à l’égard des opérations dites « in-market », c’est-à-dire les concentrations entre concurrents directs opérant sur un même marché national. La Commission européenne redoute que (suite) la réduction du nombre d’opérateurs télécoms, notamment le passage de quatre à trois acteurs, n’entraîne une diminution de la pression concurrentielle, avec pour corollaire une hausse des prix, une baisse de la qualité de service et un ralentissement de l’innovation au détriment des consommateurs.
Entre 2012 et 2014, une phase de relative ouverture a pu être observée, marquée par l’autorisation de plusieurs fusions emblématiques telles que Hutchison/Orange en Autriche (2), Hutchison 3G UK/Telefónica Ireland en Irlande (3) et Telefónica/E-Plus en Allemagne (4). La Commission européenne semble alors prête à envisager des consolidations, sous réserve de l’adoption de remèdes appropriés qu’elle définit. Cependant, à partir de 2016, la Commission européenne durcit sa position. Elle a ainsi refusé plusieurs opérations majeures visant à réduire le nombre d’opérateurs télécoms de quatre à trois, notamment au Royaume-Uni dans l’affaire Hutchison 3G UK/ Telefónica UK (5). Ce durcissement s’est également traduit par le retrait de notifications d’opérations de concentration, comme ce fut le cas au Danemark (6). En Italie, une fusion entre deux grands opérateurs télécoms n’a pu être autorisée qu’à condition que les parties cèdent un volume suffisant d’actifs afin de permettre l’entrée d’un nouvel acteur sur le marché (7).
Les refus d’autorisation des opérations de concentration, à l’image de l’affaire Hutchison 3G UK/Telefónica UK, sont généralement motivés par la Commission européenne par le fait que « l’opération entraverait de manière significative l’exercice d’une concurrence effective dans le marché intérieur ou une partie substantielle de celui-ci au sens de l’article 2, paragraphe 3, du règlement sur les concentrations » (8). Cette position doctrinale, longtemps dominante, a ainsi façonné la politique européenne de contrôle des concentrations dans le secteur des télécommunications, en érigeant le maintien de quatre opérateurs comme un standard garant de la vitalité concurrentielle des marchés nationaux. Ces dernières années, une évolution vers un assouplissement de la doctrine applicable à la consolidation des opérateurs télécoms semble se dessiner. A cet égard, le rapport sur « l’avenir du marché unique » (9), remis en avril 2024 par Enrico Letta, ancien Premier ministre italien, souligne que la création d’un véritable marché unique des communications électroniques, reposant sur des opérateurs télécoms de dimension mondiale, ne saurait être perçue comme incompatible avec l’exigence de maintien de marchés ouverts et concurrentiels.

Pistes de deux rapports et d’un livre blanc
Ce rapport « Letta » s’inscrit dans la continuité des constats formulés dans le livre blanc « Comment maîtriser les besoins de l’Europe en matière d’infrastructures numériques ? » (10) de la Commission européenne, publié en février 2024, lequel met en avant que la fragmentation du marché européen des réseaux de communications électroniques et des services a une incidence sur la capacité des opérateurs télécoms à atteindre l’échelle nécessaire pour investir dans les « réseaux du futur ». Le rapport Letta et le livre blanc ont été publiés alors qu’en septembre 2023 Ursula von der Leyen, présidente de la Commission européenne, annonçait avoir confié à Mario Draghi, ancien président de la Banque centrale européenne (BCE) et ancien Premier ministre italien, le soin de préparer un rapport sur « l’avenir de la compétitivité européenne ». (11)

La perspective du Digital Networks Act
Ce rapport « Draghi » (12), publié en septembre 2024, plaide en faveur d’une approche plus prospective de l’analyse concurrentielle. Il soutient que les autorités de concurrence devraient faire preuve d’une plus grande souplesse, notamment dans l’appréhension des opérations de concentration dans le secteur technologique. A cet égard, le rapport souligne que l’évaluation de telles opérations doit intégrer les effets potentiels de la concentration envisagée sur la capacité d’innovation future (13). Le rapport Draghi constate que, du fait de la régulation ex ante et des politiques de concurrence favorisant la pluralité des acteurs et des prix bas pour les consommateurs, le nombre d’opérateurs dépasse le niveau optimal.
Selon lui, « les politiques industrielles ont le potentiel de favoriser une consolidation supplémentaire sans nécessairement entraîner une hausse des prix pour les consommateurs ». Le rapport Draghi insiste sur la nécessité de favoriser les opérations de consolidation dans le secteur des télécommunications, estimant qu’une telle évolution est indispensable pour garantir un niveau d’investissement plus soutenu dans les infrastructures de connectivité (par exemple, la fibre optique et la 5G).
Il préconise, à cette fin, une révision en profondeur de l’approche actuellement retenue par l’Union européenne (UE) en matière d’échelle et de concentration des opérateurs, en vue de la création effective d’un marché unique des communications électroniques, sans pour autant compromettre la protection des consommateurs ni la qualité des services (14).
Le rapport Draghi prévoit que la définition des marchés soit opérée à l’échelle de l’UE – et non plus au seul niveau des Etats membres – et appelle à une prise en compte accrue de l’innovation et des engagements d’investissement dans le cadre de l’examen des concentrations. Pour prévenir tout abus de la défense fondée sur l’innovation, il recommande que les parties à une opération de concentration s’engagent à des niveaux d’investissement pouvant être contrôlés a posteriori. Il propose en outre de rééquilibrer le cadre réglementaire sectoriel en limitant la régulation ex ante au niveau national, au profit d’une application ex post du droit de la concurrence, en particulier en matière de contrôle des abus de position dominante (15). Par ailleurs, pour faciliter l’application de ces engagements, le rapport Draghi préconise de donner à la Commission européenne le pouvoir d’exiger des parties à la concentration qu’elles communiquent des indicateurs précis permettant d’évaluer, a posteriori, le degré de concurrence. La perspective d’un nouveau cadre législatif, en l’occurrence le futur règlement sur les réseaux numériques, appelé Digital Networks Act (DNA), pourrait être l’occasion de procéder à une réévaluation des critères d’analyse concurrentielle et des instruments de contrôle des concentrations, en vue de mieux concilier les exigences de concurrence avec les impératifs d’investissement dans les infrastructures numériques, notamment en matière de fibre optique et de réseaux 5G/6G.
La Commission européenne a lancé le 6 juin 2025 une consultation publique – jusqu’au 11 juillet (16) – visant à recueillir les observations des parties prenantes sur les moyens de lever les obstacles aux activités transfrontalières, de favoriser l’innovation et de renforcer les flux d’investissement dans le secteur des communications électroniques au sein de l’UE (17). Les résultats de cette consultation devraient orienter l’élaboration du DNA, dont l’adoption est envisagée d’ici la fin de l’année 2025.
Parallèlement, la Commission européenne a ouvert, le 8 mai 2025, une consultation publique – jusqu’au 3 septembre (18) – relative à la révision en cours de ses lignes directrices sur le contrôle des concentrations. Ces lignes directrices précisent le cadre analytique appliqué par la Commission européenne pour apprécier les effets concurrentiels d’une opération de concentration sur les marchés concernés. La révision engagée vise à adapter ce cadre aux nouvelles dynamiques économiques et industrielles, en accordant une attention renforcée à des facteurs tels que l’innovation, les gains d’efficience, la résilience, les horizons d’investissement, ainsi que l’intensité concurrentielle dans des secteurs jugés stratégiques. Elle entend également tenir compte du nouvel environnement géopolitique en matière de défense et de sécurité, ainsi que des exigences de transformation profonde dictées par les défis actuels.

Equilibre concurrence-investissement
Sous l’effet conjugué d’un changement doctrinal et de considérations stratégiques, l’approche communautaire en matière de concentration semble désormais évoluer vers un équilibre – pas si évident que cela à trouver – entre préservation de la concurrence et soutien à l’investissement. Ce recentrage pourrait bien redessiner les contours du marché européen des télécommunications pour les années à venir, voire du marché unique numérique dans son ensemble. @

* Tous les points de vue ou opinions exprimés dans cet
article sont personnels et n’appartiennent qu’aux auteurs.

Titulaires de droit et entraînement des IA : entre droit d’auteur recomposé et procès en série

Pendant que les systèmes d’IA prolifèrent en s’entraînant sur de quantités de données multimédias, les procès se multiplient dans le monde entre auteurs de contenus protégés et IA génératives – oscillant entre piratage, fair use ou encore exception pour « fouille de textes et de données ».

Par Christiane Féral-Schuhl et Richard Willemant, avocats associés, cabinet Féral

C’est un sujet à donner des sueurs froides aux titulaires de droit d’auteur ! Avec l’entrée en vigueur du règlement européen du 13 juin 2024 sur l’intelligence artificielle (IA) – l’AI Act (1) – et l’articulation des nouveaux usages de modèles d’IA avec les principes juridiques établis, les juridictions du monde entier naviguent à vue, tiraillées entre l’impératif d’innovation et le respect du droit d’auteur.

Nécessaire autorisation des titulaires de droit
Les données seraient-elles véritablement « l’or noir » du XXIe siècle ? Leur collecte et leur utilisation à des fins d’entraînement des systèmes d’IA semblent confirmer leur valeur économique stratégique à l’ère du tout-numérique. Or, la collecte massive et automatisée (aussi appelée « moissonnage » ou « web scraping ») de données accessibles sur les réseaux sociaux – comme cela a été récemment annoncé par la société Meta Platforms concernant les utilisateurs d’Instagram et de Facebook – et plus globalement sur Internet, comporte le risque de traiter des données protégées. Et ce, à l’image de celles concernant des œuvres originales, pour lesquelles une autorisation du titulaire de droit est requise.
La question est de savoir dans quelles conditions le fournisseur de système d’IA peut avoir recours à des données d’entraînement sur lesquelles des titulaires détiennent des droits d’auteur. En France, la protection des œuvres est très claire : « Toute représentation ou reproduction intégrale ou partielle faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (2), dit le code de la propriété intellectuelle (CPI). En principe, toute utilisation non autorisée d’un contenu protégé par le droit d’auteur à des fins d’entraînement d’un système d’IA est donc illicite.
Ainsi, les procédures engagées contre des fournisseurs de tels systèmes d’IA (suite) , afin de faire reconnaître une violation de droits d’auteur, se multiplient. En mars 2025, le Syndicat national de l’édition (SNE), la Société des gens de lettres (SGDL) et le Syndicat national des auteurs et des compositeurs (Snac) ont agi à l’encontre de Meta Platforms car la société américaine aurait utilisé massivement des œuvres protégées sans autorisation pour entraîner son modèle d’IA (3). De l’autre côté du globe, les juges chinois ont reconnu une atteinte au droit d’auteur protégeant le personnage japonais « Ultraman » par un fournisseur de système d’IA qui permettait à ces utilisateurs de générer des illustrations très similaires au personnage protégé (4).
Aux Etats-Unis, un jugement sommaire (« summary judgment ») retient notre attention : Ross Intelligence, une entreprise développant un outil juridique basé sur l’IA, a souhaité utiliser le contenu de la base de données Westlaw, appartenant au groupe canadien d’agence de presse et d’édition Thomson Reuters, pour entraîner son modèle d’IA. N’ayant pas obtenu de licence, elle s’est alors tournée vers la société LegalEase afin d’acheter des « bulk memos », à savoir des compilations de questions-réponses juridiques s’inspirant du contenu de Westlaw. Ross Intelligence a ainsi pu commercialiser un système d’IA proposant des fonctionnalités très similaires à celles de Westlaw. Saisie par Thomson Reuters pour violation de son droit d’auteur, la justice a reconnu une reproduction substantielle des œuvres protégées.
Ross Intelligence a ensuite tenté, sans succès, d’invoquer l’exception de « fair use » (5), sa démonstration échouant en raison de l’effet concurrentiel sur le marché de son IA et de l’absence d’objectif véritablement distinct entre les deux solutions. Si cette décision reste pour l’instant provisoire, elle n’en est pas pour le moins éclairante dans un contexte où les prises de position du US Copyright Office (USCO), lequel semble privilégier la protection des titulaires de droit, exacerbent les tensions avec l’administration Trump, pro-innovation (6).

Fouille de textes et de données : une brèche
L’absence d’autorisation préalable cristallise donc les contentieux entre fournisseur de système d’IA et titulaire de droits, et ce, alors que l’utilisation d’œuvres protégées représente une forte valeur ajoutée lors de l’entraînement des grands modèles de langage (LLM), et en particulier pour les IA génératives, désormais perçues comme de véritables outils de substitution aux créateurs humains (7). Il existe toutefois dans l’Union européenne une exception à l’obligation d’obtenir l’autorisation préalable du titulaire de droits pour utiliser des données protégées. En application de la directive européenne « Droit d’auteur et droits voisins dans le marché unique numérique » du 17 avril 2019, dite directive « Copyright » (8), le droit français a introduit l’article L.122-5- 3 du CPI. Celui-ci autorise « des copies ou reproductions numériques d’œuvres auxquelles il a été accédé de manière licite […] en vue de fouilles de textes et de données menées à bien par toute personne, quelle que soit la finalité de la fouille […] ».

Fouille de textes et de données : une brèche
Concrètement, cette exception de fouilles de textes et de données – en anglais, Text and Data Mining (TDM) – garantit au fournisseur de système d’IA le droit de « moissonner » un grand volume de données librement accessibles afin d’entraîner son modèle d’IA. Cette exception a été reconnue en Allemagne dans une affaire opposant un photographe (Robert Kneschke) à une organisation à but non lucratif (LAION), connue pour fournir des jeux de données d’entraînement (9). Le litige est survenu après que le photographe eut découvert l’une de ses œuvres, disponible sur une plateforme en ligne, intégrée dans un jeu de données. En application de l’exception de fouilles de textes et de données, aucune violation du droit d’auteur n’a été retenue, malgré l’absence d’autorisation pour la reproduction de la photographie. Bien que fondée sur l’exception de fouilles de textes et de données à des fins de recherche scientifique, cette décision datée du 27 septembre 2024 (10) illustre la stratégie que pourrait adopter le fournisseur de système d’IA pour se défendre contre les revendications des titulaires de droits.
Or, il s’agit de trouver le juste équilibre entre, d’une part, la « protection des titulaires de droits, notamment les artistes », et, d’autre part, la liberté « d’exploration de textes et de données, en particulier par les développeurs d’IA » (11). Ce débat a encore récemment suscité d’intenses polémiques au Royaume-Uni, à la suite d’une consultation menée – de décembre 2024 à février 2025 (12) – par le gouvernement britannique qui a ouvert la voie à l’introduction dans la législation d’une exception similaire. Cependant, les titulaires de droits peuvent choisir de réserver l’exploitation de leurs œuvres protégées, afin d’empêcher leur utilisation au titre de l’exception de la fouille de textes et de données, sauf lorsque celle-ci est réalisée à des fins de recherche scientifique (13). Ce droit d’opposition – également appelé mécanisme d’« opt-out » – est encadré en France par le CPI (14). L’opposition n’a pas à être motivée et peut être exprimée par tout moyen. S’agissant de contenus mis à la disposition du public en ligne, elle peut (sans que cette liste soit limitative) se manifester par l’intégration de métadonnées lisibles par machine, ou encore par une mention dans les conditions générales d’utilisation d’un site Internet ou d’un service. Pour pouvoir bénéficier de l’exception, le fournisseur de système d’IA doit donc non seulement accéder licitement aux données, mais également s’assurer qu’aucune opposition n’a été exprimée. Dans le prolongement, on note que le respect des règles en matière de droit d’auteur par le fournisseur d’IA est désormais inscrit dans l’AI Act (15). En pratique, cela implique que, pour moissonner les données de sites Internet à des fins d’entraînement de modèles d’IA, le fournisseur ne doit pas contourner d’éventuels dispositifs de protection, tels qu’un accès restreint via un compte utilisateur, et doit vérifier, au moment de l’extraction, que ni les conditions générales d’utilisation ni les mentions légales ne contiennent de clause interdisant l’extraction des données. Il doit également s’assurer que les métadonnées du site en ligne ne traduisent pas une telle interdiction. Ainsi, lorsqu’un titulaire de droits s’est valablement opposé à l’extraction de ses contenus, le fournisseur d’IA ne peut procéder à leur utilisation sans avoir obtenu une autorisation expresse, par le biais d’un accord de licence ou de partenariat (16), à l’instar de l’accord entre la société OpenAI et les journaux Le Monde, Die Welt et El País (17).
Enfin, le fournisseur de système d’IA est désormais soumis à une obligation de transparence : afin de permettre aux titulaires de droits de s’assurer que les données utilisées pour l’entraînement des modèles IA ont été collectées dans le respect des règles de droits d’auteur, le fournisseur doit établir un « résumé suffisamment détaillé » des contenus utilisés pour l’entraînement. Ce résumé est destiné à être publié dans la politique de conformité, mais doit néanmoins veiller à préserver le secret des affaires ainsi que la confidentialité de certaines informations (18). Doit notamment être indiqués les URL des sites Internet sources, la date de moissonnage, ainsi que la nature et le volume des données exploitées. En revanche, les informations plus précises relatives aux modalités techniques d’utilisation des contenus, par exemple des procédés de filtrage, ne sont pas tenues d’être divulguées.

Multiplication des contentieux « IA »
Si les mécanismes actuels permettent, en principe, de garantir le respect des droits d’auteur dans un cadre juridique en constante évolution, la multiplication des contentieux visant les entreprises pionnières dans le domaine de l’IA met en lumière la complexité de concilier protection effective des droits d’auteur et valorisation économique des données. Une illustration vient de nous en être donnée par la Cour d’appel de Paris qui, le 7 mai 2025 (19), a sanctionné pour concurrence déloyale l’exploitant d’une plateforme d’IA juridique (Doctrine.fr éditée par Forseti) qui a constitué de manière illicite sa base de données juridiques. @

AI Act, DSA, MiCA, … Superposition réglementaire : le casse-tête européen pour les projets innovants

L’ambition européenne pour un « marché unique numérique » a généré un véritable labyrinthe de textes réglementaires que nul n’est censé ignorer, pas même les start-up et les fintech, sauf à devenir hors-la-loi. Mais à ce patchwork s’ajoute le manque de coordination entre autorités compétentes.

Par Arnaud Touati, avocat associé, et Mathilde Enouf, juriste, Hashtag Avocats

L’Union européenne a une ambition manifeste : réguler de manière exemplaire la transition numérique. Du règlement sur l’intelligence artificielle (AI Act) aux directives concernant les services numériques (DSA/DMA), en passant par la régulation des actifs numériques (MiCA) et la résilience opérationnelle du secteur financier (DORA), le législateur européen ne cesse d’introduire des normes structurantes. Chacun de ces textes, pris séparément, a pour objectif de pallier une carence. Ensemble, ils constituent un écosystème réglementaire complexe, parfois dépourvu de cohérence, souvent difficile à appliquer.

Accumulation de textes sans réelle coordination
Pour les initiatives novatrices, en particulier les start-up et les fintech, cette accumulation de normes peut rapidement devenir complexe. Cela est d’autant plus vrai que les normes et directives techniques ne cessent de croître, changeant constamment le champ de la conformité sans perspective de stabilité à moyen terme ni durabilité juridique. Actuellement, le cadre réglementaire en Europe se fonde sur plusieurs éléments-clés. L’AI Act (1) met en place une catégorisation des systèmes d’intelligence artificielle basée sur leur niveau de risque, imposant des exigences rigoureuses aux systèmes considérés comme étant « à haut risque ». Le DSA (2) et le DMA (3) ont pour objectif de réguler les grandes plateformes numériques tout en offrant une protection accrue aux utilisateurs. MiCA (4) régule la création de jetons et l’offre de services liés aux crypto-actifs. DORA (5) impose des normes rigoureuses de cybersécurité dans le domaine financier. De nombreux intervenants de l’écosystème sont également soumis aux règles (suite) anti-blanchiment. On peut également trouver d’autres documents transversaux, sectoriels ou techniques. Cela constitue un millefeuille réglementaire complexe où les obligations s’accumulent sans véritable coordination, engendrant des superpositions et parfois même des contradictions. Chaque texte s’appuie sur ses propres définitions, logiques, et fait appel à diverses autorités de supervision, sans qu’il y ait une articulation claire entre elles. Une start-up œuvrant dans divers secteurs tels que les actifs numériques et l’intelligence artificielle se voit donc confrontée à des chronologies disparates, des seuils de déclenchement discordants et des demandes de documentation non-uniformes. Ce fractionnement rend les procédures de conformité beaucoup plus lourdes et entrave l’aptitude à innover dans un environnement juridique stable.
Les stablecoins sous MiCA, règlement européen sur les marchés de cryptoactifs, et PSD2, directive européenne sur les services de paiement (6), constituent un cas emblématique. Les jetons de monnaie électronique en eux-mêmes (ou EMT, pour Electronic Money Token, ou E-Money Token), appelés aussi « stablecoins monodevise » (adossés à une monnaie officielle comme l’euro), démontrent les conséquences néfastes que peut engendrer une superposition de la réglementation. Selon MiCA, ces tokens sont considérés comme de la monnaie électronique. Cependant, les transactions de transfert associées peuvent aussi être soumises à la directive PSD2, avec toutes les obligations qui en découlent. Ainsi, un même acteur est soumis à une double contrainte réglementaire : il doit se procurer à la fois une licence en tant que fournisseur de services sur actifs numériques (CASP (7), ou PSCA (8) en français) conformément au règlement MiCA, et une autorisation pour l’établissement de paiement selon PSD2. Ces deux régimes nécessitent des procédures d’approbation différentes, possèdent des critères de capital propre superflus, imposent des responsabilités divergentes et soulèvent des questions concernant la classification juridique de certaines actions, telles que les transferts internes à un utilisateur ou les mouvements vers des portefeuilles autogérés. Malgré les mises en garde des syndicats professionnels, la réaction de certaines autorités de régulation en Europe demeure pour l’instant insuffisante, bien que nos autorités françaises fassent un travail remarquable sur le sujet.

DORA, une usine à conformité pour la finance
Si aucune action n’est entreprise, de nombreux intervenants pourraient abandonner les services de transfert d’EMT, ce qui va à l’encontre des objectifs de MiCA, lequel vise précisément à promouvoir l’adoption de ces actifs numériques. Concernant cette fois le règlement sur la résilience opérationnelle numérique, également connu sous le nom de DORA, il est entré en vigueur à partir de janvier 2025. Il impose aux institutions financières un cadre global de gestion des risques associés aux technologies de l’information. Cela englobe l’élaboration d’un plan de gestion du risque « TIC » (9), l’alerte en cas d’incidents majeurs, la conduite de tests de résilience numérique, ainsi que la nécessité de maintenir un registre précis des contrats avec les fournisseurs de services informatiques tiers. Bien que ces initiatives visent à renforcer la sécurité systémique, leur application s’avère très complexe pour les petites entités. De nombreuses start-up et fintech manquent des ressources et des compétences internes nécessaires pour répondre à ces exigences. La notion de proportionnalité stipulée dans le règlement est fréquemment comprise de façon restrictive et demeure floue quant à ses modalités d’application pratiques.

AI Act : flous techniques, complexité procédurale
La réglementation sur l’intelligence artificielle ajoute une couche additionnelle. L’AI Act impose des exigences strictes aux systèmes classés comme « à haut risque » : documentation technique, supervision humaine, qualité des données, transparence et inscription obligatoire dans une base de données européenne. Il est possible que les sanctions aillent jusqu’à 7 % du chiffre d’affaires à l’échelle mondiale. L’instauration de « bacs à sable réglementaires » est bien prévue, mais leur réalisation prend du temps. Entretemps, les initiatives doivent naviguer entre les réglementations existantes dans leur domaine respectif (santé, automobile, services publics, …) et les exigences récentes imposées par la réglementation sur l’IA, sans aucune coordination entre les autorités compétentes. La définition même de ces systèmes pose problème : IA intégrée, IA générative, open source, … aucune de ces classifications n’est précisément définie, ce qui rend les stratégies de conformité floues. Le dilemme du guichet unique demeure aussi sans solution : une entreprise concevant une IA employée dans divers contextes doit composer avec autant d’autorités qu’il y a de domaines d’application.
Quant aux DSA et DMA, s’ils ciblent prioritairement les grandes plateformes, ces règlements affectent également les plus petits acteurs par ricochet sur l’ensemble de l’écosystème. Une start-up qui propose une solution technique à un acteur qualifié de « gatekeeper » (contrôleur d’accès), se retrouve indirectement soumise à des exigences de conformité étendues : traçabilité, documentation, obligations de transparence, et compatibilité renforcée au RGPD, le règlement général sur la protection des données (10).
Ces obligations s’appliquent même lorsque la start-up ne traite pas directement de données personnelles ou de contenus modérés, mais fournit simplement un service technique – API (Application Programming Interface), infrastructure, algorithmes de recommandation – utilisé en aval par une plateforme réglementée. L’effet est immédiat : elle doit produire des audits, garantir l’interopérabilité, prouver l’absence de pratiques déloyales, et documenter ses choix techniques, parfois en plusieurs langues, à destination des autorités nationales de différents Etats membres. Sans pouvoir de négociation, et sans accès aux ressources de conformité des grands groupes, ces petites structures se retrouvent piégées dans une logique de compliance excessive. Ce n’est plus l’activité elle-même qui génère du risque, mais la simple appartenance à une chaîne de valeur numérique réglementée. Cette situation crée une inégalité de traitement qui freine l’innovation, décourage la prise de risque, et oriente les jeunes pousses vers des marchés plus permissifs. Les investisseurs, eux aussi, deviennent frileux à l’idée d’accompagner des projets exposés à une telle incertitude juridique. Quant aux avocats et aux directions juridiques internes, ils doivent souvent interpréter à l’aveugle des règlements conçus pour des géants du numérique, mais appliqués sans nuance à des entités de dix salariés.
L’approche globale attendue pour tous ces documents devait être celle de la cohérence, de la confiance et de l’indépendance numérique. Toutefois, l’accumulation non-synchronisée de ces réglementations conduit à une situation contradictoire : des normes conçues pour sécuriser les initiatives numériques génèrent l’effet opposé.
La disparité des parties prenantes, les interprétations différentes, les retards d’approbation inconsistants et l’absence de moyens de simplification pour les petites entités rendent le paysage réglementaire de l’Union européenne ardu à déchiffrer. On constate également une instabilité des lignes directrices, qui changent parfois sans consultation préalable ni soutien. Les responsables de la régulation ont également du mal à répondre aux demandes, ce qui prolonge l’incertitude pour les intervenants. Cette complexité induit une réticence à l’innovation, un transfert des projets vers des juridictions plus laxistes, et une constante incertitude juridique. L’Europe dispose à la fois d’expertise et de vision. Cependant, elle a du mal à concilier ses aspirations avec les conditions réelles sur le terrain. Il est crucial de réévaluer la régulation en se basant sur des principes opérationnels : établissement de guichets sectoriels unifiés, standardisation des délais d’autorisation, définition claire des situations de double régulation, application effective du principe de proportionnalité, avancée rapide des mécanismes de bac à sable.

Europe : repenser l’architecture de la régulation
Cela nécessite également d’intensifier la communication entre les instances nationales et européennes, de fournir des modèles de conformité aisément modifiables, et d’établir une direction stratégique de la transition réglementaire par secteur. Les intervenants économiques requièrent de la clarté, de la constance et la possibilité de prévoir. Sans ce remodelage méthodologique, les projets les plus prometteurs risquent de ne plus voir le jour en Europe. Et la régulation, supposée fournir un atout stratégique, se transformera en obstacle persistant à la compétitivité du Continent. Sans parler de la souveraineté numérique européenne qui, face à tant de complexités juridiques, risque de rester un vœu pieu. @

Chronologie des médias « 2025-2028 » : un équilibre délicat à la française, sous pression

Trois mois après son entrée en vigueur, le nouvel accord français sur la chronologie des médias revient sous le feu des contestations. Netflix et Amazon Prime Video ont confirmé en avril avoir saisi le Conseil d’Etat français pour contester l’arrêté du 6 février 2025 s’appliquant aussi aux plateformes.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

L’arrêté du 6 février 2025 portant extension de l’accord sur la chronologie des médias daté du même jour (1) étend les règles à l’ensemble des services de diffusion, y compris aux plateformes vidéo non-signataires de cet accord trouvé en janvier dernier. Si les recours devant le Conseil d’Etat de respectivement Netflix et Amazon Prime Video – lesquels les ont chacun confirmé en avril – traduisent des tensions persistantes entre plateformes, professionnels et régulateurs, ils n’équivalent pas à une remise en cause du système.

Un accord reconduit, des recours ciblés
Ces deux contestations de la chronologie des médias devant la plus haute juridiction administrative française illustrent plutôt un bras de fer à l’intérieur d’un modèle globalement validé, mais dont les paramètres doivent, selon les requérants, évoluer à proportion de leurs investissements (2). Ce débat se distingue ainsi d’un rejet total du système, comme celui récemment exprimé aux Etats-Unis par son président Donald Trump à l’encontre des politiques culturelles locales. Signé en janvier 2025 et entré en vigueur le 13 février 2025 (3), sous l’égide du Centre national du cinéma et de l’image animée (CNC) et du ministère de la Culture, le nouvel accord interprofessionnel – valable trois ans, soit jusqu’au 9 février 2028 – confirme les fenêtres d’ouverture de diffusion post-salles : 4 mois pour la VOD, 6 mois pour les services payants signataires (Canal+, OCS), 9 mois pour Disney+ (signataire) en contrepartie d’un engagement de 115 millions d’euros sur trois ans, 15 mois pour Netflix, 17 mois pour Amazon, 22 mois pour les chaînes en clair, et 36 mois pour les services gratuits non-signataires (4). Le texte introduit également une fenêtre dite « période d’indisponibilité » renforcée entre des phases d’exploitation, afin de (suite) clarifier les exclusivités et, on l’espère, limiter le piratage.
C’est précisément cette temporalité au regard des investissements dans la production, appliquée aux plateformes non signataires par arrêté ministériel, que contestent Netflix et Amazon. Leur démarche vise à obtenir un traitement proportionné à leurs investissements dans la production française.
Des arguments centrés sur la proportionnalité et la concurrence. Les deux recours déposés, confirmés par respectivement Netflix le 10 avril (5) et Amazon le 24 avril (6), reposent sur des fondements similaires : déséquilibre manifeste des délais imposés, distorsion de concurrence et violation du principe de proportionnalité tel que prévu par la directive européenne « SMAd » de 2018 (7). La plateforme Netflix réclame une fenêtre ramenée à 12 mois pour les films qu’elle préfinance, arguant que ses engagements financiers et ses retombées économiques (1,7 milliard injecté dans l’économie française et 25.000 emplois sur quatre ans) justifient un traitement équitable.
De manière analogue, Amazon estime que la fenêtre de 17 mois lui est injustement défavorable comparée à celle accordée à Disney+ (9 mois), malgré un niveau d’investissement inférieur de ce dernier sur la période considérée. La question pourrait être de savoir si l’appréciation du niveau des investissements doit s’effectuer en valeur absolue ou en valeur relative, notamment au regard du chiffre d’affaires global des plateformes concernées, afin de garantir une répartition équitable des fenêtres de diffusion.
Ces revendications ne traduisent donc pas une hostilité de principe à l’encontre du système français, mais plutôt une demande de révision interne selon une logique déjà prévue par le mécanisme : l’adaptation des délais à l’aune des contributions effectives de chaque acteur. La critique porte sur le calibrage des obligations, non sur leur existence. Netflix l’a d’ailleurs souligné dans une lettre transmise au Conseil d’Etat – et révélée par Variety : « Nous ne voulons pas perturber l’écosystème, mais le renforcer » (8).
Un bras de fer dans le cadre d’un modèle accepté. En ce sens, les recours s’inscrivent dans une tension classique au sein d’un système pluraliste. Le Conseil d’Etat devra trancher sur la légalité de l’arrêté du 6 février 2025 à la lumière du droit français et européen, notamment sur la proportionnalité des obligations imposées et la liberté d’entreprendre. Les audiences de référé sont attendues en juin 2025, tandis que les recours au fond pourraient être examinés à l’automne.

Accès au marché et contribution à la création
Loin d’un rejet de la chronologie des médias, ces démarches suivent la dynamique d’un modèle où la cohabitation entre services historiques et nouveaux entrants est conditionnée par un équilibre à la française, entre accès au marché et contribution à la création. Ce que demandent aujourd’hui Netflix et Amazon, c’est une meilleure reconnaissance de leur rôle croissant dans le financement du cinéma français. Car les plateformes tendent à s’aligner avec les chaînes de télévision historiques en matière d’investissement dans la production, mais restent soumises à des contraintes temporelles strictes.
La critique américaine : entre négociation interne et menace externe. Les tensions actuelles autour de la chronologie des médias en France font écho à un contentieux parallèle en Belgique.

Netflix en Belgique ; tempête aux USA
En décembre 2023, la Fédération Wallonie-Bruxelles a adopté un décret transposant la directive européenne « SMAd » de 2018, afin d’imposer aux éditeurs de services de médias audiovisuels, qu’ils soient belges ou étrangers, une contribution financière accrue au soutien de la création indépendante locale. Netflix a introduit dans les délais légaux un recours en annulation de ce décret devant la Cour constitutionnelle belge (9). Dans cette procédure, la plateforme invoque notamment la violation de plusieurs dispositions de la Constitution belge – dont les principes d’égalité et de proportionnalité – ainsi que d’instruments européens tels que le traité sur le fonctionnement de l’Union européenne, la directive « SMAd » elle-même, ou encore la directive « E-commerce » de 2000. Elle conteste, entre autres, le caractère légal du financement imposé, et dénonce une atteinte à la libre prestation de services au sein du marché intérieur.
On peut se référer à un commentaire de la Motion Picture Association (MPA), exprimé notamment dans son rapport annuel publié le 11 mars 2025 (10), dans une logique compatible à celle des recours intentés par Netflix et Amazon Prime Video. Représentant les principaux studios américains (dont Disney, Warner Bros., Paramount, Sony, Universal et Netflix), la MPA questionne certaines contraintes réglementaires locales au regard des attentes d’un marché numérique globalisé. S’agissant de la chronologie des médias française, l’association hollywoodienne a pu s’interroger sur le décalage entre les fenêtres de diffusion de source réglementaire – mais non contractuelle comme dans d’autres pays – et les usages contemporains des consommateurs. Elle souligne l’existence d’une « piracy window » – une période prolongée durant laquelle les œuvres ne sont accessibles ni en salles, ni en ligne de manière légale – qui favoriserait le piratage au détriment des ayants droit.
Pour autant, à notre sens, au vu d’une cohabitation prospère depuis la fin de la Seconde-guerre mondiale, la profession ne remet pas en cause le principe même d’une régulation culturelle. Plaider pour une évolution d’un fructueux modèle français sans en contester les contours essentiels, contraste avec des discours radicaux – à l’instar de celui récemment tenu par Donald Trump – attaquant les régulations légitimes au nom d’une prise de pouvoir masquée en souveraineté économique et culturelle américaine.
L’attaque frontale contre la régulation culturelle. Le 5 mai 2025, le président américain a annoncé, via un post sur Truth Social (11), son intention d’imposer des droits de douane de 100 % sur tous les films produits à l’étranger et destinés à être diffusés aux Etats-Unis. Donald Trump a déclaré avoir autorisé les agences fédérales compétentes, notamment le département du commerce (la FTC), à engager immédiatement le processus de mise en œuvre de cette politique. Le président des Etats-Unis accuse les incitations fiscales étrangères de détourner les productions américaines vers d’autres territoires, et il imagine une double atteinte : économique et culturel.
Au vu des profits et bénéfices incontestables retirés par les industries globales de l’audiovisuel, notamment à Hollywood, les propos récents de Donald Trump sur l’imposition de droits de douane de 100 % sur les films produits à l’étranger relèvent de principes qui heurterons tout professionnel censé. En glissant de droits et tarifs sur les produits à des droits et tarifs sur les services et en accusant les incitations fiscales de « sabotage économique » et en plaidant pour un retour à des films « made in America », le président américain s’attaque à l’architecture globale de la circulation internationale des œuvres. Il porte atteinte non seulement aux Etats qui mettent en œuvre des régulations locales, mais aussi aux studios américains eux-mêmes, qui y sont impliqués et imbriqués. Cette attaque frontale contre les spécificités locales, telles que les crédits d’impôts et la chronologie des médias, remet en cause le compromis : des obligations strictes, certes, mais qui accompagnent l’accès au marché et la reconnaissance de la contribution des acteurs.
Conclusion : une tension féconde à condition de rester dans le cadre. L’accord de janvier 2025 en France a été conçu comme un compromis dynamique, évolutif en fonction des engagements pris par chacun. Les recours engagés par Netflix et Amazon semblent traduire la recherche d’ajustements et de renégociation. Ils expriment les limites d’un modèle mais aussi sa capacité d’adaptation.

Reste à clarifier la cohabitation à la française
Le Conseil d’Etat est désormais appelé à clarifier les contours juridiques de cette extension réglementaire, dans le cadre d’un débat sur les termes de la cohabitation à la française, instaurée par la chronologie des médias. Par ailleurs, les indicateurs pourraient illustrer une santé insolente de l’audiovisuel global, et les bénéfices de l’exception culturelle française. Le message de rupture et d’intimidation du président conservateur étatsuniens appelle, comme au cinéma, un autre futur, dystopique. @

* Anne-Marie Pecoraro est avocate spécialisée en droit de la
propriété intellectuelle, des médias et des technologies.