Réforme de l’audiovisuel et enchères 5G : reports

En fait. Le 18 mars, le gouvernement a présenté en conseil des ministres un projet de loi instaurant un « état d’urgence sanitaire » face au Covid-19 et un projet de loi de finances rectificatif pour 2020. Le calendrier législatif est chamboulé. Les enchères 5G, elles, ne se tiendront pas le 21 avril, nous confirme l’Arcep.

En clair. Le Covid-19 est le chamboule-toute de 2020. Les deux projets de loi (état d’urgence sanitaire et loi de finances rectificatif) sont en train d’être adoptés en procédure accélérée au Parlement. Résultat, « toutes les réformes en cours se[ont] suspendues » – dixit le président de la République lors de son allocution télévisée du 16 mars devant 35,3 millions de télé-spectateurs, selon Médiamétrie. Les deux plus importants projets de loi de son quinquennat sont déprogrammés sine die.
La réforme très contestée des retraites, pour laquelle le gouvernement avait décidé de recourir à l’article 49-3 à l’Assemblée nationale pour le « projet de loi ordinaire » (sans débat avec les députés (1)), est suspendue (alors que le texte devait arriver au Sénat en avril et que le « projet de loi organique » ne pouvait pas être, lui, soumis au 49-3). La réforme de l’audiovisuel, qui était le grand chantier d’Emmanuel Macron annoncé dès sa campagne présidentielle de 2017, est reportée. Ce projet de loi sur « la communication audiovisuelle et la souveraineté culturelle à l’ère numérique » a été examiné début mars par la commission commission des affaires culturelles et de l’éducation de l’Assemblée nationale (lire p. 6 et 7), et devait être débattu en séances publiques à partir du 31 mars jusqu’au 10 avril. Mais l’urgence législative dans la « guerre » (dixit sept fois Emmanuel Macron) contre le Covid-19 a contraint le gouvernement d’annuler le calendrier des débats sur ce texte qui était pourtant lui-même en procédure accélérée depuis décembre (2).
Concernant par ailleurs les enchères des fréquences pour la 5G, dont l’Etat espère les vendre pour un minimum de 2,17 milliards d’euros (mise à prix), l’Arcep confirme à Edition Multimédi@ qu’elles ne se tiendront pas le 21 avril, mais qu’aucune nouvelle date n’a été fixée lors de la réunion de son collège le 19 mars. Des médias (Reuters, AFP, Les Echos, …) avaient annoncé dès le 17 mars le report de ces enchères. Mais le président du régulateur des télécoms, Sébastien Soriano, a dû aussitôt temporiser dans un tweet posté dans la soirée : « Calendrier #5G : aucun report n’est acté pour le moment. (…) Si un nouveau calendrier devait être défini, cela sera indiqué en temps utile » (3). @

Pour la reconnaissance faciale à distance ou locale, les enjeux éthiques ne sont pas les mêmes

Identifier un visage dans une foule soulève de sérieuses questions sur les libertés individuelles. Mais il existe de nombreux autres usages de la reconnaissance faciale, notamment la validation d’identité en local. Ces utilisations ont vocation à se développer mais posent d’autres questions éthiques.

Par Winston Maxwell* et David Bounie**, Telecom Paris, Institut polytechnique de Paris

L’utilisation de la reconnaissance faciale pour l’identification à distance constitue une menace pour les libertés individuelles, car cela tend à banaliser une société de surveillance. Selon le New York Times, une start-up américaine Clearview AI a déjà fabriqué des gabarits d’identification de 3 milliards d’individus à partir d’images copiées sur le Web (1). N’importe quelle force de l’ordre – mais pas le grand public (2) – peut utiliser le logiciel de Clearview AI et identifier les visages dans une foule. Cependant, plusieurs villes américaines ont temporairement banni cette utilisation de la technologie par leurs autorités publiques.

Outils de surveillance généralisée
En Europe, la Commission européenne appelle à un grand débat européen sur l’utilisation de la reconnaissance faciale pour l’identification à distance. En France, le secrétaire d’Etat au numérique, Cédric O, souhaite lancer des expérimentations. Pour l’identification à distance, il faut avancer à tâtons pour trouver le bon équilibre entre les impératifs de sécurité publique et la préservation des valeurs démocratiques. Mais ce débat n’est pas différent au fond de celui qui, depuis 50 ans, entoure les technologies de surveillance des communications électroniques. La technologie utilisée pour la surveillance des communications n’a pas cessé d’évoluer : IMSI-catchers ou intercepteurs d’IMSI (3), boîtes noires, Deep Packet Inspection (DPI), captation à distance, … Ces outils permettraient une surveillance généralisée de la population. Leur utilisation en France est interdite, sauf par les forces de polices et des autorités de renseignement sous le contrôle de juges et de la CNCTR (4).
En application de la jurisprudence européenne, l’utilisation de technologies invasives de surveillance par l’Etat se justifie uniquement si l’utilisation est prévue par une loi. Et ce, pour faire face à une menace particulièrement grave, la lutte contre le terrorisme par exemple, et sous le contrôle d’un juge ou d’une commission indépendante. L’utilisation de la reconnaissance faciale pour identifier les individus à distance devrait suivre la même trajectoire : interdiction, sauf pour les autorités de police ou de renseignement sous le contrôle des juges. D’ailleurs, c’est déjà ce qui est prévu par la directive européenne européenne dite « Police-Justice » (5) de 2016, puisque la reconnaissance faciale est un traitement biométrique soumis à des règles strictes. Mais il existe un deuxième type d’utilisation, non-évoqué par la Commission européenne dans son livre blanc (6) sur l’intelligence artificielle (IA). Il s’agit de valider l’identité « en local » d’un individu en comparant sa photo « selfie » avec la photo de la pièce d’identité. Cette utilisation permet notamment d’ouvrir un compte bancaire à distance ou bien de passer plus vite dans un portique automatique à l’aéroport. Cette utilisation de la reconnaissance faciale se généralise, et elle paraît – de prime abord – moins attentatoire aux libertés individuelles : d’une part, parce que les personnes sont conscientes et consentantes de l’utilisation (ce qui n’est pas le cas pour l’identification à distance) ; d’autre part, parce qu’aucune image ni gabarit biométrique n’est stocké de manière centralisée. La vérification s’effectue en local, comme pour déverrouiller un smartphone avec l’empreinte digitale. Le système crée un gabarit biométrique à partir de la photo du passeport, analyse ensuite la photo de selfie, crée un deuxième gabarit biométrique du selfie, et compare les deux gabarits pour établir une probabilité de correspondance. Ensuite les gabarits sont détruits (lire encadré page suivante). La reconnaissance faciale locale soulève néanmoins des questions éthiques et juridiques importantes : l’existence d’un consentement libre, le problème des biais, l’explicabilité des algorithmes, et la difficile articulation avec le règlement général sur la protection des données (RGPD) pour la phase d’entraînement. La reconnaissance faciale « locale » pose la question du consentement libre. Si la personne subit des conséquences négatives en refusant la reconnaissance faciale, le consentement ne sera pas libre. Il en sera de même si le consentement est demandé par une personne jouissant d’une position d’autorité, par exemple si la direction d’un lycée demandait aux élèves de consentir à l’utilisation de la reconnaissance faciale pour rentrer dans l’établissement (7).

Les biais statistiques sont inévitables
Concerne les biais cette fois, le Parlement européen a appelé le 12 février 2020 à l’utilisation d’algorithme qu’il faut entraîner avec des données « non-biaisées » (8). Or, une telle condition est impossible à satisfaire en pratique. Certains groupes de la population seront toujours sous-représentés dans les images d’entraînement, ce qui signifie que les biais statistiques seront inévitables. Cela peut conduire à des niveaux de performance inégaux selon le genre, la couleur de peau ou la situation de handicap d’une personne. Par exemple, l’algorithme pourrait avoir plus de difficulté à identifier une femme noire qu’un homme blanc au moment de la vérification de l’identité à l’aéroport. Ces biais peuvent exister sous une forme bien pire chez les humains. Mais pour un algorithme, ce genre de biais est peu acceptable. Corriger ces biais dans l’algorithme est possible, mais cela soulève d’autres questions. Par exemple, si l’algorithme a un taux d’erreur élevé pour des personnes atteintes d’une certaine maladie de la peau, devons-nous baisser artificiellement le niveau de performance pour tous les autres groupes de la population pour que le taux d’erreur soit équivalent ? Ces questions deviennent rapidement politiques : à partir de quel moment un biais algorithmique devient-il suffisamment problématique pour le corriger, ce qui affectera inévitablement la performance de l’algorithme pour les autres personnes ?

Savoir s’il y a discrimination algorithmique
Un autre aspect éthique de la reconnaissance faciale concerne l’explicabilité des algorithmes. En France, le code des relations entre le public et l’administration garantit à chaque individu le droit d’obtenir une explication lorsqu’un algorithme géré par l’Etat prend une décision à son encontre (9). Logiquement, ce droit exige que l’exploitant de l’algorithme soit en mesure d’expliquer à une personne pourquoi un système n’a pas pu vérifier son image par rapport à sa pièce d’identité. Techniquement, des solutions d’explicabilité existent, même pour des réseaux de neurones. Mais fournir une explication exige le stockage d’informations, et notamment les gabarits générés par l’algorithme. Or, le RGPD et la directive « Police- Justice » interdisent généralement ce stockage, surtout lorsqu’il s’agit de données biométriques.
Résultat : dans certains cas, il n’y aura aucune explication quant au refus du système de vérifier l’identité. Le système ne réussira pas à identifier la personne, sans que la personne puisse vérifier si elle a fait l’objet d’une discrimination algorithmique. Cette absence de transparence pose une difficulté au niveau des droits fondamentaux, comme le démontre une récente décision du tribunal de la Haye (10).
Enfin, l’entraînement des algorithmes de reconnaissance faciale est difficile à réconcilier avec le RGPD. Pour réduire les discriminations, l’Agence européenne des droits fondamentaux (FRA) souligne la nécessité d’entraîner l’algorithme sur une grande quantité d’images représentatives de la population, et notamment les personnes vulnérables (11). Or cette condition est quasiment impossible à remplir en Europe puisque le RGPD et la directive « Police-Justice » interdisent la création de grandes bases d’images, surtout lorsque les images sont étiquetées selon la couleur de peau ou la situation de handicap. Les systèmes américains et chinois bénéficient, eux, d’entraînement sur des dizaines de millions d’images, ce qui crée un avantage concurrentiel considérable. De plus, les tests de non-discrimination des algorithmes s’effectuent tous aux Etats-Unis à l’agence NIST (12), même pour les systèmes européens.
L’entraînement des algorithmes pose un problème particulier puisque le gabarit d’un visage est considéré comme une donnée biométrique. Or le RGPD interdit le traitement de données biométriques, hormis des cas limités – par exemple, le consentement explicite de la personne. Du coup, un entraînement sur des millions d’images récupérées sur Internet devient impossible par une société européenne puisque l’entraînement nécessite la création, au moins temporaire, de gabarits, une donnée biométrique. Une solution pourrait consister en l’assouplissement des conditions d’application du RGPD lorsqu’il s’agit de créer des gabarits éphémères pour l’apprentissage des algorithmes dans des environnements contrôlés, voire de considérer que ces gabarits ne sont pas des données biométriques puisque la finalité de leur traitement n’est pas l’identification d’une personne mais seulement l’entraînement de l’algorithme. Lorsque l’algorithme est mis en exploitation, les dispositions du RGPD ou de la directive « Police-Justice » sur la biométrie retrouveraient toute leur force, puisque les gabarits seraient bien utilisés pour identifier des personnes. Le consentement explicite de la personne, ou en cas d’intérêt public et de nécessité absolue, serait alors nécessaire. @

* Winston Maxwell, ancien avocat, est depuis juin 2019 directeur d’études
Droit et Numérique à Telecom Paris. ** David Bounie est directeur du
département Economie et Sciences sociales à Telecom Paris.

ZOOM

Qu’est-ce qu’un gabarit ?
Un gabarit est l’équivalent d’un code barre qui contient les mensurations uniques d’un visage. La clé du succès en matière de reconnaissance faciale est de créer un algorithme capable de générer des gabarits de qualité à partir d’images d’individus. Un algorithme de qualité doit savoir générer le même gabarit pour l’image de Paul, quelles que soient les différences de lumière, d’angle de vue et de netteté de l’image de Paul. Pour entraîner l’algorithme, on va présenter à un réseau de neurones 100 photos d’une même personne — par exemple Angelina Jolie — récupérées sur le Web, avec des angles de vue et des lumières différents, et demander au réseau de neurones de trouver une formule mathématique qui permettra pour chaque photo d’Angelina Jolie de générer le même gabarit, quels que soient l’angle de vue ou la lumière. Les gabarits générés pendant l’apprentissage sont éphémères. Ils servent uniquement à aider l’algorithme à trouver la bonne formule mathématique. Une fois cette formule mathématique unique établie, elle peut s’appliquer à n’importe quelle nouvelle photo de passeport et générer, pour cette photo, un gabarit de qualité. L’algorithme va ensuite générer un deuxième gabarit à partir d’une deuxième photo (par exemple un selfie), et si l’algorithme est bien fait, les deux gabarits vont correspondre malgré les différences d’angle de vue et de lumière. La qualité de cet algorithme est au cœur des systèmes de reconnaissance faciale. @

Les GAFAM sont cernés par le législateur français

En fait. Le 2 mars, a commencé la 1re lecture en commission à l’Assemblée nationale du projet de loi sur l’audiovisuelle « à l’ère numérique ». Le 19 février, le Sénat a adopté en 1re lecture une proposition de loi sur le libre choix du consommateur « dans le cyberespace ». La loi Avia contre la cyberhaine revient devant les députés le 1er avril.

En clair. Pas de répit législatif en France pour les GAFAM, ou les GAFAN, c’est selon. Les textes de loi les visant sont encore nombreux en ce début d’année, faisant la navette entre le palais Bourbon et le palais du Luxembourg. Après les lois « taxe GAFA » et le « droit voisin de la presse » promulguées en juillet 2019, lesquels avaient été précédées en décembre 2018 par la loi contre les « fake news », les projets de loi (du gouvernement) et les propositions de loi (des parlementaires) encadrant Internet continuent à se succéder. Ils ont en commun de vouloir accroître la pression réglementaire sur les géants du Net, plus que jamais encerclés par le législateur.
Le projet de loi « Communication audiovisuelle et souveraineté culturelle à l’ère numérique » (1), a commencé son marathon parlementaire en décembre à l’Assemblée nationale où il a été examiné en commission du 2 au 6 mars. Ce texte sur l’audiovisuel va être débattu en séance publique du 31 mars au 10 avril. Les GAFAM vont notamment devoir coopérer plus efficacement contre le piratage sur Internet. Et ce, par le déréférencement des liens et des sites web miroirs. La « liste noire » des contrefaisants y contribuera, que tiendra à jour l’Arcom (CSA-Hadopi) chargée aussi de la « réponse graduée ». Le ministre de la Culture, Franck Riester, écarte cependant la « sanction pénale » demandée le 28 février par 26 organisations d’ayants droits (2). En outre, les plateformes de type Netflix, Amazon Prime Video ou encore Disney+ devront financer des films français (3). Concernant cette fois la « liberté de choix du consommateur dans le cyberespace » (4), la proposition de loi adoptée par le Sénat le 19 février vise à donner pourvoir à l’Arcep de veiller à l’interopérabilité entre les écosystèmes – Android de Google (Play Store) et iOS d’Apple (App Store) en tête – des « équipements terminaux » des utilisateurs (smartphones, tablettes, enceintes connectées, …). Mais le gouvernement estime à l’appui de son avis défavorable que ce sujet doit être réglé au niveau européen.
Quant à la proposition de loi Avia « contre les contenus haineux sur Internet » (5), qui revient devant les députés le 1er avril, elle veut obliger les plateformes du Net à retirer sous 24 heures les contenus illicites, sous peine de lourdes amendes. Mais le Sénat s’est encore opposé à cette mesure le 26 février. Le débat sur la responsabilisation des hébergeurs est loin d’être clos. @

Haine sur Internet : la loi Avia veut lutter
contre un fléau sans « privatiser la censure »

Le marathon parlementaire de la future loi « Avia » contre la haine sur Internet n’en finit pas. Rédigé à la va-vite, le texte est controversé. Le délai de retrait de 24 heures – disposition supprimée puis réintégrée (délai ramené à 1 heure dans certains cas) – illustre la valse-hésitation du législateur.

Par Rémy Fekete, avocat associé, cabinet Jones Day

C’était il y a 37 ans… Dans « L’ère du vide » (1), Gilles Lipovetsky s’essayait déjà à analyser jusqu’où l’individualisme emmenait la société contemporaine, à force de tout tourner en dérision, de mettre fin à toute hiérarchie, vers une ère postmoderne. Ce postmodernisme se traduisait selon l’auteur, par une forme d’épuisement des valeurs collectives, de réduction de la violence physique, et globalement une ère de bien-pensance dans laquelle l’engagement laissait place à la tolérance.

Eviter une société schizophrène
Lipovetsky ne pouvait s’imaginer combien la généralisation de l’usage de l’Internet allait décupler cet individualisme, déjà fortifié pendant les années 1980 par les contre-vertus combinées de la crise économique et de l’explosion de la consommation audiovisuelle. De fait, 2019 parait déjà comme une année charnière puisque pour la première fois, le temps passé sur Internet dépasse celui devant les écrans de télévision (2). Récemment, le neuroscientifique Michel Desmurget nous alarmait sur la situation, selon lui presque désespérée, des atteintes portées par la visualisation d’écran pour les enfants et adolescents. Avec plus de 1.000 heures par an devant un écran, les enfants de maternelle entrent dans un processus de « crétinisation » qui ne fait que s’amplifier (3). Le risque présenté par une consommation non contrôlée de l’Internet est exacerbé par la facilité de l’accès à la violence sur le Net.
La haine et la violence s’expriment de multiples manières, telles que le cyberharcèlement, les propos haineux, les images violentes. Ces risques constatés depuis une trentaine d’années (4) ont fait l’objet de multiples dispositifs législatifs et en particulier de la loi du 21 juin 2004 « pour la confiance dans l’économie numérique » – loi dite LCEN. Depuis, de nombreux autres textes sont venus compléter l’édifice législatif français pour prendre en considération à la fois l’instrumentalisation de l’Internet dans le cadre des activités terroristes visant notre territoire, et les enjeux particuliers que présente l’effet démultiplicateur des réseaux sociaux. C’est dans ce cadre, à l’occasion du plan du gouvernement de lutte contre le racisme et l’antisémitisme le 6 mars 2018, que le Premier ministre a confié à la députée Laetitia Avia (5), à l’écrivain Karim Amellal (6) et à Gil Tayeb (7) le soin de réfléchir aux outils à mettre en place pour lutter plus efficacement contre le racisme et l’antisémitisme sur Internet. C’est la deuxième fois, sous le mandat du président de la République et à la demande de l’exécutif, que les députés sont amenés à se pencher sur les limites à la liberté d’expression sur Internet. On se rappellera le fâcheux précèdent de la loi contre « la manipulation de l’information » en période électorale (8), loi dite « Fake news » promulguée le 23 décembre 2018. La proposition de loi « Avia » visant à lutter contre la haine sur Internet (9) tente de rajouter un étage supplémentaire dans le contrôle des propos échangés dans le cyberespace. A juste titre, les auteurs de la proposition de loi s’émeuvent de la libération d’une parole haineuse décomplexée sur la Toile et des effets dévastateurs, en particulier sur les jeunes, des phénomènes de cyberharcèlement. Ils constatent également la relative impunité qui règne en matière de cyberhaine, du fait du peu de plaintes déposées et en conséquence de condamnations prononcées. De fait, les plateformes de réseaux sociaux savent habilement échapper à leurs responsabilités tant par une organisation de leur groupe en forme de nébuleuse internationale qu’en exigeant leur statut juridique de simple hébergeur (que leur assure la directive européenne « E-commerce » de 2000). Il est vrai que si nous ne voulons pas voir notre société devenir schizophrène, les interdits applicables dans l’espace public réel devraient également faire l’objet d’interdits dans le cadre de comportements en ligne. Contrairement aux récrits des héros habituels de la liberté à tous crins, une opinion estimée sur Internet ne relève pas plus de la liberté de conscience qu’un cri poussé dans la rue ou qu’un écrit diffusé dans la presse papier. L’Internet a beau être accessible dans la chambre à coucher, il ne relève pas du for intérieur.

Après l’Allemagne, la France légifère
De fait, les évolutions législatives à travers le monde, y compris en Europe, tendent à instaurer des codes de bonne conduite et une responsabilité croissante des acteurs du numérique. Le 1er octobre 2017, l’Allemagne a adopté la loi « NetzDG » par laquelle la responsabilité des plateformes est renforcée avec l’obligation de mettre en place des procédures de traitement des signalements efficaces et transparentes, et l’exigence de retrait des contenus illicites sous 24 heures sous peine de lourde sanction financière.
En France, la réforme de la justice instaurée par la loi de programmation 2018-2022 et de réforme pour la justice (10) a permis de procéder à des avancées qui sont utiles dans le cadre de la lutte contre les propos haineux sur Internet : dépôt de plainte en ligne, jugement par ordonnance pénale plus rapide, responsabilité des plateformes quel que soit leur lieu d’établissement, …

Régime de responsabilité administrative
La proposition de loi Avia prévoit un nouveau régime de responsabilité administrative applicable aux opérateurs de plateforme à fort trafic, selon un seuil de connexion mensuel sur le territoire français qui sera déterminé par décret. L’article 1er du texte, le plus critiqué, notamment au Sénat, prévoit que les opérateurs ont l’obligation de retirer ou de rendre inaccessible dans un délai maximal de 24 heures tout contenu comportant manifestement une incitation à la haine ou une injure discriminatoire en raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap. Le manquement à cette obligation est passible d’une sanction – susceptible d’atteindre 4 % du chiffre annuel mondial de l’opérateur – prononcée par le CSA. Le texte prévoit également, aux termes de son article 2, de faciliter les procédures de notification des contenus illicites par les victimes. Le formalisme procédural qui était prévu initialement par la LCEN de 2004 est considérablement simplifié. Désormais, tous les hébergeurs ont l’obligation de mettre en place un bouton unique de signalement commun à tous les grands opérateurs de plateforme de communication et de simplifier le processus de notification. Le soutien des victimes et des déclarants amène l’article 3 de la proposition de loi à imposer la fourniture par les opérateurs d’une information publique claire et détaillée sur les dispositifs de recours, y compris judiciaire dont disposent les victimes.
Les opérateurs ont également une obligation de transparence en matière de lutte contre les contenus d’incitation à la haine sur Internet (obligation de communiquer le nombre de signalements reçus, la répartition des délits visés, le nombre de signalements abusifs, les moyens humains et financiers engagés, …). Le CSA voit ses compétences élargies à nouveau et il lui reviendra de suivre la lutte engagée contre la haine sur Internet et d’accompagner par ces recommandations les opérateurs de plateforme. L’article 5 impose aux opérateurs de désigner un représentant légal exerçant les fonctions d’interlocuteur référent des autorités sur le territoire français. Cette disposition est en effet essentielle tant les plateformes de réseaux en ligne ont eu jusqu’à présent le loisir de jouer sur la complexité de leur organisation sociale pour éviter de répondre aux autorités administratives judiciaires. Le montant des sanctions applicables a été augmenté de 75.000 à 250.000 euros par infraction. Ce montant reste dérisoire compte-tenu du niveau de revenus des opérateurs, même s’il a vocation à s’appliquer à chacune des infractions, notamment lorsque les représentants des plateformes refusent de coopérer promptement pour lever l’anonymat des auteurs de contenus illicites. Le législateur ayant constaté que les propos racistes sont également diffusés sur des sites web dédiés, il a tenté au sein de l’article 6 de faciliter le blocage et le déréférencement des sites web illicites ainsi que de lutter contre le transfert des contenus litigieux sur des sites miroirs. Il confie le pouvoir à une autorité administrative d’enjoindre le blocage de tels sites miroirs. La proposition de loi Avia prévoit en outre que le gouvernement présente chaque année au Parlement un rapport sur l’exécution de la loi, les moyens consacrés à la lutte contre les contenus licites, y compris en matière d’accompagnement des victimes. Enfin, car la France ne serait plus la France sans mêler à tout texte législatif une disposition fiscale, la proposition crée une taxe additionnelle d’un montant qui reste à définir. Les voies critiques se sont multipliées sur ce texte manifestement rédigé à la va-vite. Conseil national du numérique (11), Conseil d’Etat, Commission européenne (12), … Les avis étaient mitigés ou franchement négatifs, ce qui rend le parcours du combattant parlementaire peu surprenant.
Le Sénat, où certains redoutent une « privatisation de la censure », a finalement adopté le 17 décembre 2019 le texte largement modifié en supprimant notamment le délai de 24 heures prévu par la proposition pour le retrait des contenus illicites. Le texte a été renvoyé en commission mixte paritaire (CMP), qui s’est réunie le 8 janvier 2020 sans parvenir à un accord entre députés et sénateurs. En conséquence, le texte a fait l’objet d’une nouvelle lecture à l’Assemblée nationale les 21 et 22 janvier après avoir été réexaminé le 14 janvier en commission des lois où le délai de 24 heures a été rétabli (13). Ce délai de retrait est assorti d’une amende plafonnée à 1,25million d’euros (14). Le texte a été adopté par les députés, avec l’introduction in extremis par le gouvernement d’un délai de 1 heure seulement pour les contenus terroristes ou pédopornographiques (15). Prochains rendez-vous : le 30 janvier pour une nouvelle lecture au Sénat et le 11 février pour l’adoption définitive du texte à l’Assemblée nationale.

GAFAM, juges de la bien-pensance ?
Espérons que les parlementaires trouveront la voie étroite pour limiter les tombereaux d’ordures qui déferlent sur la Toile, sans donner – ni aux forces étatiques, dont la répression n’est jamais neutre, de nouveaux pouvoirs limitant les libertés publiques, ni au GAFAM, motivés comme jamais par des sanctions pécuniaires significatives – le pouvoir de s’ériger en nouveaux juges de la bien-pensance universelle. Le risque, à défaut, serait de donner une nouvelle dimension à cet « Empire du bien » fustigé par Philippe Murray, qui y voyait avec raison le règne d’une « tolérance hygiénique » sans savoir combien l’Internet contribuerait à décupler ce qu’il appelait avec une anticipation géniale la « Virtue World Corporation ». @

Droit moral des auteurs de films et de séries : le final cut «à la française» s’imposera par la loi

Netflix, Amazon Prime Video ou encore Disney+ seront tenus de respecter le final cut « à la française », qui requiert l’accord du réalisateur pour le montage définitif d’un film ou d’une série. Ce droit moral est visé par le projet de loi sur l’audiovisuel présenté le 5 décembre dernier.

Charles Bouffier, avocat conseil, et Charlotte Chen, avocate, August Debouzy

Le final cut désigne la version définitive du montage d’une œuvre cinématographique ou audiovisuelle – un film ou une série par exemple – distribuée ou diffusée. Le final cut désigne également un droit, celui que détient la personne qui a le pouvoir de décider de ce montage définitif. S’il est d’usage aux Etats-Unis que le producteur ait ce pouvoir décisionnel (laissant éventuellement au réalisateur le loisir d’éditer une version « director’s cut »), la situation française est différente en vertu notamment des droits moraux dont jouissent les auteurs.

Ce que dit le droit américain
A l’heure ou des producteurs et/ou diffuseurs américains – au premier rang desquels Netflix – investissent de plus en plus le champ de la création audiovisuelle européenne, et notamment française, le final cut « à l’américaine » estil soluble dans le paysage audiovisuel français ? La question est plus que jamais d’actualité compte-tenu des dispositions du projet de loi relatif à la communication audiovisuelle. Selon le régime du « work made for hire » du copyright américain, à savoir le « Title 17 – Copyrights » (1), le commanditaire d’une œuvre notamment audiovisuelle ou cinématographique (2), est considéré, par principe, comme titulaire des droits sur l’œuvre (3). Par conséquent, à moins que les parties en conviennent autrement, tous les droits d’auteur (copyright) de l’œuvre, incluant le final cut, sont détenus par le commanditaire. La cession des droits, et du final cut plus particulièrement, peut néanmoins être aménagée dans le contrat de production, conformément à ce que recommande la Directors Guild of America (syndicat professionnel représentant les intérêts des réalisateurs américains). Par ailleurs, le copyright américain protège le droit à la paternité et le droit à l’intégrité de l’œuvre de l’auteur mais uniquement pour les œuvres pouvant être qualifiées de « work of visual art » (4). Celles-ci sont limitativement énumérées – peintures, dessins, sculptures, etc. – et n’incluent pas les œuvres cinématographiques et audiovisuelles (5). En droit français, depuis 1957 pour les œuvres cinématographiques (6) et 1985 pour les œuvres audiovisuelles au sens large (7), le final cut résulte d’un commun accord entre le réalisateur et le producteur. Le texte est aujourd’hui codifié à l’article L. 121-5 du code de la propriété intellectuelle (CPI), comme suit : « L’œuvre audiovisuelle est réputée achevée lorsque la version définitive a été établie d’un commun accord entre, d’une part, le réalisateur ou, éventuellement, les coauteurs et, d’autre part, le producteur. Il est interdit de détruire la matrice de cette version. Toute modification de cette version par addition, suppression ou changement d’un élément quelconque exige l’accord des personnes mentionnées au premier alinéa. […] ». Dans la mesure où les prérogatives ainsi reconnues au réalisateur découlent de son droit moral (droit de divulgation/droit au respect de l’intégrité de l’œuvre), elles sont en principe incessibles et ne peuvent faire l’objet d’une renonciation par anticipation (8). Elles peuvent cependant faire l’objet de certains aménagements contractuels dans le contrat de production (prise en compte des commentaires du producteur, délais impartis à ce dernier pour émettre un avis, etc.). En outre, une partie qui refuserait de collaborer de bonne foi dans la mise en œuvre de cet article L. 121-5 pourrait voir sa responsabilité contractuelle engagée, tout refus abusif pouvant par ailleurs être surmonté par le recours au juge (9).
Ces dispositions permettent donc au réalisateur d’affirmer ses choix artistiques, en collaboration avec le producteur. Elles permettent également aux auteurs de faire respecter leur choix quant au montage définitif après achèvement de l’œuvre audiovisuelle. L’achèvement du film est même une des conditions pour que l’auteur puisse exercer ses droits moraux tels que listés à l’article L.121-1 du CPI (10). A titre d’illustration, un juge des référés a été conduit à prononcer l’interdiction de diffusion d’un film suite à l’opposition du réalisateur à la divulgation d’une version définitive n’ayant pas reçu son accord. Le juge a considéré que le réalisateur avait démontré les justes motifs de s’opposer à la divulgation de la version définitive litigieuse (11).

Le Final cut français reconnu d’ordre public
Ainsi, l’auteur peut avoir intérêt à se prévaloir de ses prérogatives tirées de l’article L.121-5 du CPI avant achèvement de l’œuvre, au cours de ses échanges avec son producteur, car postérieurement au montage définitif il lui sera nécessaire d’apporter la preuve d’un préjudice subi en raison des différentes atteintes alléguées (12). • Quid d’un contrat de production conclu avec un auteur français mais soumis au droit américain ? En droit interne, la Cour de cassation a expressément reconnu en 1973 le caractère d’ordre public du final cut « à la française » en déclarant nulle comme contraire à l’ordre public une clause qui conférerait le pouvoir de décision du montage définitif à la seule société productrice (13). Cette solution est conforme à une jurisprudence constante selon laquelle les dispositions de l’article L.121-1 du CPI sont d’ordre public (14). Mais un contrat de production audiovisuelle régi par un droit étranger pourrait-il contourner ce régime ? La question mérite d’être posée, car l’ordre public interne n’est pas nécessairement transposable à l’ordre public international.

Transposition de la directive « SMA »
Sur la base de l’article L. 121-1 du CPI, la jurisprudence française reconnaît cependant que la protection accordée par le droit moral à l’auteur est d’ordre public au sens du droit international privé. En particulier, la Cour de cassation, après avoir rappelé l’impérativité du droit au respect de l’intégrité de l’œuvre, a considéré qu’une Cour d’appel avait violé l’article L. 121-1 du CPI en refusant aux héritiers d’un réalisateur américain (John Huston) la possibilité de s’opposer à la version colorisée d’un film au motif que la loi américaine et les contrats passés conclus entre le producteur et les réalisateurs leur déniait la qualité d’auteur (15). Avant cet arrêt, la Cour d’appel de Paris avait déjà reconnu que le droit moral français pouvait être invoqué comme une exception d’ordre public aux clauses d’un contrat soumis à la loi de l’Etat de New-York (16). Aussi, dans la mesure où le final cut de l’article L.121-5 du CPI découle du droit moral de l’auteur, il pourrait être soutenu, par analogie avec les arrêts précités, que les prérogatives du réalisateur prévues par cet article sont d’ordre public au sens du droit international privé. Elles pourraient donc être invoquées comme une exception d’ordre public à la loi étrangère qui énoncerait un régime contraire, pour la neutraliser. En d’autres termes, la clause qui prévoirait que le montage définitif d’une œuvre audiovisuelle serait confié exclusivement au producteur pourrait être déclarée nulle par le juge français, même si la loi du contrat le permettrait. • Quels vont être en France les apports du projet de loi audiovisuel ? Le Parlement s’apprête à réformer le cadre juridique audiovisuel français, issu principalement de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication (loi dite « Léotard »). Il s’agit notamment de transposer la directive européenne sur les services de médias audiovisuels, actualisée en 2018 – directive SMA (17) – pour étendre les règles audiovisuelles aux nouveaux services de médias audiovisuels à la demande (SMAd) tels que Netflix, Amazon Prime Video ou bien encore Disney+. En effet, soucieux d’adapter le cadre juridique de l’audiovisuel français à ces enjeux numériques mais également dans le but de transposer certaines dispositions de la directive sur le droit d’auteur dans le marché unique numérique (18), le ministère de la Culture a proposé un « projet de loi relatif à la communication audiovisuelle et à la souveraineté culturelle à l’ère numérique » présenté en conseil des ministres le 5 décembre 2019. Ce projet de loi devrait en principe être discuté au Parlement début 2020 selon la procédure accélérée. Les SMAd semblent particulièrement visés par les articles 1er et 7 de ce projet de loi – dans sa dernière version publique (19) –, qui tendent à renforcer la protection des droits moraux et patrimoniaux des auteurs avec lesquels ils peuvent être amenés à contracter. L’article 1er propose en effet d’exclure des œuvres prises en compte au titre de la contribution au développement de la production française celles dont les contrats de production ne respecteraient ni les droits moraux des auteurs ni les principes relatifs à leur rémunération (20). A cet égard, l’article 1er vise expressément l’article L. 121-1 du CPI et, surtout, l’article L. 121-5 du CPI qui prévoit le régime français du final cut. Dans le même sens, l’article 7 propose d’insérer un nouvel article L. 311-5 dans le code du cinéma et de l’image animée qui subordonnerait les aides financières du CNC à l’inclusion, dans les contrats conclus avec les auteurs d’œuvres cinématographiques et audiovisuelles, de clauses types garantissant le respect des droits énoncés par l’article 1er.
Le respect effectif des droits d’auteur deviendrait ainsi une mission du CNC (21) qui pourrait saisir l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom, future autorité administrative indépendante issue de la fusion entre le CSA et la Hadopi) chargée de contrôler de cette exigence (22). Ces articles résultent en partie d’une proposition formulée par le rapport Bergé (23), qui considérait qu’une garantie de rémunération proportionnelle des auteurs était nécessaire au regard des pratiques de certains SMAd, Netflix étant visée expressément (24). En revanche, le rapport Bergé n’abordait pas la problématique du respect des droits moraux des auteurs dans les contrats de production. Il semblerait que cet ajout – et plus particulièrement la référence à l’article L.121-5 du CPI – interviennent en réponse aux doléances de certains producteurs et auteurs français confrontés aux pratiques contractuelles de Netflix, alors pourtant que son avocat français assure que « tous les contrats de Netflix sont conformes au droit français » (25).

Négociations contractuelles sous l’œil de la loi
En tout état de cause, si ces nouvelles dispositions étaient adoptées, les œuvres – dont les contrats de production réserveraient le final cut exclusivement au producteur – risqueraient de ne pas être prises en compte au titre de la contribution au développement de la production française. Et ces œuvres pourraient être privées des aides du CNC, dotant ainsi les auteurs d’un argument financier de taille dans la négociation contractuelle de leurs droits. @