La taxe « copie privée » a rapporté aux industries culturelles plus de 4 milliards d’euros en 20 ans

C’est une manne dont les ayants droit de la musique, de l’audiovisuel, de l’écrit (presse-édition) et de la photo (image fixe) ne peuvent plus se passer. De 2002 (taxe sur les CD/DVD) jusqu’à 2020 (taxation de presque tous les appareils de stockage), la « rémunération pour copie privée » fait recette.

La « rémunération pour copie privée », qui est une taxe prélevée sur le prix de ventes des supports et appareils de stockage numérique (smartphone, tablettes, box, clés USB, disques durs externes, cartes mémoires, disques optiques, …), est appliquée pour « compenser le préjudice subi par les auteurs, artistes, éditeurs et producteurs du manque à gagner résultant de l’utilisation de leurs oeuvres ». Cette taxe « copie privée » est la contrepartie du droit de copie privée, permettant à chacun d’enregistrer des musiques, des films, des livres ou des photos pour un usage privé, dans le cadre du cercle restreint familial (1). Selon les calculs de Edition Multimédi@, à partir des chiffres enfin rendus publics par Copie France, qui est l’unique organisme chargé de percevoir la rémunération pour copie privée, l’année 2020 a franchi deux seuils symboliques : la barre des 4 milliards d’euros pour le total cumulé des sommes perçues depuis près de vingt ans (2002-2020), dont le cap des 2 milliards d’euros dépassé rien que pour la musique (part sonore au sens large).

Les ordinateurs (fixes ou portables) bientôt taxés à leur tour
Ces deux dernières décennies « digitales » (2) ont ainsi vu les recettes de la taxe «copie privée» grimper au fur et à mesure de la généralisation des usages numériques et des appareils et/ou support de stockage associés. En Europe, la France est le pays qui taxe le plus : sur plus de 1 milliard d’euros collectés sur 2020 au titre du private copying levy dans l’Union européenne (3), l’Hexagone pèse à lui seul plus d’un quart (26,8 %) de ces recettes totales. En effet, Copie France a collecté l’an dernier 273 millions d’euros, soit 5 % de mieux que l’année précédente. Et les industries culturelles et les ayants droit (auteurs, artistes, éditeurs et producteurs) n’entendent pas en rester là puisque d’autres appareils vont être assujettis à leur tour par la « commission pour la rémunération de la copie privée », laquelle est rattachée au ministère de la Culture et présidée jusqu’en septembre 2021 par le conseiller d’Etat Jean Musitelli (photo). Ainsi, à partir du 1er juillet prochain seront taxés eux aussi Continuer la lecture

Affaire « Schrems 2 » : la pérennité des transferts en dehors de l’Union européenne remise en question

Depuis vendredi 16 juillet 2020, les transferts de données à caractère personnel vers les Etats-Unis sur le fondement du « Privacy Shield » sont invalides. Les entreprises souhaitant donc continuer à transférer des données vers les Etats-Unis doivent identifier un autre mécanisme de transfert.

Par Laura Ziegler & Sandra Tubert, avocates associées, BCTG Avocats

La Cour de justice de l’Union européenne (CJUE) a rendu le 16 juillet 2020 un arrêt majeur dans l’affaire dite « Schrems 2 » (1) concernant les mécanismes de transferts de données hors de l’Union Européenne (UE). Elle a ainsi annulé le Privacy Shield qui permettait aux Etats-Unis d’être considérés comme un pays ayant un niveau de « protection adéquate » par la Commission européenne pour les transferts de données à caractère personnel vers des organisations américaines auto-certifiées, tout en considérant que les clauses contractuelles types demeuraient, quant à elles, valides.

Le « Privacy Shield » en question
Les transferts de données vers des pays tiers à l’UE ne peuvent en effet avoir lieu qu’à certaines conditions (2). Au titre de ces conditions figurent le fait que la Commission européenne ait constaté que le pays tiers assure un niveau de protection adéquat (3) ou, faute de décision d’adéquation, que les parties aient mis en place des garanties appropriées comme les « règles d’entreprise contraignantes » (4), ou les « clauses contractuelles types » (5). Le Privacy Shield, lui, reposait sur un système d’auto-certification en vertu duquel les entreprises américaines s’engageaient à respecter une série de principes (6) en matière de protection des données auprès du ministère du commerce américain (FTC). Grâce à ce mécanisme, la Commission européenne avait considéré, en juillet 2016, au moyen d’une décision d’adéquation (7), que les Etats-Unis offraient un niveau de protection adéquate (8), permettant ainsi les transferts de données entre une entreprise de l’UE et des entreprises américaines auto-certifiées. Déjà sujet à de vifs débats au moment de son adoption qui suivait de près l’annulation de son prédécesseur (9), le Privacy Shield avait pour objectif de maintenir au plus vite les accords commerciaux entre l’UE et les Etats-Unis tout en assurant un niveau de protection suffisant des données transférées aux Etats-Unis.
La période de répit pour les transferts de données vers les Etats-Unis aura toutefois été de courte durée puisque l’Autrichien Max Schrems a poursuivi la procédure qui avait conduit à l’invalidation du Safe Harbor dans la désormais célèbre affaire « Schrems 1 ». Ce sont des suites de cette procédure, dans le cadre d’un litige opposant la « Cnil » irlandaise (DPC) à Facebook Ireland Ltd et à Max Schrems au sujet d’une plainte concernant le transfert de ses données par Facebook Ireland à Facebook Inc. aux Etats-Unis que plusieurs questions préjudicielles ont été soumises à la CJUE. Dans l’affaire « Shrems 2 », la CJUE a ainsi été amenée à examiner la validité du Privacy Shield au regard des exigences découlant du RGPD, lues à la lumière des dispositions de la Charte des droits fondamentaux de l’UE garantissant le respect de la vie privée et familiale, de la protection des données personnelles et du droit à une protection juridictionnelle effective (10). La CJUE devait déterminer si les programmes de renseignement et de surveillance mis en place aux Etats-Unis et les garanties prévues dans la réglementation américaine (11) – pouvant concerner des ressortissants européens – étaient mis en œuvre dans le respect des exigences de proportionnalité et de respect des droits des personnes.
Si la CJUE rappelle que les articles 7 (respect de la vie privée) et 8 (protection des données personnelles) de la Charte des droits fondamentaux de l’UE ne sont pas des « prérogatives absolues », elle estime toutefois que l’intervention des autorités publiques américaines constitue une atteinte à ces principes et que les limitations qui en découlent ne sont ni proportionnées, ni nécessaires et ne permettent pas l’exercice de droits effectifs et opposables dont doivent nécessairement bénéficier les personnes concernées.

Atteinte aux droits fondamentaux
La CJUE souligne que, contrairement au niveau de protection offert par l’UE, les programmes de surveillance américains aux fins du renseignement extérieur (12) ne contiennent aucune limitation ni n’offrent aucune garantie pour les personnes concernées de l’UE (non américaines), celles-ci ne pouvant par ailleurs pas opposer leurs droits aux autorités publiques américaines devant les tribunaux. Pour parvenir à cette conclusion, elle précise notamment que le mécanisme de médiation prévu par le Privacy Shield n’est ni indépendant, ni pourvu de force contraignante à l’égard des services de renseignement. La CJUE ajoute que les programmes de surveillance fondées sur les dispositions de la PPD 28 ne sont pas limités au strict nécessaire (contrevenant ainsi au principe de proportionnalité), dans la mesure où ils permettent de procéder à une collecte massive de données et ce sans aucune surveillance judiciaire. Forte de tous ces griefs, la CJUE a donc logiquement considéré que la décision d’adéquation du Privacy Shield était invalide. Les critiques formées à l’encontre des « clauses contractuelles types » étaient un peu différentes, puisque celles-ci peuvent être utilisées pour des transferts vers tout pays tiers à l’UE.

Maintien des « clauses contractuelles types »
La CJUE était, entre autres, interrogée sur le fait de savoir si leur nature contractuelle, ayant ainsi un effet relatif à l’égard des autorités publiques étrangères, n’était pas de nature à remettre en cause leur validité, dans la mesure où elles pourraient ainsi ne pas permettre aux personnes concernées d’empêcher l’accès à leurs données et/ou d’exercer leurs droits. Elle a estimé que le seul fait que les clauses contractuelles types ne soient pas contraignantes vis-à-vis des autorités publiques d’un pays tiers n’était pas de nature à emporter l’invalidation de celles-ci. La CJUE a toutefois rappelé en substance qu’il appartient au responsable de traitement et au destinataire des données de vérifier préalablement à tout transfert si le pays tiers permet en pratique d’assurer un niveau de protection essentiellement équivalent à celui garanti dans l’UE par le RGPD. Le cas échéant, ils sont alors tenus, soit de prendre les mesures nécessaires pour compenser l’insuffisance de garanties du pays destinataire, soit – si le pays tiers destinataire des données dispose d’une réglementation contraire aux principes figurant dans les clauses contractuelles types – de s’interdire un tel transfert ou d’y mettre fin. Concernant la deuxième question sur le fait de savoir si les mécanismes figurant au sein même des clauses contractuelles types étaient de nature à assurer de manière effective la protection adéquate requise par l’article 45 du RGPD, la CJUE apporte une réponse positive sans détours : les différents engagements pris par les parties au titre des clauses contractuelles types (13) sont autant de garanties qui permettent de constituer des mécanismes d’effectivité suffisante.
Cette décision est pourtant bien plus complexe qu’il n’y paraît. Il serait, à notre sens, hâtif d’en déduire que la CJUE donne un blanc-seing à l’utilisation des clauses contractuelles types pour les transferts hors UE. Elle invite, tout au contraire, les responsables de traitement et leurs destinataires à se lancer dans une véritable analyse détaillée de la législation du pays tiers pour vérifier si les garanties qui sont fournies par les clauses contractuelles types peuvent réellement y être respectées en pratique. Dans le cas contraire, ils devront mettre en place, en plus des obligations figurant dans le corps même des clauses, des garanties supplémentaires afin de rendre réellement effectifs les droits des personnes concernées et l’existence d’un recours juridictionnel. La nature de ces garanties ou mesures supplémentaires interroge : le point 132 de la décision de la CJUE semble pointer vers le considérant 109 du RGPD, qui lui-même invite les parties prenantes aux clauses contractuelles types à les compléter par d’autres clauses fournissant des garanties supplémentaires. L’introduction de garanties supplémentaires par voie contractuelle ne se heurtera-telle pas, dans certains cas, à la même suprématie des lois impératives américaines ? Dans l’attente d’orientations plus détaillées, le Comité européen à la protection des données (CEPD), qui réunit les « Cnil » européennes, précise que ce pourrait être des mesures juridiques, techniques ou organisationnelles (14). Ces deux derniers types de mesures étant certainement les plus à même d’assurer de manière plus effective une certaine protection des données.
La décision rendue par la CJUE ne s’arrête pas en réalité à la seule invalidité du Privacy Shield, et ce sont les transferts vers les Etats-Unis dans leur ensemble – quel que soit le mécanisme de transfert utilisé – qui sont en réalité largement questionnés par cet arrêt. Comme le reconnaît le CEPD, les législations américaines qui sont pointées du doigt dans l’arrêt de la CJUE s’appliquent en réalité à tout transfert vers les Etats-Unis quel que soit l’outil de transfert utilisé. De fait, la CJUE estime en réalité que le droit américain ne permet pas d’assurer à lui seul un niveau de protection essentiellement équivalent à celui prévu dans l’UE.
Par ailleurs, au-delà des Etats-Unis, ce sont les transferts en dehors de l’UE vers des pays disposant de lois permettant des programmes de surveillance intrusifs qui sont questionnés. En pratique, il est difficile pour les entreprises d’anticiper pour l’heure toutes les conséquences de cette décision ou l’effectivité des garanties supplémentaires qu’elles pourraient mettre en place, lorsque celles mises en place par la Commission européenne et le département de commerce américain ont échouées.
Les réactions des autorités de contrôle et du CEPD sont fortement attendues dans les prochains mois pour proposer aux entreprises des solutions pragmatiques leur permettant de tirer toutes les conséquences de cet arrêt, tout en pérennisant si possible les transferts hors UE.

Comment pérenniser les transferts ?
Dans l’attente d’orientations plus détaillées, les entreprises sont ainsi invitées à identifier tous leurs transferts en dehors de l’UE (15), le mécanisme de transferts utilisé, et à conduire une analyse de la législation du pays en question pour déterminer si celle-ci permet d’assurer un niveau de protection essentiellement équivalent à celui garanti dans l’UE. Et ce, afin d’envisager au besoin les éventuelles garanties supplémentaires effectives qui pourraient être mises en place. Néanmoins, la pérennité et la sécurité juridique des transferts hors UE pourraient ne trouver un véritable salut que par une réponse politique adaptée et attendue. @

Brainstorming politique et législatif sur les multiples enjeux de l’intelligence artificielle

Il ne se passe pas un mois sans que l’intelligence artificielle (IA) ne fasse l’objet d’un rapport, d’un livre blanc, ou d’une déclaration politique. Il en va pour les uns de la « souveraineté », pour les autres de droit de propriété intellectuelle, ou encore de révolution numérique, c’est selon. Et après ?

La Commission européenne a publié le 19 février – dans le cadre de la présentation de sa stratégie numérique (1) – son livre blanc intitulé « Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance » (2), soumis à consultation publique jusqu’au 19 mai (3). En France, le 7 février, c’était le Conseil supérieur de la propriété littéraire et artistique (CSPLA) qui publiait son rapport sur l’IA et la culture au regard du droit d’auteur (4). En octobre 2019, l’OCDE (5) présentait son rapport « L’intelligence artificielle dans la société » (6). Le gouvernement français, lui, présentait à l’été 2019 sa stratégie économique d’IA (7), dans le prolongement du rapport Villani de 2018.

Contrôler les « systèmes d’IA à haut risque »
Quels que soient les initiatives et travaux autour de l’intelligence artificielle, les regards se tournent vers le niveau européen lorsque ce n’est pas à l’échelon international. Appréhender l’IA d’un point de vue politique et/ou réglementaire nécessite en effet une approche transfrontalière, tant les enjeux dépassent largement les préoccupations des pays pris isolément. Ainsi, la Commission européenne et l’OCDE se sont chacune emparées du sujet pour tenter d’apporter des réponses et un cadre susceptible de s’appliquer à un ensemble de plusieurs pays. La présidente de la Commission européenne, Ursula von der Leyen (photo), s’était engagé à ouvrir dans les 100 premiers jours de son mandat le débat sur « l’intelligence artificielle humaine et éthique » et sur l’utilisation des méga données (Big Data). Le livre blanc sur l’IA, un document d’une trentaine de pages, expose ses propositions pour promouvoir le développement de l’intelligence artificielle en Europe tout en garantissant le respect des droits fondamentaux. Cette initiative avait été enclenchée il y a près de deux ans par l’ancienne Commission « Juncker » et sa stratégie européenne pour l’IA (8) présentée en avril 2018. Concrètement, il s’agit maintenant pour la Commission « Leyen » de limiter au maximum les risques potentiels que l’IA peut induire, tels que « l’opacité de la prise de décisions, la discrimination fondée sur le sexe ou sur d’autres motifs, l’intrusion dans nos vies privées ou encore l’utilisation à des fins criminelles » (dixit le livre blanc). « Par exemple, des biais dans des algorithmes ou des données de formation utilisés dans des systèmes de recrutement reposant sur l’IA pourraient conduire à des résultats qui seraient injustes et discriminatoires et, partant, illégaux en vertu de la législation de l’UE en matière de non-discrimination ». La Commission européenne compte mettre en place « un écosystème d’excellence » en rationalisant la recherche, en encourageant la collaboration entre les Vingt-sept, et en accroissant les investissements dans le développement et le déploiement de l’IA. Cet écosystème « IA » devra être basé sur la confiance. Aussi, la Commission européenne envisage la création d’un « cadre juridique » qui tienne compte des risques pour les droits fondamentaux et la sécurité. La précédente Commission « Juncker » avait déjà balisé le terrain avec un groupe d’experts de haut niveau – 52 au total (9) – dédié à l’intelligence artificielle, dont les travaux ont abouti à des lignes directrices en matière d’éthique « pour une IA digne de confiance » (10) que des entreprises ont mises à l’essai à la fin de 2019 dans le cadre du forum European AI Alliance constitué à cet effet par 500 membres (11).
Mais la Commission européenne ne veut pas effrayer les entreprises sur un cadre règlementaire trop stricte au regard de cette technologie émergente. « Un cadre juridique devrait reposer sur des principes et porter avant tout sur les systèmes d’IA à haut risque afin d’éviter une charge inutile pour les entreprises qui veulent innover. (…) Les systèmes d’IA à haut risque doivent être certifiés, testés et contrôlés, au même titre que les voitures, les cosmétiques et les jouets. (…) Pour les autres systèmes d’IA, la Commission propose un système de label non obligatoire lorsque les normes définies sont respectées. Les systèmes et algorithmes d’IA pourront tous accéder au marché européen, pour autant qu’ils respectent les règles de l’UE », a prévenu la Commission européenne. Encore faut-il que savoir comment caractériser une application d’IA « à haut risque ».

Une approche internationale nécessaire
Selon le livre blanc, c’est le cas si cette dernière cumule deux critères : l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir (santé, transports, énergie, certains services publics, …) ; l’application d’IA est de surcroît utilisée de façon telle que des risques importants sont susceptibles d’apparaître (risque de blessure, de décès ou de dommage matériel ou immatériel, …). L’Europe entend jouer « un rôle moteur, au niveau mondial, dans la constitution d’alliances autour de valeurs partagées et dans la promotion d’une utilisation éthique de l’IA ». Il faut dire que la Commission européenne n’est pas la seule – loin de là – à avancer sur le terrain encore vierge de l’IA.

5 principes éthiques édictés par l’OCDE
L’OCDE, dont sont membres 37 pays répartis dans le monde (des pays riches pour la plupart), s’est aussi emparée de la question de l’IA en élaborant des principes éthiques. Cette organisation économique a elle aussi constitué son groupe d’experts sur l’intelligence artificielle (AIGO), qui, le 22 mai 2019, a amené l’OCDE à adopter des principes sur l’IA, sous la forme d’une recommandation (12) considérée comme « le premier ensemble de normes internationales convenu par les pays pour favoriser une approche responsable au service d’une IA digne de confiance ». Après en avoir donné une définition précise (voir encadré ci-dessous), l’OCDE recommande à ses Etats membres de promouvoir et de mettre en œuvre cinq grands principes pour « une IA digne de confiance », à savoir :
• 1. Croissance inclusive, développement durable et bienêtre (renforcement des capacités humaines et de la créativité humaine, inclusion des populations sous-représentées, réduction des inégalités économiques, sociales, entre les sexes et autres, et protection des milieux naturels, favorisant ainsi la croissance inclusive, le développement durable et le bien-être).
• 2. Valeurs centrées sur l’humain et équité (liberté, dignité, autonomie, protection de la vie privée et des données, non-discrimination, égalité, diversité, équité, justice sociale, droits des travailleurs, attribution de la capacité de décision finale à l’homme).
• 3. Transparence et explicabilité (transparence et divulgation des informations liées aux systèmes d’IA, favoriser une compréhension générale des systèmes d’IA, informer les parties prenantes de leurs interactions avec les systèmes d’IA, permettre aux personnes subissant les effets néfastes d’un système d’IA de contester les résultats sur la base d’informations claires et facilement compréhensibles).
• 4. Robustesse, sûreté et sécurité (veiller à la traçabilité, notamment pour ce qui est des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA, approche systématique de la gestion du risque, notamment ceux liés au respect de la vie privée, à la sécurité numérique, à la sûreté et aux biais).
• 5. Responsabilité (du bon fonctionnement des systèmes d’IA et du respect de ces principes).
Le G20 a ensuite approuvé ces principes dans sa déclaration ministérielle des 8-9 juin 2019 sur le commerce et l’économie numériques (13), en présence également du Chili, de l’Egypte, de l’Estonie, des Pays-Bas, du Nigéria, du Sénégal, de Singapour, de l’Espagne et du Viet Nam. « Afin de favoriser la confiance du public dans les technologies de l’IA et de réaliser pleinement leur potentiel, nous nous engageons à adopter une approche de l’IA axée sur l’être humain, guidée par les principes de l’IA du G20 tirés de la recommandation de l’OCDE sur l’IA, qui sont annexés et qui ne sont pas contraignants », ont déclarés les ministres de l’économie numérique et/ou du commerce des pays signataires.
D’autres organisations multilatérales mènent aussi des réflexions sur l’intelligence artificielle, telles que le Conseil de l’Europe, l’Unesco (14), l’OMC (15) et l’UIT (16). Au sein de l’ONU, l’UE participe au suivi du rapport du groupe de haut niveau sur la coopération numérique, et notamment de sa recommandation sur l’IA. Le 21 novembre dernier, l’Unesco a été mandatée à l’unanimité par ses 193 Etats membres pour élaborer avec l’aide d’experts des normes éthiques en matière d’IA. « Parce que l’intelligence artificielle dépasse le registre de l’innovation, c’est une rupture, une rupture anthropologique majeure qui nous place devant des choix éthiques », a lancé sa directrice générale, la Française Audrey Azoulay, lors de la 40e Conférence générale de cette agence de l’ONU.
En France, le CSPLA s’est penché sur l’IA au regard du droit d’auteur. Dans leur rapport publié en février, les deux professeures – Alexandra Bensamoun et Joëlle Farchy – suggèrent « la création d’un droit spécial du droit d’auteur (pour manifester la parenté évidente de ces créations avec les œuvres classiques), assis sur les critères classiques dans une lecture renouvelée ». Il s’agit d’un choix politique, comme ce fut le cas pour le logiciel. Une autre option avancée par les auteures serait de créer un droit spécifique, en droit d’auteur et à la lisière d’un droit voisin, en s’inspirant du régime de l’œuvre posthume.

Quel droit pour l’œuvre créée par une IA ?
Le droit privatif sur les productions créatives d’une IA pourrait ensuite consister en un droit sui generis, sur le modèle du droit accordé au producteur de bases de données, avec un objectif affiché, celui de soutenir et de protéger l’investissement. « La publication de notre rapport sur l’IA permet de contribuer utilement à la réflexion européenne et internationale sur ce sujet. Il sera d’ailleurs traduit prochainement en anglais dans ce but », indique à Edition Multimédi@ Olivier Japiot, président du CSPLA. @

Charles de Laubier

ZOOM

La définition de l’IA, par l’OCDE
« Un système d’intelligence artificielle (ou système d’IA) est un système automatisé qui, pour un ensemble donné d’objectifs définis par l’homme, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur des environnements réels ou virtuels. Les systèmes d’IA sont conçus pour fonctionner à des degrés d’autonomie divers ». @

Droit moral des auteurs de films et de séries : le final cut «à la française» s’imposera par la loi

Netflix, Amazon Prime Video ou encore Disney+ seront tenus de respecter le final cut « à la française », qui requiert l’accord du réalisateur pour le montage définitif d’un film ou d’une série. Ce droit moral est visé par le projet de loi sur l’audiovisuel présenté le 5 décembre dernier.

Charles Bouffier, avocat conseil, et Charlotte Chen, avocate, August Debouzy

Le final cut désigne la version définitive du montage d’une œuvre cinématographique ou audiovisuelle – un film ou une série par exemple – distribuée ou diffusée. Le final cut désigne également un droit, celui que détient la personne qui a le pouvoir de décider de ce montage définitif. S’il est d’usage aux Etats-Unis que le producteur ait ce pouvoir décisionnel (laissant éventuellement au réalisateur le loisir d’éditer une version « director’s cut »), la situation française est différente en vertu notamment des droits moraux dont jouissent les auteurs.

Ce que dit le droit américain
A l’heure ou des producteurs et/ou diffuseurs américains – au premier rang desquels Netflix – investissent de plus en plus le champ de la création audiovisuelle européenne, et notamment française, le final cut « à l’américaine » estil soluble dans le paysage audiovisuel français ? La question est plus que jamais d’actualité compte-tenu des dispositions du projet de loi relatif à la communication audiovisuelle. Selon le régime du « work made for hire » du copyright américain, à savoir le « Title 17 – Copyrights » (1), le commanditaire d’une œuvre notamment audiovisuelle ou cinématographique (2), est considéré, par principe, comme titulaire des droits sur l’œuvre (3). Par conséquent, à moins que les parties en conviennent autrement, tous les droits d’auteur (copyright) de l’œuvre, incluant le final cut, sont détenus par le commanditaire. La cession des droits, et du final cut plus particulièrement, peut néanmoins être aménagée dans le contrat de production, conformément à ce que recommande la Directors Guild of America (syndicat professionnel représentant les intérêts des réalisateurs américains). Par ailleurs, le copyright américain protège le droit à la paternité et le droit à l’intégrité de l’œuvre de l’auteur mais uniquement pour les œuvres pouvant être qualifiées de « work of visual art » (4). Celles-ci sont limitativement énumérées – peintures, dessins, sculptures, etc. – et n’incluent pas les œuvres cinématographiques et audiovisuelles (5). En droit français, depuis 1957 pour les œuvres cinématographiques (6) et 1985 pour les œuvres audiovisuelles au sens large (7), le final cut résulte d’un commun accord entre le réalisateur et le producteur. Le texte est aujourd’hui codifié à l’article L. 121-5 du code de la propriété intellectuelle (CPI), comme suit : « L’œuvre audiovisuelle est réputée achevée lorsque la version définitive a été établie d’un commun accord entre, d’une part, le réalisateur ou, éventuellement, les coauteurs et, d’autre part, le producteur. Il est interdit de détruire la matrice de cette version. Toute modification de cette version par addition, suppression ou changement d’un élément quelconque exige l’accord des personnes mentionnées au premier alinéa. […] ». Dans la mesure où les prérogatives ainsi reconnues au réalisateur découlent de son droit moral (droit de divulgation/droit au respect de l’intégrité de l’œuvre), elles sont en principe incessibles et ne peuvent faire l’objet d’une renonciation par anticipation (8). Elles peuvent cependant faire l’objet de certains aménagements contractuels dans le contrat de production (prise en compte des commentaires du producteur, délais impartis à ce dernier pour émettre un avis, etc.). En outre, une partie qui refuserait de collaborer de bonne foi dans la mise en œuvre de cet article L. 121-5 pourrait voir sa responsabilité contractuelle engagée, tout refus abusif pouvant par ailleurs être surmonté par le recours au juge (9).
Ces dispositions permettent donc au réalisateur d’affirmer ses choix artistiques, en collaboration avec le producteur. Elles permettent également aux auteurs de faire respecter leur choix quant au montage définitif après achèvement de l’œuvre audiovisuelle. L’achèvement du film est même une des conditions pour que l’auteur puisse exercer ses droits moraux tels que listés à l’article L.121-1 du CPI (10). A titre d’illustration, un juge des référés a été conduit à prononcer l’interdiction de diffusion d’un film suite à l’opposition du réalisateur à la divulgation d’une version définitive n’ayant pas reçu son accord. Le juge a considéré que le réalisateur avait démontré les justes motifs de s’opposer à la divulgation de la version définitive litigieuse (11).

Le Final cut français reconnu d’ordre public
Ainsi, l’auteur peut avoir intérêt à se prévaloir de ses prérogatives tirées de l’article L.121-5 du CPI avant achèvement de l’œuvre, au cours de ses échanges avec son producteur, car postérieurement au montage définitif il lui sera nécessaire d’apporter la preuve d’un préjudice subi en raison des différentes atteintes alléguées (12). • Quid d’un contrat de production conclu avec un auteur français mais soumis au droit américain ? En droit interne, la Cour de cassation a expressément reconnu en 1973 le caractère d’ordre public du final cut « à la française » en déclarant nulle comme contraire à l’ordre public une clause qui conférerait le pouvoir de décision du montage définitif à la seule société productrice (13). Cette solution est conforme à une jurisprudence constante selon laquelle les dispositions de l’article L.121-1 du CPI sont d’ordre public (14). Mais un contrat de production audiovisuelle régi par un droit étranger pourrait-il contourner ce régime ? La question mérite d’être posée, car l’ordre public interne n’est pas nécessairement transposable à l’ordre public international.

Transposition de la directive « SMA »
Sur la base de l’article L. 121-1 du CPI, la jurisprudence française reconnaît cependant que la protection accordée par le droit moral à l’auteur est d’ordre public au sens du droit international privé. En particulier, la Cour de cassation, après avoir rappelé l’impérativité du droit au respect de l’intégrité de l’œuvre, a considéré qu’une Cour d’appel avait violé l’article L. 121-1 du CPI en refusant aux héritiers d’un réalisateur américain (John Huston) la possibilité de s’opposer à la version colorisée d’un film au motif que la loi américaine et les contrats passés conclus entre le producteur et les réalisateurs leur déniait la qualité d’auteur (15). Avant cet arrêt, la Cour d’appel de Paris avait déjà reconnu que le droit moral français pouvait être invoqué comme une exception d’ordre public aux clauses d’un contrat soumis à la loi de l’Etat de New-York (16). Aussi, dans la mesure où le final cut de l’article L.121-5 du CPI découle du droit moral de l’auteur, il pourrait être soutenu, par analogie avec les arrêts précités, que les prérogatives du réalisateur prévues par cet article sont d’ordre public au sens du droit international privé. Elles pourraient donc être invoquées comme une exception d’ordre public à la loi étrangère qui énoncerait un régime contraire, pour la neutraliser. En d’autres termes, la clause qui prévoirait que le montage définitif d’une œuvre audiovisuelle serait confié exclusivement au producteur pourrait être déclarée nulle par le juge français, même si la loi du contrat le permettrait. • Quels vont être en France les apports du projet de loi audiovisuel ? Le Parlement s’apprête à réformer le cadre juridique audiovisuel français, issu principalement de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication (loi dite « Léotard »). Il s’agit notamment de transposer la directive européenne sur les services de médias audiovisuels, actualisée en 2018 – directive SMA (17) – pour étendre les règles audiovisuelles aux nouveaux services de médias audiovisuels à la demande (SMAd) tels que Netflix, Amazon Prime Video ou bien encore Disney+. En effet, soucieux d’adapter le cadre juridique de l’audiovisuel français à ces enjeux numériques mais également dans le but de transposer certaines dispositions de la directive sur le droit d’auteur dans le marché unique numérique (18), le ministère de la Culture a proposé un « projet de loi relatif à la communication audiovisuelle et à la souveraineté culturelle à l’ère numérique » présenté en conseil des ministres le 5 décembre 2019. Ce projet de loi devrait en principe être discuté au Parlement début 2020 selon la procédure accélérée. Les SMAd semblent particulièrement visés par les articles 1er et 7 de ce projet de loi – dans sa dernière version publique (19) –, qui tendent à renforcer la protection des droits moraux et patrimoniaux des auteurs avec lesquels ils peuvent être amenés à contracter. L’article 1er propose en effet d’exclure des œuvres prises en compte au titre de la contribution au développement de la production française celles dont les contrats de production ne respecteraient ni les droits moraux des auteurs ni les principes relatifs à leur rémunération (20). A cet égard, l’article 1er vise expressément l’article L. 121-1 du CPI et, surtout, l’article L. 121-5 du CPI qui prévoit le régime français du final cut. Dans le même sens, l’article 7 propose d’insérer un nouvel article L. 311-5 dans le code du cinéma et de l’image animée qui subordonnerait les aides financières du CNC à l’inclusion, dans les contrats conclus avec les auteurs d’œuvres cinématographiques et audiovisuelles, de clauses types garantissant le respect des droits énoncés par l’article 1er.
Le respect effectif des droits d’auteur deviendrait ainsi une mission du CNC (21) qui pourrait saisir l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom, future autorité administrative indépendante issue de la fusion entre le CSA et la Hadopi) chargée de contrôler de cette exigence (22). Ces articles résultent en partie d’une proposition formulée par le rapport Bergé (23), qui considérait qu’une garantie de rémunération proportionnelle des auteurs était nécessaire au regard des pratiques de certains SMAd, Netflix étant visée expressément (24). En revanche, le rapport Bergé n’abordait pas la problématique du respect des droits moraux des auteurs dans les contrats de production. Il semblerait que cet ajout – et plus particulièrement la référence à l’article L.121-5 du CPI – interviennent en réponse aux doléances de certains producteurs et auteurs français confrontés aux pratiques contractuelles de Netflix, alors pourtant que son avocat français assure que « tous les contrats de Netflix sont conformes au droit français » (25).

Négociations contractuelles sous l’œil de la loi
En tout état de cause, si ces nouvelles dispositions étaient adoptées, les œuvres – dont les contrats de production réserveraient le final cut exclusivement au producteur – risqueraient de ne pas être prises en compte au titre de la contribution au développement de la production française. Et ces œuvres pourraient être privées des aides du CNC, dotant ainsi les auteurs d’un argument financier de taille dans la négociation contractuelle de leurs droits. @

Directive européenne sur le droit d’auteur dans le marché unique numérique : fermez le ban !

Après un lobbying intense des géants du Net et des industries culturelles
autour du « trilogue » eurodéputés-Etats membres-Commission européenne, les « ambassadeurs » du Cereper ont adopté le 20 février la directive controversée sur la réforme du droit d’auteur dans le marché unique numérique.

Le « trilogue » de négociation sur le projet de directive européenne « Droit d’auteur dans le marché unique numérique » – instance tripartite composée par le Parlement européen, le Conseil de l’UE et la Commission européenne – a finalement trouvé in extremis le 14 février un accord. Les ambassadeurs du Coreper (1) représentant les Etats membres auprès de l’UE l’ont approuvé le 20 février à Bruxelles. La Finlande, l’Italie, le Luxembourg, les Pays- Bas et la Pologne ont dénoncé « un recul ».

La directive « E-commerce » : un garde-fou ?
Après un vote de la commission Juridique du Parlement européen prévu le 26 février,
le vote final en réunion plénière des eurodéputés interviendrait entre les 15 et 18 avril.
Il s’en est fallu de peu pour que les négociations n’aboutissent pas, notamment en raison du très controversé article 13 sur la responsabilité des plateformes numériques dans la lutte contre le piratage. La France et l’Allemagne ont pesé de tout leur poids pour responsabiliser Google, YouTube, Facebook, Yahoo ou encore Dailymotion. Quelques jours avant le compromis obtenu à l’arraché au sein du trilogue, l’association European Digital Rights (EDRi) avait même révélé le 11 février sur son compte Twitter (2) les ultimes modifications proposées par le gouvernement français sur l’article 13 mais finalement non intégrées le 14 février en trilogue dans la version consolidée du texte (3). « La France [avait] proposé de supprimer la référence à la directive “E-commerce” afin de s’assurer que la #CensorshipMachine entre pleinement en vigueur avec des obligations de contrôle général », avait alerté l’EDRi dirigée par Claire Fernandez (photo). Cette association européenne créée en 2002 à Berlin est basée à Bruxelles pour défendre et promouvoir les droits civils dans l’environnement numérique : neutralité du Net, protection de vie privée et des données personnelles, liberté d’expression et de création, adaptation du droit d’auteur, etc.
Dans son amendement (4) soumis au trilogue, le gouvernement français ne voulait pas que le paragraphe 7 de l’article 13 mentionne la directive « E-commerce » de 2000 qui interdit à toute plateforme numérique de filtrer tous les contenus Internet transitant sur ses serveurs d’hébergement. Ce garde-fou contre une surveillance généralisée du Web est clairement maintenu comme principe général. Rappelons que l’article 15 de cette directive « E-commerce » est intitulé justement « Absence d’obligation générale en matière de surveillance ». Ainsi, « les Etats membres ne doivent pas imposer aux prestataires [intermédiaires techniques, hébergeurs, réseaux sociaux, FAI, …, ndlr] une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Est ainsi consacré en 2000 le statut d’hébergeur à responsabilité – dont bénéficient encore aujourd’hui les Google/YouTube, Facebook, Twitter et autres Snapchat. Les limitations de responsabilité des prestataires de services de la société de l’information ou de services intermédiaires ne peuvent être levées que sur décision d’un juge ou d’une autorité administrative.
D’autant que cette même directive « E-commerce » prévoit que « le prestataire agisse promptement pour retirer l’information qu’il a stockée ou pour en rendre l’accès impossible dès qu’il a effectivement connaissance du fait que l’information à l’origine de la transmission a été retirée du réseau ou du fait que l’accès à l’information a été rendu impossible, ou du fait qu’un tribunal ou une autorité administrative a ordonné de retirer l’information ou d’en rendre l’accès impossible ». En France, la loi pour la confiance dans l’économie numérique (LCEN) de 2004 a sanctuarisé dans le droit national ce régime de responsabilité limitée de l’hébergeur.

Dix ans après le Traité de Lisbonne
En matière de jurisprudence, la Cour de justice de l’Union européenne (CJUE) s’est
à son tour opposée au filtrage généralisé d’Internet dans deux de ses arrêts dit
« Sabam », le premier daté du 24 novembre 2011 dans l’affaire « Scarlet contre
Sabam » (5) (*) et le second du 16 février 2012 dans l’affaire « Sabam contre Netlog » (6). La CJUE est on ne peut plus claire : les directives européennes concernées (7) et les exigences de protection des droits fondamentaux « s’opposent à une injonction faite par un juge national à un prestataire de services d’hébergement de mettre en place un système de filtrage : des informations stockées sur ses serveurs par les utilisateurs de ses services ; qui s’applique indistinctement à l’égard de l’ensemble de ces utilisateurs ; à titre préventif ; à ses frais exclusifs ; et sans limitation dans le temps ». En cela, cette jurisprudence européenne rejoint une autre directive – et non des moindres – à savoir la directive « Propriété intellectuelle » du 29 avril 2004, selon laquelle « les mesures [pour assurer le respect des droits de propriété intellectuelle] ne doivent pas être inutilement complexes ou coûteuses et ne doivent pas comporter de délais déraisonnables ». Et les juges européens en ont même appelé à la Charte des droits fondamentaux de l’Union européenne signée le 7 décembre 2000 et devenue « force juridique obligatoire » depuis l’entrée en vigueur du Traité de Lisbonne en décembre 2009.

Œuvres : pas de protection « absolue »
La CJUE a aussi mis les points sur les « i » des questions jurisprudentielles : « La protection du droit de propriété intellectuelle est certes consacrée [par] la charte des droits fondamentaux de l’Union européenne (article 17, paragraphe 2). Cela étant, il ne ressort nullement de cette disposition, ni de la jurisprudence de la Cour, qu’un tel droit serait intangible et que sa protection devrait donc être assurée de manière absolue » (CQFD). L’on retrouve ce passage éclairant aussi bien dans l’arrêt « Sabam » de novembre 2011 que dans celui de février 2012.
Sauf à ce que l’Europe se déjuge, il était dès lors inconcevable que la nouvelle directive « Droit d’auteur dans le marché unique numérique » intègre l’amendement de la France. Celui-ci, tout en supprimant toute référence à la directive « E-commerce »
qui interdit toute obligation de surveillance générale du Net, a tenté de modifier l’alinéa en le formulant de la façon suivante : « L’obligation prévue à l’article 13 [de lutte contre le piratage en ligne par les plateformes numériques, ndlr] ne doit pas amener les Etats membres à imposer quelconque obligation de surveillance qui n’ait pas été basée sur un contenu [musique, film, série, ebook, jeu vidéo, etc., ndlr] identifié par les titulaires de droits ». La France avait justifié son correctif en ce que, selon elle, la référence
à l’article 15 de la directive « E-commerce » n’est pas compatible avec l’article
13 paragraphe 3 du projet de directive « Droit d’auteur dans le marché unique numérique ». Celui-ci prévoit déjà que la responsabilité limitée des prestataires du Net ne s’applique pas en matière de protection des droits d’auteur : « Lorsqu’un prestataire de services de partage de contenu en ligne effectue un acte de communication au public ou un acte de mise à la disposition du public, dans les conditions établies par la présente directive, la limitation de responsabilité établie à l’article 14, paragraphe 1,
de la directive [« E-commerce »] ne s’applique pas aux situations visées par le présent article. Cela n’empêche pas l’application possible de l’article 14, paragraphe 1, de la directive [« Ecommerce »] à ces prestataires de services à des fins qui ne relèvent pas du champ d’application de la présente directive ». Pour autant, pas question de les obliger à mener un filtrage généralisé du Net. Cette volonté d’exclure les plateformes numériques de la responsabilité limitée conférée par la directive « E-commerce »
– dès lors qu’il s’agit de lutte contre le piratage – a été l’un des chevaux de bataille
de la France, poussée par son ministère de la Culture. Le Conseil supérieur de la propriété littéraire et artistique (CSPLA), dont il dépend, milite de longue date – depuis le rapport « Sirinelli » (8) de novembre 2015 sur « l’articulation » des directives 2000/31 (« Ecommerce ») et 2001/29 (« DADVSI ») – pour une responsabilisation des hébergeurs pour lutter contre le piratage d’oeuvres protégées. Bref, les industries culturelles et leurs ayants droits ont presque eu gain de cause en obligeant – à l’échelon européen – les YouTube, Facebook et autres Dailymotion à filtrer tous les échanges de contenus musicaux, vidéos ou photographiques.
Que de rebondissements autour de cet article 13 controversé, après que les eurodéputés aient d’abord rejeté le 5 juillet 2018 le projet de directive « Droit d’auteur dans le marché unique numérique » (9), puis après l’avoir ensuite adopté le 12 septembre sous une version légèrement amendé. Etaient alors notamment exclues
de son champ d’application « les petites et micro-plateformes ou agrégateurs, afin d’encourager les start-up et l’innovation » (10). Cette exemption de l’obligation de filtrer les contenus pour les PME-TPE du numérique était une exigence de l’Allemagne mais pas de la France.

Les petites plateformes et start-up épargnées
Finalement, lors d’un compris franco-allemand trouvé le 8 février en réunion du trilogue, cette disposition a été maintenue pour les entreprises cumulant trois critères : avoir moins de trois ans d’existence, générer un chiffre d’affaires de moins de 10 millions d’euros, atteindre un niveau d’audience de moins de cinq millions de visiteurs uniques par mois. Au moins cinq pays européens n’ont pas été convaincu de « l’avancée » que constituait cette réforme contestée. Rendez-vous au printemps pour le vote final. @

Charles de Laubier