Lignes directrices de l’article 17 : ménager chèvre (droit d’auteur) et chou (liberté d’expression)

La lutte contre le piratage sur Internet en Europe prend un tournant décisif avec la transposition – censée l’être depuis le 7 juin dernier par les Etats membres – de la directive « Droit d’auteur et droits voisins ». Mais les orientations de son article 17 déplaisent aux industries culturelles.

Par Véronique Dahan, avocate associée, Joffe & Associés

Le 4 juin dernier, la Commission européenne a publié des lignes directrices (1) sur l’application de l’article 17 controversé de la directive « Droit d’auteur et droits voisins dans le marché numérique » (2). Pour l’exécutif européen « l’objectif des lignes directrices [sur l’article 17 de cette directive censée avoir été transposée depuis le 7 juin 2021 au plus tard] est de parvenir à une transposition correcte et cohérente de cet article dans les Etats membres, en portant attention à la nécessité d’équilibrer les droits fondamentaux et le recours aux exceptions et limitations [au droit d’auteur] » (3).

Œuvres protégées et liberté de création
Ces « orientations » sur l’article 17 étaient très attendues, même si de nombreux Etats membres ont d’ores et déjà transposé la directive « Copyright » en question dans leur droit national, ou sont en phase finale de transposition. La rédaction de ces lignes directrices a provoqué des craintes de la part des titulaires de droits qui redoutaient que la Commission européenne recommande aux Etats membres de restreindre l’application et les effets de l’article 17. Rappelons que l’intention du législateur est d’assurer un niveau élevé de protection aux titulaires de droits d’auteur en Europe. Aussi, toute recommandation qui viserait à restreindre la portée de la directive « Droit d’auteur et droits voisins dans le marché numérique » serait contraire à l’intention du législateur. Et ce, d’autant qu’une protection élevée des droits d’auteur est essentielle non seulement pour la création mais aussi pour son financement – tout en maintenant l’équilibre entre les intérêts des auteurs (propriété intellectuelle sur leurs œuvres) et ceux des utilisateurs (liberté d’expression et de création).
Seule une transposition uniforme dans tous les pays européens permettra une application efficace de cette directive « Copyright ». Son article 17 propose un nouveau régime juridique de responsabilité pour les plateformes de partage de contenus en ligne, lesquelles mettent à disposition, à des fins lucratives, une quantité importante de contenus protégés que leurs utilisateurs ont souvent directement mis en ligne. Ce texte législatif, qui a suscité de nombreux débats, répond à l’un des objectifs que s’était fixée la Commission européenne, à savoir : améliorer le fonctionnement du marché de la diffusion en ligne des biens culturels protégés, en mettant en place un système d’autorisation et de responsabilité des plateformes de services de partage de contenus en ligne. L’article 17 de la directive, intitulé justement « Utilisation de contenus protégés par des fournisseurs de services de partage de contenus en ligne », pose un régime de responsabilité hybride qui conduit les plateformes à répondre à deux types d’obligations : fournir leurs meilleurs efforts pour obtenir les autorisations nécessaires auprès des titulaires de droits et assurer une rémunération appropriée au profit de ces derniers ; fournir également leurs meilleurs efforts afin de garantir l’indisponibilité des contenus non autorisés par les titulaires de droits.
Ainsi, cet article 17 est inédit en ce qu’il impose désormais aux services de partage de contenus en ligne d’obtenir les autorisations des ayants droit pour diffuser leurs œuvres, et de les rémunérer en conséquence. Sans accord préalable, ces plateformes numériques devront faire état de l’indisponibilité des œuvres non-autorisées. Les lignes directrices de la Commission européenne font suite aux dialogues mis en place entre les fournisseurs de services de partages de contenus en ligne et les titulaires de droits, afin d’examiner les meilleures pratiques pour une coopération. L’objectif principal étant d’apporter une aide aux Etats membres dans le cadre de la transposition de cette directive. Ces « orientations » – terme employé dans la traduction en français de ce guidance, plutôt que « lignes directrice » qui n’apparaît pas dans le texte – apportent, tout d’abord, des précisions quant au champ d’application de l’article 17.

Le streaming illicite dans le collimateur
Le « fournisseur de services de partage de contenus en ligne » concerné par la directive « Copyright » est défini par celle-ci (4) comme étant « le fournisseur d’un service de la société de l’information dont l’objectif principal […] est de stocker et de donner au public l’accès à une quantité importante d’œuvres protégées par le droit d’auteur ou d’autres objets protégés qui ont été téléversés par ses utilisateurs qu’il organise et promeut à des fins lucratives ». Cette directive de 2019 vise notamment ceux qui « jouent un rôle important sur le marché des contenus en ligne en étant en concurrence pour les mêmes publics avec d’autres services de contenus en ligne, comme les services de diffusion audio et vidéo en flux continu ». Autant dire que les GAFAM et toutes plateformes de streaming vidéo, de musique en ligne ou de réseau social sont visés. La Commission européenne recommande aux Etats membres, par souci de sécurité juridique, de transposer explicitement, sans modification, cette définition dans leur législation nationale et précise, par ailleurs, que ce champ ne peut être augmenté ou réduit.

Pas de surveillance généralisée du Net
Une analyse au cas par cas devra être menée afin de déterminer si le fournisseur tombe dans le champ de l’article ou non. En outre, ces lignes directrices apportent des précisions au regard de l’« autorisation des titulaires de droits » (5). Le terme « autorisation » n’est pas défini par la directive « Copyright ». Dès lors, il est conseillé aux Etats membres de mettre en place des moyens visant à encourager le développement de licences (modèles d’autorisation, mécanisme volontaire de facilitation d’accord, licences collectives, …). Par ailleurs, il est spécifié que les autorisations octroyées aux fournisseurs couvrent également les usages non-commerciaux ou ne générant pas de revenus significatifs réalisés par les utilisateurs.
Ainsi, les plateformes numériques de partage de contenus en ligne deviennent directement responsables de la mise à disposition d’un contenu non autorisé par son auteur, sans que le régime de responsabilité limitée de l’hébergeur ne puisse s’appliquer. Toutefois, le service en ligne sera exonéré de toute responsabilité s’il démontre avoir satisfait aux trois conditions cumulatives suivantes : fournir ses meilleurs efforts pour obtenir une autorisation ; (1) fournir ses meilleurs efforts pour assurer l’indisponibilité des œuvres protégées pour lesquelles les titulaires de droit ont fourni les informations nécessaires ; (2) faire preuve de réactivité dès la réception d’une notification motivée pour bloquer l’accès aux contenus protégés (3-a) et mettre en œuvre ses meilleurs efforts pour éviter dans le futur un scénario similaire (3-b). Ces conditions sont appréciées selon un principe de proportionnalité (6), détaillé par l’article 17 justement (7), et qui est rappelé à de nombreuses reprises par Bruxelles. La première condition – meilleurs efforts d’obtention d’une autorisation – se doit d’être évaluée au cas par cas au regard des spécificités du marché. Sans définition, là aussi, de la notion de « meilleurs efforts », la Commission européenne ajoute que cela s’entend par des démarches proactives et de bonne foi de la part des plateformes numériques concernées pour engager et poursuivre les négociations avec les titulaires de droit. L’objectif de la deuxième condition – fournir ses meilleurs efforts pour assurer l’indisponibilité des œuvres protégées pour lesquelles les titulaires de droit ont fourni les informations nécessaires – n’est pas de recommander l’usage de technologies spécifiques pour parvenir à rendre indisponibles les œuvres protégées. L’idée est de favoriser la coopération entre les fournisseurs en ligne et les titulaires de droits en leur laissant une certaine flexibilité, et que les acteurs du Net en question procèdent à un examen humain rapide pour décider si le contenu doit rester en ligne ou être supprimé. La Commission européenne tient à rappeler que l’objectif de la troisième et dernière condition – faire preuve de réactivité dès la réception d’une notification motivée pour bloquer l’accès aux contenus protégés et mettre en œuvre ses meilleurs efforts pour éviter dans le futur un scénario similaire – n’est pas de créer une obligation générale de surveillance pour les plateformes numériques.
Ce régime de responsabilité se veut pragmatique et prévoit un système particulier pour les fournisseurs qui proposent du contenu en ligne depuis moins de trois ans et qui ont un chiffre d’affaires annuel de moins de 10 millions d’euros. Il s’agit de critères que les Etats membres ne peuvent pas modifier. Parmi ces fournisseurs, les conditions qu’ils doivent respecter vont dépendre de leur audience : ceux réunissant moins de 5 millions de visiteurs devront respecter les conditions (1) (2) et (3-a) susvisées, tandis que ceux qui réunissent plus de 5millions de visiteurs devront respecter les conditions (1), (2), (3-a) et (3-b).
Enfin, la Commission européenne rappelle que le régime instauré par l’article 17 se veut souple. Une souplesse marquée par l’essence même du texte qui tend à protéger les usages légitimes ne portant pas atteinte aux droits d’auteur. L’article 17 n’affecte en rien la possibilité pour les utilisateurs et les plateformes de se prévaloir des exceptions existantes relatives notamment au droit de critique et de citation, à la caricature, à la parodie et au pastiche. Des notions non-définies qui doivent, selon la Commission européenne, être analysées dans leur sens commun et au regard du contexte dans lequel elles interviennent. Ainsi, elle ajoute que les Etats membres devraient adapter ces exceptions ou limitations obligatoires de manière à ce qu’elles s’appliquent de façon cohérente avec la Charte des droits fondamentaux de l’Union européenne (8), « notamment la liberté d’expression et la liberté des arts ».

Expression des internautes et titulaires de droits
Toujours dans une logique de souplesse, ce régime de responsabilité des plateformes numériques impose la mise en place d’un mécanisme de traitement des plaintes des utilisateurs. La Commission européenne préconise un mécanisme simple et sans frais pour garantir son efficacité. En ce sens, il est proposé que les plateformes pourraient fournir des formulaires en ligne aux utilisateurs. Ce mécanisme pourrait également aller plus loin en permettant directement aux titulaires de droits et utilisateurs d’échanger. En définitive, l’article 17 et les récentes lignes directrices de la Commission européenne tentent de trouver un équilibre entre protection des titulaires de droits et la liberté d’expression. @

En bannissant sans limite Donald Trump, les réseaux sociaux Facebook et Twitter ont dépassé les bornes

Persona non grata sur des réseaux sociaux, l’ex-45e président des Etats-Unis Donald Trump – décidé à briguer un nouveau mandat en 2024 – fait l’objet d’un débat sur la régulation mondiale de l’Internet. Facebook, Twitter ou encore YouTube, sociétés privées devenues censeurs sans juge, mettent à mal la liberté d’expression.

(Finalement, le 4 juin 2021, Facebook a décidé de suspendre pour deux ans Donald Trump)

Il n’a plus rien à perdre. Quarante-cinquième président des Etats-Unis (janvier 2017-janvier 2021), Donald J. Trump (photo) – qui aura 75 ans le 14 juin prochain – compte bien se représenter à la prochaine présidentielle américaine de 2024 afin de reprendre sa revanche et de tenter d’être le 47e locataire de la Maison-Blanche. Car dans le monde réel, le turbulent milliardaire n’a pas été banni ni même jugé devant les tribunaux pour les faits qui lui sont reprochés, à savoir d’avoir « encouragé » – sur Facebook – ses partisans à envahir le Capitole des Etats-Unis lors de l’émeute du 6 janvier dernier. En réalité, le mauvais perdant n’a pas explicitement incité – ni encore moins ordonné – l’invasion par la foule du Congrès américain, alors en plein débat sur la ratification de l’élection présidentielle ayant donné Joe Biden vainqueur, mais peut-être implicitement en clamant qu’il avait gagné l’élection présidentielle. Nuance. Ce jour-là, devenu historique, le président sortant était d’ailleurs introuvable, sauf sur Internet pour affirmer qu’on lui avait « volé » l’élection en organisant une « fraude massive ». Jugé coupable le 5 mai par Facebook d’avoir, selon le numéro un des réseaux sociaux, « créé un environnement où un risque sérieux de violence était possible », Donald Trump a été exclu pour encore six mois – mais pas indéfiniment – de Facebook (où il comptait 35 millions d’amis) et d’Instagram (24 millions d’abonnés).

Entreprises privées versus Premier amendement
Ses comptes avaient été supprimés le lendemain des événements du Capitole. Car dans ce monde virtuel, les entreprises privées telles que Facebook ou Twitter ne sont pas soumises au Premier amendement de la Constitution des Etats-Unis d’Amérique interdisant de limiter la liberté d’expression. Donald Trump a ainsi été condamné dès le 7 janvier dernier au bannissement par ces réseaux sociaux tout puissants. « Les entreprises privées ne sont pas tenues par le Premier amendement. Et donc, il [Donald Trump] n’a pas le droit au Premier amendement. C’est un client. Facebook n’est pas un gouvernement, et il [l’ex-président] n’est pas un citoyen de Facebook », a d’ailleurs bien expliqué le 9 mai dernier Michael McConnell, coprésident du « conseil de surveillance » de Facebook, dans un entretien accordé à la chaîne d’information en continu américaine Fox News.

« L’erreur » de Facebook et de Twitter
Et sur sa lancée, le spécialiste du droit constitutionnel et professeur à Stanford a expliqué comment ce jury « indépendant » – appelé en anglais Oversight Board, où il a été nommé il y a un an parmi les vingt membres – a obtenu de la firme de Mark Zuckerberg que Donald Trump soit suspendu provisoirement de Facebook et d’Instagram et non sur une durée indéfinie voire ad vitam aeternam : « Ce que nous avons dit, c’est qu’[il n’était] pas justifié de [le] supprimer indéfiniment [comme envisagé initialement par Facebook, ndlr], qu’ils [les dirigeants de Facebook et d’Instagram] n’ont fourni aucune raison pour cela, que ce n’est pas une disposition de leur règlement, que c’est une erreur. Et nous leur avons donné un certain temps pour (…) mettre de l’ordre dans leur maison ».
Dans un tweet du 5 mai, l’Oversight Board, cette sorte d’ombudsman mondial, a même lancé : « Facebook a enfreint ses propres règles en imposant une suspension “indéfinie” » (1). Autrement dit, le groupe aux réseaux sociaux planétaires doit faire le ménage dans ses « règles chaotiques », « non transparentes », « pas claires », « incohérentes en elles » (2). Le « conseil de surveillance », qui a estimé nécessaire de faire des recommandations à la firme de Menlo Park (Californie) sur la façon de mettre de l’ordre dans ses règles pour les rendre plus acceptables, a donc décidé de maintenir jusqu’à début novembre 2021 l’interdiction faite à l’ancien président des Etats-Unis et le temps pour Facebook durant cette période de clarifier sa politique interne en général et vis-à-vis du « puni » en particulier. C’est un peu comme renvoyer dos à dos Trump et Zuckerberg. « Le conseil de surveillance confirme la suspension de l’ancien président Trump mais estime que la sanction de Facebook n’était pas opportune », déclarait le 5 mai l’organe privé de régulation (3) au moment de rendre son verdict sur « le cas 2021-001-FB-FBR » (4).
L’instance « indépendante » aux allures de cour suprême, financée par Facebook, a été créée pour juger et dire « quels contenus supprimer, quels contenus laisser en ligne et pourquoi ». C’est là que le bât blesse. Ecarté virtuellement « pour avoir encouragé les émeutiers » du Capitole (5), mais plus que jamais réellement présent dans la vraie vie pour se préparer à la campagne présiden-tielle de 2024, Donald Trump est devenu un cas d’école pour la régulation mondiale de l’Internet. D’autant que celui qui fut le 45e président des Etats-Unis a aussi été évincé de Twitter, de YouTube (plateforme vidéo de Google), de Snapchat (de la société Snap) et même de Twitch (filiale d’Amazon). Cette affaire montre les limites d’une régulation privée par des entreprises privées, à savoir une auto-régulation sans intervention du juge. Le verdict du tandem « Facebook- Oversight Board » crée un malaise bien au-delà du Nouveau Monde, tout comme son éviction à vie de Twitter (où le twittos @realDonaldTrump avait 89 millions d’abonnés) en début d’année et pour les mêmes raisons. Et ce, là aussi, sans que la firme de Jack Dorsey ne soit liée par le Premier amendement garantissant la liberté d’expression et sans qu’aucun juge n’ait eu à se prononcer sur cette sentence aux limites de l’arbitraire. Twitter a même enfoncé le clou en suspendant le 6 mai dernier plusieurs comptes qui relayaient des messages postés par l’ancien président des Etats-Unis sur sa nouvelle plateforme numérique lancée le 4 mai et baptisée « From the Desk of Donald J. Trump » (6) (*) (**). Celle-ci préfigure sous forme de blog ce que sera le futur réseau social en gestation du candidat à l’élection présidentielle de 2024. Le site web « Depuis le bureau de Donald J. Trump » renvoie aussi vers sa campagne « Save America » pour lever des fonds et où l’on peut lire « Le président Trump est toujours BANNI de Facebook ! Ridicule ! » (7). Tout le monde pourrait en rire, s’il n’était pas question dans cette affaire hors normes du sort de la liberté d’expression sur Internet et, partant, dans les démocraties dignes de ce nom. Que l’on soit partisan de Trump – passé quand même de 63 millions d’électeurs en 2016 à plus de 74 millions en 2020 – ou hostile à sa politique clivante et nationaliste, son cas est sans précédent en matière d’auto-régulation des réseaux sociaux.
La firme de « Zuck » a six mois pour trancher le dilemme que lui pose Donald Trump. Il y a fort à parier que le PDG cofondateur de Facebook réhabilitera l’impétrant dans sa décision finale attendue pour début novembre. Pendant que la pression monte aux Etats-Unis pour que soit réformée la section 230 du « Communications Decency Act » de 1996, qui accorde une « immunité » judiciaire aux plateformes numériques quant aux contenus mis en ligne par leurs utilisateurs (8), l’Union européenne est plus que sceptique sur le bannissement de Trump.

Police privée : l’Europe très sceptique
« Qu’un PDG puisse débrancher le haut-parleur du président des Etats-Unis sans autre forme de contrôle et de contrepouvoir fait plus qu’interpeller », a estimé le commissaire européen au Marché intérieur, Thierry Breton, dans une tribune publiée le 10 janvier (9). La chancelière allemande Angela Merkel a quant à elle jugé « problématique » cette éviction du président américain. De son côté, la Grande- Bretagne a présenté le 12 mai un projet de loi « Online Safety Bill » (10) en vue d’interdire aux plateformes numériques de discriminer les points de vue politique et de protéger la liberté d’expression avec possibilité de faire appel en cas de suppression de contenus. La police privée a des limites. @

Charles de Laubier

Responsabilité des hébergeurs : renforcer la modération en ligne, mais éviter les censures

Les patrons de Facebook, Google et Twitter ont été auditionnés le 25 mars au Congrès des Etats-Unis sur « le rôle des médias sociaux dans la promotion de l’extrémisme et de la désinformation » (1). Aucun ne s’oppose à une réforme de la responsabilité des plateformes. L’Europe, elle, a pris de l’avance.

Par Olivia Roche, avocate, et Prudence Cadio, avocate associée, cabinet LPA-CGR avocats

L’utilisation toujours plus massive d’Internet par les internautes a progressivement conduit les plateformes à opérer un filtrage renforcé de leurs contenus. A défaut de contours clairs des règles qui leur sont applicables, les hébergeurs endossent ainsi un nouveau rôle de « premier juge » en établissant des standards pour écarter les éventuels abus liés à l’utilisation de leurs services.

Les plateformes, juges et parties
Aujourd’hui, en Europe, les régimes de responsabilité des acteurs de l’Internet résultent principalement de la directive « E-commerce » de 2000 relative à certains aspects juridiques des services de l’information, et notamment du commerce électronique (2). Cette directive européenne a été transposée en droit français par la loi dite « pour la confiance dans l’économie numérique », ou loi « LCEN » (3). Celle-ci distingue, d’une part, les intermédiaires techniques, fournisseurs d’accès à Internet (FAI) et hébergeur et, d’autre part, les éditeurs de contenus, éditeurs de site web et internautes. Les premiers fournissent un accès au public à des services de communications électroniques et leur permettent de stocker les contenus fournis par les destinataires de ce service, tandis que les seconds utilisent ces services comme outils de communication.
Contrairement aux règles applicables aux éditeurs, la LCEN prévoit que les hébergeurs ne sont pas soumis à « une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ni une obligation générale de rechercher des faits ou des circonstances révélant des activités illicites », sans préjudice « de toute activité de surveillance ciblée et temporaire demandée par l’autorité judiciaire » (4). Ainsi, c’est seulement à partir du moment où un contenu illicite est porté à la connaissance de l’hébergeur, que celui-ci doit « agir promptement pour retirer ces données ou en rendre l’accès impossible » (5) – à défaut sa responsabilité étant susceptible d’être engagée. Dès lors, les hébergeurs endossent une responsabilité très limitée dans la mesure où ils ne sont pas tenus de rechercher les contenus illicites parmi ceux qu’ils hébergent. En effet, de même que les FAI, les hébergeurs doivent simplement collaborer à la lutte contre les contenus illicites. Leur responsabilité est limitée aux seuls cas où ils n’auraient pas retiré – promptement – un contenu stocké qu’ils savent manifestement illicite après avoir reçu une notification signalant ce contenu, cette notification étant soumise à des règles précises pour être valide, telles que prévues par la LCEN.
A l’origine, ce régime de responsabilité limitée a été établi pour éviter la censure par les hébergeurs et afin de préserver la liberté d’expression sur Internet. Néanmoins, aujourd’hui, les réseaux sociaux sont de plus en plus présents dans notre environnement en raison du nombre croissant d’utilisateurs et de la multiplication des contenus postés.
Cette explosion de l’utilisation d’Internet a eu pour conséquence le développement d’abus tels que l’incitation à la haine, la violence ou les propos injurieux (mention de l’origine israélienne du père d’April Benayoum, tweets antisémites envers Miss France 2021, affaire de l’influenceur Marvel Fitness, …), ce qui a été renforcé par la possibilité pour les auteurs de rester anonymes. Dans ces conditions, les hébergeurs ont dû dépasser le rôle qui leur avait été initialement été assigné par la directive européenne « E-commerce » et la loi française LCEN en contrôlant davantage les publications mises en ligne via leurs services. L’exposition quotidienne du nombre de contenus mis en ligne et l’impossibilité, en cas de contenus illicites, de saisir autant de juges, au surplus dans un contexte mondialisé, ont contribué au développement de prises de décisions arbitraires et extrajudiciaires par les plateformes numériques elles-mêmes.

Suppressions et risques de censures
Ces opérateurs privés revêtent ainsi progressivement un rôle de « premier juge » dans la mesure où, comme l’a récemment rappelé en France la Cour d’appel de Versailles, ils doivent « prendre toutes mesures techniques » pour « retirer les données illicites ou en rendre l’accès impossible quelles qu’en soient les conséquences » (6). Pour respecter ces obligations, les hébergeurs sont nécessairement amenés à apprécier, de manière autonome et parfois arbitraire, le caractère illicite ou non des contenus partagés via leurs plateformes. Ces systèmes de restriction des réseaux sociaux sont au cœur d’enjeux importants au regard de la liberté d’expression. Un certain nombre d’éditeurs de contenus ou d’utilisateurs de plateformes en ligne ou de réseaux estiment que ces mécanismes se rapprochent aujourd’hui d’une forme de censure de la part des acteurs du Net qui ont pu procéder à des suppressions de contenus jugées abusives.

Techniques de filtrage à encadrer
A titre d’exemples, il y a eu la suspension en janvier 2021 du compte de la militante féministe Mélusine pendant 12 heures suite à un tweet, ainsi que la fermeture en février 2011 du compte de l’enseignant Frédéric Durant qui avait publié une photo du tableau de Gustave Courbet « L’Origine du monde ». Les demandes de retraits se multipliant le rôle des plateformes évolue, celles-ci devant faire un arbitrage dépassant l’appréciation des contenus « manifestement illicites ». Si la viralité des contenus publiés complique la modération, les hébergeurs développent de nouveaux standards qui leur sont propres et leur permettent un contrôle plus accru.
C’est dans ce contexte, où les pratiques de filtrages sur mesure sont mises en œuvre par les plateformes numériques, avec des méthodes souvent floues et nonharmonisées, que les initiatives légales et réglementaires visant à renforcer les obligations des hébergeurs ont été entreprises. La situation actuelle, mais également la volonté de lutter contre la diffusion de contenus haineux ou injurieux en ligne, ont poussé les législateurs à repenser le régime de responsabilité des acteurs de l’Internet. C’est dans cette perspective que la proposition de loi française dite « Avia » (7), visant à lutter contre les contenus haineux sur Internet, avait été portée afin de modifier les dispositions de l’article 6 la LCEN. L’article 1er de la proposition de loi Avia prévoyait notamment que les hébergeurs et les éditeurs disposaient d’un délai d’une heure pour retirer les contenus à caractère terroriste ou pédopornographique notifiés par l’autorité administrative.
Néanmoins, ces dispositions ont été censurées par le Conseil constitutionnel qui a jugé que le dispositif prévu n’aurait fait « qu’inciter les opérateurs de plateforme en ligne à retirer les contenus qui leur sont signalés, qu’ils soient ou non manifestement illicites » et que ces dispositions « portent donc une atteinte à l’exercice de la liberté d’expression et de communication qui n’est pas nécessaire, adaptée et proportionnée » (8). Dans la continuité de la censure partielle de la proposition de loi Avia, un amendement a été porté en janvier 2021 afin d’introduire, au sein du projet de loi confortant « le respect des principes de la République » (9), un mécanisme de contrôle des contenus illicites publiés sur les plateformes en ligne. L’adoption de ce texte permettrait à la France d’anticiper l’entrée en vigueur du règlement européen « Digital Service Act » (DSA) – en cours d’élaboration au sein du Conseil de l’Union européenne et des instances préparatoires (10) – et de se doter de moyens plus efficaces de lutte contre les contenus illicites en ligne.
Cet amendement de « mise en œuvre des procédures et des moyens humains et technologiques proportionnés » (11) vise à compléter le dispositif prévu par la LCEN en créant de nouvelles obligations substantielles à la charge des plateformes numériques en matière de modération des contenus illicites, de transparence quant aux algorithmes utilisés pour retirer des contenus de manière automatisée, ou encore de procédures de traitement des injonctions des autorités judiciaires ou publiques.
Le contrôle de la mise en œuvre de ces obligations serait confié au Conseil supérieur de l’audiovisuel (CSA), en l’occurrence de la future Autorité de régulation de la communication audiovisuelle et numérique (Arcom) issue de la fusion du CSA et de l’Hadopi, qui pourrait prononcer des mises en demeure, éventuellement suivies d’amendes administratives pouvant atteindre 20 millions d’euros ou 6 % du chiffre d’affaires mondial total de l’exercice précédent de la plateforme mise en cause. Ce nouveau dispositif imposerait aux plateformes de l’Internet une meilleure transparence et coopération avec les autorités mais également de publier des conditions générales d’utilisation claires et transparentes, afin de prévoir l’interdiction de mettre en ligne des contenus illicites. Cette réforme obligerait également ces plateformes numériques à détailler leurs moyens et procédures internes pour détecter, identifier et traiter ces contenus illicites, et à prévoir une procédure de recours interne pour contester les décisions de modération qu’elles auraient prises.

Libertés d’expression et de création
Ces tentatives multiples de réforme du statut des hébergeurs de contenus mis en ligne illustrent le principe suivant : si la possibilité d’exprimer ses opinions sur Internet et la liberté de créer ou de caricaturer doivent être protégées, cela doit néces-sairement être concilié avec la sauvegarde de l’ordre public. Compte tenu de ce double objectif, le cadre juridique pertinent est délicat à définir pour protéger la liberté d’expression tout en poursuivant la lutte contre la diffusion massive sur Internet de contenus illicites. @

Les discussions secrètes et le lobbying autour de l’article 17 controversé de la directive « Copyright »

La culture du secret qui caractérise les négociations et le lobbying autour de l’article 17 controversé de la directive « Copyright » n’est pas digne du fonctionnement démocratique de l’Europe. Alors que tous les internautes européens sont concernés par le filtrage et les risques de censures sur le Net.

La dernière réunion de négociation en date autour de l’article 17 controversé s’est tenue dans le plus grand secret – à huis clos – le 12 février dernier entre la DG Connect de la Commission européenne, des membres du Parlement européen et des représentants des Etats membres. Cette direction « Communications Networks, Content and Technology » (1), pilotée par Roberto Viola (photo) sous la houlette de Margrethe Vestager, vice-présidente de la Commission européenne, et de Thierry Breton, commissaire européen en charge du Marché intérieur, ne fait pas vraiment dans la clareté.

Futures lignes directrices, sujet sensible
Alors que jusqu’à il y a un an, la DG Connect faisait preuve d’un peu de transparence sur le « dialogue des parties prenantes sur l’application de l’article 17 de la directive sur le droit d’auteur dans le marché unique numérique » (2), force est de constater que depuis février 2020, c’est le blackout quasi-total sur ce qui se dit et s’échange lors des réunions au tour de cet article 17 controversé. C’est d’autant plus regrettable que les futures lignes directrices sur son application porteront sur des dispositions concernant au premier chef les internautes européens eux-mêmes. Les lignes directrices qui découleront de ces tractations auront un impact sur le filtrage, le blocage et le risque de censure sur Internet.
Pour les ayants droit des industries culturelles, il s’agit de lutter contre le piratage en ligne en exigeant des plateformes numériques qu’elles prévoient des dispositifs techniques pour supprimer les contenus enfreignant le droit d’auteur. Pour éviter un filtrage automatique et généralisé des contenus sur Internet, la Commission européenne avait – dans son projet de lignes directrices (3) sur l’article 17 publié en septembre 2020 – instauré un distinguo entre contenus « vraisemblablement contrefaisants » et ceux « vraisemblablement légitimes ». C’est cette dernière notion – de « téléchargement susceptible d’être légitime » – que les discussions achoppent à Bruxelles. C’est aussi sur ce point (de blocage) que des eurodéputés, de tous bords – mais principalement des deux plus grands groupes politiques – le Parti populaire européen (PPE) de droite et les Socialistes et démocrates (S&D) de gauche – ont fait part dans une lettre (4), juste avant la réunion technique du 12 février, de leur insatisfaction sur l’interprétation de l’article 17 par la Commission européenne. « L’approche actuelle des lignes directrice ne reflète pas correctement l’accord obtenu après de longues négociations sur l’article 17 de la directive sur le droit d’auteur », écrivent ces parlementaires, dont les Français Geoffroy Didier (PPE), Sylvie Guillaume (S&D) ou encore Laurence Farreng (Renew Europe). Et les eurodéputés de s’inquiéter : « La dernière réponse de la Commission européenne aux questions du Parlement européen sur cette question et les récentes déclarations publiques des membres des services de la DG Connect n’ont pas contribué à apaiser ces préoccupations ».
Roberto Viola, le patron de la DG Connect, et Giuseppe Abbamonte, directeur de la politique des médias à cette même DG Connect, ont tenté d’apaiser les craintes des parlementaires européens. En revanche, d’après Election Libre, le cabinet de Thierry Breton était convié à cette réunion tendue mais n’y a pas participé. L’eurodéputé Axel Voss (PPE), qui fut rapporteur de la directive « Copyright » (5) adoptée le 17 avril 2019 et publiée le 17 mai suivant, est bien sûr intervenu dans cette réunion électrique. « Aucune réunion de suite n’est prévue », a indiqué la Cnect (DG Connect) à Edition Multimédi@. Le temps presse car cette directive européenne « sur le droit d’auteur et les droits voisins dans le marché unique numérique » doit être transposée par les Vingt-sept « au plus tard le 7 juin 2021 », dans trois mois maintenant.

Paris et Berlin, pas dans le même axe
La France, qui veut être aux avant-postes de la transposition justement de ce texte qu’elle a largement contribué à élaborer, fait partie des pays européens – avec l’Italie, le Portugal, l’Espagne, la Croatie, le Danemark, ou encore la Grèce – qui estiment que les orientations (notamment des lignes directrices ou guidance sur l’article 17) n’atteindraient pas les objectifs initialement fixés par la Commission européenne en matière de protection de la propriété intellectuelle des détenteurs de droits en Europe. Paris n’est d’ailleurs pas sur la même longueur d’onde que Berlin : le projet de transposition de la France donne un rôle prépondérant à l’intervention préventive pour bloquer des contenus, mais avec des risques de sur-blocages et d’atteintes à la liberté d’expression sur Internet, alors que l’Allemagne a une approche qui est celle de la Commission européenne où le contenu présumé licite ne peut pas être bloqué automatiquement (voir schéma ci-dessous).

Ne pas sacrifier la liberté d’expression
A trois mois de la deadline pour la transposition de la directive « Copyright », cet article 17 continue de cristalliser les oppositions. Ce n’est pas faute, pour la Commission européenne, d’avoir mené une série de consultations depuis le second semestre 2019 et au début de l’année 2020, afin de clarifier la mise en œuvre de cet article controversé. Le projet de lignes directrices (guidance) issu de ces concertations et lobbying des parties en présence – plateformes numériques, d’un côté, industries culturelles, de l’autre – n’a pas permis de parvenir à un consensus, les ayants droit estimant que le compte n’y est pas (6).
En cause, selon eux, un nouveau principe dit de « téléchargement susceptible d’être légitime », prévoyant un modus operandi pour l’application de l’article 17 où les instructions des détenteurs de droits seraient simplement écartées dans le cadre des mesures préventives. La Commission européenne, elle, cherche à préserver un équilibre entre le respect des œuvres protégée par le droit de propriété intellectuelle et les exceptions au droit d’auteur. Objectif : ne pas sacrifier la liberté d’expression, de création et d’information, dont font partie la citation, la critique, la revue, la caricature, la parodie ou le pastiche (dixit l’article 17). En France, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – dépendant du ministère de la Culture – avait regretté l’an dernier que la Commission européenne « esquiss[e] des lignes directrices qui réserveraient les blocages aux seuls cas de certitude de contrefaçon, et en donnant à la protection des exceptions […] une place centrale au détriment de l’effectivité des droits » (7).
L’article 17 incite en tout cas les plateformes de partage numériques (YouTube, Facebook, Twitter, …) à obtenir une autorisation – « par exemple en concluant un accord de licence » – qui « couvre également les actes accomplis par les utilisateurs (…) lorsqu’ils n’agissent pas à titre commerciale ou lorsque leur activité ne génère pas de revenus significatifs ». A défaut d’accord d’autorisation, ces plateformes – que la directive « Copyright » appelle « fournisseurs de services de partage de contenus en ligne » – sont alors responsables du piratage des œuvres protégées. A moins qu’ils ne montrent pattes blanches : « meilleurs efforts » pour obtenir une autorisation ou pour garantir l’indisponibilité les contenus signalés comme piratés ; « agi[r] promptement », dès réception d’une notification des titulaires de droits, pour bloquer l’accès aux contenus protégés. @

Charles de Laubier

Les ayants droits cherchent à monétiser les UGC, ces contenus créatifs générés par les internautes

Les « User-Generated Content » (UGC) sont en plein boom, que cela soit dans la création musicale, la production audiovisuelle ou les jeux vidéo et l’e-sport. En Europe, la directive « Copyright » consacre ces contenus générés par les internautes. Les détenteurs des droits d’auteur lorgnent ce potentiel.

« Personne ne peut nier que le contenu généré par les utilisateurs (UGC) a eu un impact sociétal énorme. Nous nous connectons, communiquons et réseautons avec d’autres utilisateurs d’UGC. Cela a créé une communauté de créateurs florissante comprenant des musiciens, des producteurs de contenu, des joueurs, des influenceurs et plus encore », s’enthousiasme Vance Ikezoye (photo), le PDG fondateur d’Audible Magic, spécialiste de la reconnaissance de contenus, dans son introduction du rapport intitulé « La montée en puissance de l’UGC », réalisé par Midia Research et publié en octobre.

Exceptions aux droits d’auteur et libertés
« La création et la consommation d’UGC continuent de croître de façon spectaculaire. Pour profiter de cette expansion continue du marché, il faut mettre en œuvre de nouveaux cadres de licence plus simples, en particulier pour la musique où cela pourrait générer un marché accessible d’une valeur de 6 milliards de dollars pour les propriétaires de contenu et les plateformes de médias sociaux », poursuit Vance Ikezoye, Américain d’origine japonaise (1). Ce rapport examine les implications sur les UGC de la directive européenne portant « sur le droit d’auteur et les droits voisins dans le marché unique numérique ». Cette directive Copyright, qui, adoptée il y a un an et demi maintenant, doit être transposée par les Etats membres de l’Union européenne au plus tard le 7 juin 2021, fait la part belle justement aux « contenus générés par les utilisateurs aux fins spécifiques de la citation, de la critique, de la revue, de la caricature, de la parodie ou du pastiche ». Cet espace de liberté d’expression des utilisateurs du Net – voire de « liberté des arts » – est garanti par « l’application des exceptions ou limitations au droit d’auteur » rendues obligatoires, quand bien même les plateformes numériques doivent prendre des mesures pour lutter contre le piratage en ligne d’œuvres protégées. Les UGC se retrouvent ainsi consacrés dans toute l’Europe par le fameux article 17 de cette directive « Copyright » : « Les Etats membres veillent à ce que les utilisateurs (…) puissent se prévaloir de l’une quelconque des exceptions ou limitations existantes [citation, critique, revue, caricature, parodie ou pastiche, ndlr] lorsqu’ils téléversent et mettent à disposition des contenus générés par les utilisateurs sur les services de partage de contenus en ligne », peut-on lire à son septième alinéa (3). Cette disposition favorable à l’esprit créatif des internautes ne manquera pas d’accélérer et de sécuriser juridiquement la production culturelle émanant des UGC et, partant, de contribuer à la croissance du marché du streaming. Les GAFAM, comme les autres plateformes de musiques et/ou de vidéos, se retrouvent couvertes par ces exceptions qui limitent le droit d’auteur au profit du grand public. Si les industries culturelles et leurs ayants droits veulent y trouver aussi une opportunité de monétiser leurs œuvres, elles doivent faciliter l’octroi de licences aux plateformes de diffusion d’UGC, afin de créer de nouvelles sources de revenus. Sinon, le manque à gagner risque d’être énorme pour elles. Selon ce rapport « Audible/Midia », les revenus mondiaux des UGC liés à la musique – générés par la publicité des contenus disponibles sur les plateformes gratuites – s’élèveront à 4 milliards de dollars en 2020, dont 2,2 milliards de dollars sont identifiés comme des revenus potentiels pour les détenteurs de droits de musique.
« Pour être clair, tous ces revenus ne sont pas actuellement versés aux détenteurs de droits – il s’agit simplement d’une estimation des revenus potentiels attribuables au CGU axé sur la musique », précise bien le rapport. Et en 2022, au rythme où s’intensifie l’activité des réseaux sociaux – lesquels totalisent 119 milliards de dollars de chiffre d’affaires publicitaires grâce à leurs quelque 7,7 milliards d’utilisateurs dans le monde –, les revenus issus de l’exploitation de la seule musique des UGC sur les plateformes telles que YouTube, Facebook ou encore TikTok devraient atteindre près de 6 milliards de dollars, avec un potentiel de royalties pour les titulaires de droits musicaux de 3,2 milliards de dollars (voir graphique page suivante). La Chine, notamment avec sa plateforme de vidéos courtes musicales TikTok alias Douyin éditée par le groupe ByteDance, va contribuer pour la moitié de l’augmentation des revenus publicitaires des médias sociaux entre 2019 et 2022.

Ciné et télé veulent aussi leur part
Bien que TikTok soit confronté en 2020 à l’incertitude aux Etats-Unis et en Inde, l’ampleur des revenus de ByteDance indique à quel point le groupe chinois (17 milliards de dollars de chiffre d’affaires en 2019) est importante pour le secteur de la musique. « L’UGC a longtemps été sous-monétisé pour les détenteurs de droits musicaux », souligne Mark Mulligan, directeur général de Midia Research. Mais il n’y a pas que la musique des UGC qui représente un potentiel de recettes pour les ayants droits. Le cinéma et la télévision sont aussi très prisés par les contenus générés par les utilisateurs, notamment sur les médias sociaux avec des contenus tels que des caricatures, des parodies, des bandes-annonces (pour les fans sur YouTube par exemple) ou encore des vidéos de relaxation sur le mode dit ASMR (Autonomous Sensory Meridian Response), phénomène venu d’Asie et très prisé des jeunes, provoquant des sensations agréables (frissons, picotements, stimulus visuel, auditif, olfactif ou cognitif).

Jeux vidéo et e-sport ne sont pas en reste
Mais, estime le rapport « Audible/Midia », les industries audiovisuelles et cinématographiques ont permis jusqu’à présent un UGC généralisé, principalement promotionnel et basé sur des clips à durée limitée (de quelques secondes à quelques minutes), mais, à l’instar des titulaires de droits musicaux, elles n’ont pas encore puisé dans la monétisation issue du partage des recettes publicitaires. Le sport aussi pourrait devenir source de contenu des UGC auprès notamment d’un public jeune, sportif et/ou supporteur. « Alors que la pandémie mondiale du coronavirus et les perturbations à long terme des événements sportifs se poursuivent, les détenteurs de droits se concentrent encore plus sur la création d’un engagement numérique au-delà de la diffusion pure et simple d’événements en direct », souligne le rapport. Les jeux vidéo et l’e-sport ne sont pas en reste : le potentiel publicitaire des UGC est fort, mais la publicité n’est pas le seul moyen de monétiser. Dans Fortnite (Epic Games) ou League of Legends (Riot Games), les utilisateurs jouent gratuitement, mais les microtransactions et les biens virtuels sont intégrés dans les jeux comme des options de vente incitatives. Les utilisateurs peuvent personnaliser leurs avatars ou leur expérience en jeu au moyen de « skins » ou en utilisant la monnaie virtuelle pour même introduire de nouveaux personnages. Les fans peuvent acheter des badges, payer des « pourboires » aux autres joueurs ou payer pour que leurs commentaires soient bien en vue sur les tableaux d’affichage, ou faire tout autre microtransaction dans le gaming et l’e-sport. « Les créateurs d’UGC dépendent de leurs plateformes de distribution et des ententes qu’ils ont avec eux. Par conséquent, développer les opportunités “UGC” revient à nouer des partenariats avec les grandes plateformes vidéo (YouTube, Twitch, Facebook Gaming, …), et les mondes sociaux et vidéoludiques (Fortnite, Call of Duty, GTA, Fall Guys, Minecraft, Roblox, …). Des cadres durables doivent être mis en place avec les distributeurs d’UGC », estime le rapport d’une trentaine de pages (4). Cela suppose de faciliter l’octroi de licences pour les plateformes numériques, afin de résorber non seulement le transfert de valeur (value gap) mais aussi l’écart technologique (innovation gap).
Par exemple, Twitch (groupe Amazon) a récemment lancé « Soundtrack by Twitch » (5), avec un catalogue de plus de 1 million de chansons sous licence mises à disposition de sa communauté de créateurs qui peuvent les utiliser dans leurs flux. De son côté, Snap a lancé en octobre « Sounds on Snapchat » (6) qui permet désormais à ses utilisateurs d’ajouter de la musique sous licence à leurs vidéos. In fine, les titulaires de droits ne doivent pas voir les UGC comme une menace ou une cannibalisation de leurs contenus professionnels. Des partenariats win-win doivent s’instaurer, via la plateforme de diffusion. @

Charles de Laubier