L’article 17 controversé, ou comment la Commission européenne a relancé la guérilla du filtrage

La Commission européenne n’est pas prête à publier ses lignes directrices finales sur l’interprétation que les plateformes numériques et les ayants droits devront faire de l’article 17 de la directive « Droit d’auteur », tant celui-ci est toujours controversé sur fond de lobbying incessant.

Par Juliette Félix, Avocate, cabinet Herald

Après trois ans de débats houleux, l’adoption le 17 avril 2019 de la directive européenne « Droit d’auteur et droits voisins dans le marché numérique » (1) avait réjoui le monde de la culture. En France, Franck Riester, alors ministre de la Culture, ne cachait pas son soulagement : « C’est une grande satisfaction et une étape majeure dans la capacité de l’Europe à défendre les créateurs, artistes et journalistes, et à s’assurer d’un meilleur partage de la valeur créée sur le numérique » (2).

La France se rebiffe et critique Bruxelles
Le Parlement européen venait de mettre un terme à une bataille de lobbying féroce autour notamment de l’article 13, devenu l’article 17. Fustigé par les GAFA et les partisans d’un Internet libre, en ce qu’il ouvre la voie à un filtrage automatisé des contenus et entame le régime d’irresponsabilité des hébergeurs, l’article 17 de la directive « Droit d’auteur » (ou « Copyright ») a finalement été adopté dans une rédaction favorable aux créateurs, soutenue par la France. Cette disposition âprement débattue met fin à la responsabilité limitée des plateformes de partage de contenus, et leur impose, d’une part, de rechercher l’autorisation des ayantsdroit, notamment par la voie d’accords de licence collectifs et, d’autre part, de mettre en place un filtrage des contenus contrefaisants. La directive européenne « Copyright » doit être transposée par les Etats membres au plus tard en juin 2021. La Commission européenne a lancé « un dialogue » entre les Etats membres et les parties intéressées (titulaires de droits, sociétés de gestion collective, organisations d’utilisateurs, …) pour « examiner les meilleures pratiques » et « émettre des orientations » sur l’application de cet article 17 controversé. La publication, le 27 juillet 2020, de la consultation des parties par la Commission européenne en vue de l’élaboration des lignes directrices (3) tant attendues a ravivé les tensions entre les deux camps. Le gouvernement français, lui, en a perdu son bel optimisme. Dans leur contribution, les autorités françaises estiment que « ce document soulève des préoccupations très importantes ». Et de critiquer l’approche de l’exécutif européen : « Au plan méthodologique, le projet excède très largement le cadre imparti pour les orientations de la Commission [européenne] et se révèle très pauvre quant aux éléments concrets et documentés pourtant attendus sur les meilleures pratiques de coopération. Sur le fond, l’approche préconisée remet fondamentalement en cause les équilibres arrêtés par les co-législateurs, à travers une réécriture des dispositions de la directive qui en méconnaît tant la lettre que l’esprit ». Les représentants des créateurs – notamment le Gesac (4) – lui reprochent également de réécrire l’article 17 et de favoriser le maintien en ligne de contenus illicites, tout en faisant peser trop d’obligations sur les ayants-droit (5). Les représentants des utilisateurs, de la société civile (6) et des plateformes numériques – notamment la CCIA (7) – s’alarment pour leur part de ce qu’ils analysent comme la consécration de l’obligation de surveillance générale des contenus. L’objectif initial de fédérer des « bonnes pratiques » est loin d’être atteint. Les interprétations divergent sur de nombreux points essentiels :
• La définition de la communication au public.
La Commission européenne souligne que la directive « Copyright », en ce qu’elle rend les plateformes responsables du contenu partagé par leurs utilisateurs, constitue une « lex specialis » (soit une « loi spéciale » qui déroge à la « loi générale ») par rapport : à l’article 3 de la directive de 2001 dite « DADVSI » (8), qui consacre, « pour les auteurs, le droit exclusif d’autoriser ou d’interdire toute communication au public de leurs œuvres », et à l’article 14 de la directive de 2000 dite « E-commerce » (9), qui définit le statut d’hébergeur.

Notion d’« acte de communication au public »
Même si les plateformes sont désormais considérées comme effectuant des actes de communication au public en rendant les œuvres disponibles, les Etats membres ne doivent pas, dans le cadre de la transposition, se référer aux notions préexistantes de « communication au public » et d’« autorisation ». Ils doivent créer une « notion d’autorisation » spécifique correspondant à « l’acte de communication au public » spécial de l’article 17. Si les représentants des utilisateurs et des plateformes numériques se réjouissent de cette distinction, les titulaires de droits réclament l’adoption de la même définition de la communication au public que celle relevant des textes existants, par souci d’harmonisation (10).
• Les « meilleurs efforts » des plateformes pour obtenir des autorisations. La directive « Droit d’auteur » encourage la conclusion de licences entre les ayants droit et les plateformes du Net. L’existence d’une licence vaudra autorisation pour les utilisateurs de téléverser leurs contenus, en toute sécurité juridique. Les plateformes numériques n’ont toutefois pas d’obligation de résultat, et doivent faire « leurs meilleurs efforts » pour obtenir les autorisations.

« Vraisemblablement ou probablement illicite » ? La Commission européenne tente de définir ces « meilleurs efforts ». Elle encourage les Etats membres à favoriser la conclusion d’accords : modèles de licences, mécanismes de médiation et d’échange d’information. Elle invite ces mêmes plateformes à être proactives, notamment à l’égard des sociétés de gestion collective des droits d’auteurs (ou OGC), et à ne pas refuser des conditions de rémunération raisonnables. L’obligation de « meilleurs efforts » devra s’apprécier au cas par cas, selon le principe de proportionnalité, mais peu d’éléments concrets sont livrés pour élaborer un cadre précis. Le groupement représentant les plateformes numériques, la CCIA (11) insiste sur la nécessité de préserver « la liberté contractuelle » des parties et pointe le faible niveau de représentativité des OGC. Il entend également faire supporter la charge de la preuve par les ayants droit… alors que pour ces derniers ce sont les plateformes qui doivent être en mesure démontrer leurs efforts.
• L’articulation entre l’obligation de rechercher des autorisations et l’obligation de filtrage. La conclusion de licences dispense-t-elle la plateforme numériques de mettre en place un système de filtrage de contenus et de faire ses « meilleurs efforts » pour supprimer préventivement les contenus illicites ? L’article 17 précise que le filtrage vient pallier l’absence de licence ou d’autorisation, lorsque la plateforme en question n’est pas parvenue à en obtenir, malgré ses meilleurs efforts. Mais pour les autorités françaises, la Commission européenne « ne peut pour autant affirmer que l’obligation de prendre des mesures préventives ne devient applicable que dès lors que l’objectif de conclusion des licences ne peut être atteint ». La France souhaite que les mesures préventives puissent bénéficier à tous.
A l’opposé, pour la CCIA, une obligation trop étendue s’apparenterait à une surveillance générale, et serait donc prohibée. Il insiste sur la problématique des coûts et le risque de « faux » positifs aboutissant à des blocages indus.
• Le traitement des exceptions et l’apparition de nouvelles notions : les contenus « vraisemblablement illicites » et les contenus « probablement légitimes ». La directive « Copyright » impose le respect des exceptions de « caricature, parodie et pastiche » et de « courte citation, critique, revue », afin de préserver notamment le droit à l’humour et l’expression critique et scientifique. La liberté d’expression ne peut être filtrée. Prise en étau entre le respect du droit d’auteur et celui de la liberté d’expression, la Commission européenne tente de contourner l’obstacle en introduisant deux notions absentes de la directive « Copyright » : les contenus « vraisemblablement illicites » et les contenus « probablement légitimes » (12). La réaction du Gesac est nette : « Une telle distinction est inacceptable ». D’une part, ces notions ne renvoient à aucun concept juridique existant ; elles sont définies en fonction de critères techniques qui demeurent très vagues, alors même qu’une exception au droit d’auteur est une notion juridique d’interprétation stricte. D’autre part, il reviendrait à l’ayant droit de démontrer que l’usage jugé comme « probablement légitime » par la plateforme digitale, n’a en réalité pas été autorisé. Le temps de l’instruction de la demande, le contenu resterait en ligne par défaut. Les ayants-droit rappellent que la directive « Droit d’auteur » pose le blocage comme principe en cas d’identification d’un contenu illicite, à charge pour l’utilisateur de démontrer qu’une exception s’applique pour obtenir le déblocage. La France rejette elle aussi fermement la nouvelle distinction posée par la Commission européenne : « La simple éventualité très aléatoire d’application d’une exception conduirait donc à paralyser les effets du droit d’auteur ». Les représentants des utilisateurs sont, eux, sans surprise, aux antipodes. L’introduction de la notion de « contenus vraisemblablement illicites » leur paraît « trop permissive » et devrait être remplacée par la notion de « manifestement illicite ». Le maintien en ligne doit être le principe.
• Les informations que les plateformes doivent remonter aux ayants droits. A défaut de proposer des mesures concrètes pour combler le « value gap », la directive « Copyright » pose comme principe une plus grande transparence sur les revenus générés par les plateformes numériques, afin que les ayants droits puissent disposer d’informations claires et précises sur le revenu de leurs œuvres, et mieux négocier leur rémunération. La Commission européenne n’entend pas imposer aux plateformes une obligation de transparence étendue, écartant notamment une reddition de compte œuvre par œuvre. Elle préfère renvoyer à la négociation contractuelle. La CCIA rejette une reddition de compte trop détaillée, dont le coût serait excessif.

La France légifère avant les lignes directrices
Les divergences d’interprétation sont multiples. Faute d’apporter des propositions pragmatiques, la consultation – clôturée le 10 septembre dernier – relance la controverse. Dans ce contexte incertain, l’Hadopi – qui constituera avec le CSA la future l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) – semble toutefois assurée d’être désignée comme autorité de contrôle du filtrage. Dans son analyse de la consultation, l’Hadopi en pointe les carences (13) et estime que l’approche de la Commission européenne « met en risque tant les titulaires de droit que les utilisateurs ». Les députés français, eux, ont autorisé le gouvernement à transposer les dispositions de l’article 17 par voie d’ordonnance, sans débat parlementaire et sans attendre les lignes directrices de la Commission européenne. @

App Store et Apple Pay : ce que la Commission européenne reproche à la firme de Cupertino

La WWDC, grand-messe annuelle des développeurs de la marque à la pomme, s’est déroulée du 22 au 26 juin à San Francisco. Plus que jamais, Apple compte sur les commissions émanant de sa boutique App Store pour assurer ses revenus. Mais son écosystème fermé est dans collimateur de l’Europe.

La Worldwide Developer Conference (WWDC) de cette année 2020, qui s’est tenu à Cupertino, près de San Francisco, au sein de l’Apple Park, le fameux QG circulaire mondial de la marque à la pomme depuis plus de trois ans maintenant, avait beau avoir lieu à 8.898 kilomètres de Bruxelles, jamais l’Europe n’a été aussi proche de l’événement. Et pour cause : six jours avant que Tim Cook (photo de gauche), le PDG d’Apple, n’ouvre le bal, Margrethe Vestager (photo de droite), la vice-présidente exécutive de la Commission européenne, chargée de la concurrence (1), lançait deux enquêtes sur les pratiques douteuses de respectivement l’App Store et l’Apple Pay.

Plaintes de Spotify et de Kobo (Rakuten)
Que reproche au juste Bruxelles à la firme de Cupertino dans la salve d’enquêtes lancées contre elles le 16 juin dernier ? D’une part, la Commission européenne a ouvert des enquêtes formelles sur des soupçons de pratiques anticoncurrentielles afin d’« apprécier si les règles imposées par Apple aux développeurs concernant la distribution d’applications via l’App Store enfreignent les règles de concurrence de l’Union européenne ». Ces enquêtes sur l’App Store font suite à deux plaintes distinctes, l’une émanant de la plateforme de streaming musical Spotify, et l’autre du distributeur d’ebooks et de livres audio Kobo, filiale de Rakuten (lire en Une).
Autant la Commission européenne a bien mentionné le groupe suédois, autant elle a curieusement passé sous silence la filiale canadienne du groupe japonais. Il a fallu une fuite auprès du Financial Times (quotidien propriété du groupe japonais Nikkei) pour que le nom du second plaignant soit finalement révélé par voie de presse et non démenti depuis. D’autre part la Commission européenne a ouvert une enquête formelle, là aussi en matière de pratiques anticoncurrentielles, afin cette fois, d’« apprécier si le comportement d’Apple concernant Apple Pay enfreint les règles de concurrence de l’Union européenne ». Contrairement à l’App Store où deux plaignants sont mentionnés, aucun n’est évoqué pour l’Apple Pay. Globalement, la marque à la pomme compte 1,5 milliard de terminaux sous iOS (smartphones) ou iPadOS (tablettes) dans le monde, tandis que 500 millions de personnes utilisent l’App Store régulièrement.
• Concernant la boutique en ligne (App Store), les enquêtes portent plus spécifiquement sur « l’utilisation obligatoire du système d’achat intégré [in-app, ndlr] propriétaire d’Apple et sur les restrictions de la capacité des développeurs à informer les utilisateurs d’iPhone et d’iPad de possibilités d’achat moins coûteuses en dehors des applications ». Plus généralement, l’App Store préoccupe la Commission européenne car il s’agit d’un écosystème entièrement contrôlé par la firme de Cupertino qui y fixe ses propres règles d’accès, de distribution et de tarifs pour les applications mobiles destinés à ses iPhone et iPad. C’est ce rôle de « gatekeeper » vis-à-vis des applications et des contenus destinés aux utilisateurs finals qui intrigue depuis longtemps la commissaire européenne Margrethe Vestager. D’autant que les utilisateurs terminaux fonctionnant sous les systèmes d’exploitation-maison iOS (smartphones) ou iPadOS (tablettes) peuvent télécharger uniquement des applications dites natives – c’est-à-dire non disponibles sur le Web – via l’App Store. « Nous devons veiller à ce que les règles d’Apple ne faussent pas la concurrence sur les marchés où cette entreprise est en concurrence avec d’autres développeurs d’applications, par exemple avec son service de diffusion de musique en streaming Apple Music ou avec Apple Books. J’ai donc décidé, a-t-elle justifié, d’examiner de près les règles de l’App Store d’Apple et leur conformité avec les règles de concurrence de l’Union européenne ». Vis-à-vis du streaming musical (plainte de Spotify), l’enquête porte le numéro « AT.40437 » (2) (*) (**).
Vis-à-vis du streaming musical (plainte de Spotify), l’enquête porte le numéro « AT.40437 » (3). Vis-à-vis des livres numériques et des audio-books (plainte de Kobo), l’enquête porte le numéro « AT.40437 » (4). Ces enquêtes portant sur l’App Store s’intéressent plus particulièrement à deux restrictions imposées par Apple dans ses accords avec les entreprises qui souhaitent distribuer des applications aux utilisateurs d’appareils iOS/iPadOS.

La pomme se paie la concurrence
La première restriction porte sur l’utilisation obligatoire du système d’achat intégré propriétaire d’Apple – In-App Purchase (IPA) – pour la distribution de contenu numérique payant (5). « Apple facture aux développeurs d’applications une commission de 30 % sur tous les frais d’abonnement perçus par l’intermédiaire du système IAP », souligne la Commission européenne. La seconde restriction concerne la limitation des développeurs à informer les utilisateurs sur d’autres possibilités d’achat en dehors des applications, possibilités qui sont généralement moins coûteuses. Pourtant, relève la Commission européenne, « Apple permet également aux utilisateurs de consommer dans l’application du contenu, tel que de la musique, des livres électroniques et des livres audio, acheté ailleurs (par exemple sur le site web du développeur de l’application) ».
• Concernant le système de paiement électronique (Apple Pay), l’enquête porte, elle, sur « les modalités, conditions et autres mesures imposées par Apple pour l’intégration d’Apple Pay dans les applications commerciales et les sites web commerciaux sur les iPhone et les iPad, sur la limitation instaurée par Apple de l’accès à la fonctionnalité de communication en champ proche (NFC (6)) dite tapand- go sur les iPhone pour les paiements en magasin [paiement sans contact, ndlr], ainsi que sur des refus allégués d’accès à Apple Pay ».

Les abus des écosystèmes propriétaires
Le paiement mobile est devenu incontournable au fur et à mesure que les smartphones se sont imposés comme les premiers terminaux d’accès au Web et au e-commerce, que cela soit en ligne et dans les magasins physiques. Or il se trouve qu’Apple fixe les conditions de l’utilisation d’Apple Pay dans les applications et sur les sites web des commerçants. « Il est important que les mesures prises par Apple ne privent pas les consommateurs des avantages qu’offrent les nouvelles technologies de paiement, notamment en matière de choix, de qualité, d’innovation et de prix compétitifs, a prévenu Margrethe Vestager. J’ai donc décidé d’examiner de près les pratiques d’Apple concernant Apple Pay et leur incidence sur la concurrence ».
La marque à la pomme réserve également la fonctionnalité tap-and-go des iPhone à Apple Pay, qui est sa solution de paiement mobile propriétaire pour tous les terminaux sous iOS ou iPadOS en vue d’effectuer des paiements dans les applis mobiles à vocation commerciale, sur les sites de e-commerce, ou encore dans les magasins physiques (web-to-store, click-andcollect, click-and-go, drive-to-store, etc.). De plus, Apple Pay est la seule solution de paiement mobile qui puisse accéder à la technologie NFC tap-and-go intégrée aux smartphones et tablettes de la marque à la pomme pour effectuer des paiements en magasin. Alors que de son côté, la boutique d’applis Android de Google offre le choix dans les moyens de paiement. La Commission européenne craint que « les modalités et conditions d’Apple, ainsi que d’autres mesures liées à l’intégration d’Apple Pay aux fins de l’achat de biens et de services dans des applications commerciales et sur des sites web commerciaux sur les appareils sous iOS et iPadOS, ne puissent fausser la concurrence et réduire le choix et l’innovation ». L’enquête européenne sur les pratiques de la firme de Cupertino portera aussi sur « des restrictions alléguées d’accès à Apple Pay pour des produits spécifiques de concurrents sur les appareils mobiles intelligents sous iOS et iPadOS [et sur] l’incidence éventuelle des pratiques d’Apple sur la concurrence dans le domaine de la fourniture de solutions de paiement mobile ». Que cela soit pour l’App Store ou pour l’Apple Pay, la firme de Cupertino risque gros, si ses pratiques au sein de ses écosystèmes fermés et verrouillés – qui ne datent pas d’hier (7) – s’apparentaient à des « abus de position dominante » interdits (8) par le Traité de fonctionnement de l’Union européenne (TFUE). La Commission européenne serait alors en droit d’infliger à Apple une amende pouvant aller jusqu’à 10 % de son chiffre d’affaires total annuel – en fonction de la gravité et de la durée de l’infraction. Pour sa dernière année fiscale close le 28 septembre 2019, Apple a généré 46,3 milliards de dollars dans les services, sur un total de chiffre d’affaires de 260,2milliards de dollars. Par ailleurs, rappelons qu’en France l’Arcep avait en 2017 pointé du doigt le défaut de neutralité des terminaux d’Apple (9).
Le 16 juin dernier, Spotify s’est réjoui : « Aujourd’hui est un grand jour. Le comportement anticoncurrentiel d’Apple a intentionnellement désavantagé ses rivaux, créé une distorsion de la concurrence et privé les consommateurs d’un choix significatif pendant trop longtemps ». Le 18 juin, le président de Microsoft, Brad Smith, a estimé qu’« il est temps pour les régulateurs de la concurrence aux Etats-Unis et en Europe de s’intéresser aux tactiques que les boutiques d’applications mettent en œuvre [sans nommer explicitement Apple, ndlr] pour tirer profit de ceux qui veulent distribuer leurs logiciels ». Le jour même où la Commission européenne lui a notifié formellement l’ouverture de ces enquêtes, la firme de Cupertino a balayé les soupçons d’abus de position dominante et de pratiques anti-concurrentielles.

« Des plaintes sans fondement » (Apple)
« Il est décevant que la Commission européenne donne suite à des plaintes sans fondement d’une poignée d’entreprises, a réagi Apple, qui veulent simplement un voyage gratuit [free ride] et qui ne veulent pas suivre les mêmes règles que tout le monde. Nous ne pensons pas que ce soit juste, nous voulons maintenir des règles du jeu équitables où toute personne déterminée et ayant une bonne idée peut réussir ». Et le groupe dirigé par Tim Cook d’assurer : « En fin de compte, notre objectif est simple : que nos clients aient accès à la meilleure application ou au meilleur service de leur choix, dans un environnement sûr et sécurisé ». @

Charles de Laubier

Les « CSA » européens veulent plus de la Commission européenne contre les fake news

Les Google, Facebook et autres Twitter ont été contraints de se constituer en « police privée » pour chasser sur Internet les fausses informations. Liberté d’expression et liberté d’informer sont passées au crible pour supprimer les infox. Mais pour les « CSA » européens, cela ne pas assez loin.

Le groupe des régulateurs européens des médias audiovisuels, l’Erga (1), a publié le 6 mai son « rapport sur la désinformation et l’évaluation de la mise en œuvre du code de pratique » pour lutter contre les fake news. Ce rapport final intervient deux ans après l’adoption par la Commission européenne de mesures fondées sur les conclusions et les recommandations présentées le 12 mars 2018 par « un groupe d’experts de haut niveau » pour lutter contre la désinformation en ligne (2).

Autorégulation des acteurs du Net
Dans la foulée, le 24 avril 2018, la Commission européenne publiait une communication intitulée « Lutter contre la désinformation en ligne : une approche européenne » (3), qui préconisait un code de bonnes pratiques et de nouvelles règles visant à accroître la transparence et l’équité des plateformes en ligne, notamment la mise en place d’un réseau indépendant de vérificateurs de faits dans le cadre d’une démarche d’autorégulation des acteurs du Net. Ces derniers ont été fermement invités à coopérer avec l’exécutif européen dans cette croisade contre les mensonges, les manipulations et les informations erronées. Le 16 octobre 2018, les premiers signataires de ce « code de bonne conduite » furent Facebook, Google, Twitter et Mozilla (éditeur du navigateur Firefox).
Dans le même temps, l’Edima (European Digital Media Association) – lobby basé à Bruxelles et représentant les GAFAM (Google, Amazon, Facebook, Apple et Microsoft) ainsi que Airbnb, Allegro, eBay, Expedia, Mozilla Mozilla, OLX, Snap, TripAdvisor, Twitter, Verizon Media, Yelp et Spotify – signait également ce code « anti-fake news », tout comme les associations professionnelles représentant l’industrie de la publicité et les annonceurs (EACA, IAB Europe, WFA et UBA). Microsoft a également rejoint le 22 mai 2019 les entreprises signataires. C’est lors des élections européennes de mai 2019 que les plateformes numériques participantes – Facebook, Google et Twitter en tête – ont publié des rapports mensuels sur la mise en œuvre de leurs actions dans le cadre de ce « code de pratique sur la désinformation » et dans un souci de « transparence de la publicité politique ». Cinq relevés mensuels ont été publiés sur cette période électorale, de janvier à mai 2019, dont le dernier publié il y a un an, le 14 juin (4). L’Erga en a fait la synthèse dans un rapport « monitoring » intermédiaire, en concluant que les GAFAM pouvaient mieux faire. « Google, Twitter et Facebook ont fait des progrès évidents dans la mise en œuvre des engagements du “Code of Practice on Disinformation” en créant une procédure ad hoc pour l’identification des publicités politiques et de leurs sponsors, et en rendant accessible au public les publicités en question. Il s’agissait d’un effort sérieux visant à accroître la transparence. Cependant, bien que les plateformes aient fourni des informations substantielles qui pouvaient être significatives pour les utilisateurs individuels, le suivi indique que les bases de données auraient dû être davantage développées [notamment plus détaillées, ndlr] afin de fournir les outils et les données nécessaires pour assurer la qualité électorale » (5). Les régulateurs européens de l’audiovisuel avaient en outre déjà constaté que les notions de « désinformation » et de « publicité politique » n’ont pas de définitions partagées par les Etats membres, dont certains n’ont même aucune définition des publicités politiques. A cela s’ajoutait aussi le fait que la plupart des « CSA » en Europe disposaient de compétences, de pouvoirs et de ressources juridiques très limités pour s’engager dans l’activité de surveillance des plateformes en ligne. Il y a un an, l’Erga estimait alors que l’approche de coopération en matière de régulation – appelée aussi co-régulation – adoptée par les institutions européennes ne devait pas empêcher d’aller plus loin en rendant exécutoires ou contraignantes (enforceable) les dispositions du code « anti-infox ».

Renforcer les autorités de surveillance
Cela supposait aussi, selon l’Erga, que les autorités de régulation chargées de surveiller le respect de ces dispositions par les plateformes du Net disposent également d’outils, d’accès aux informations et de l’autonomie nécessaires pour s’acquitter de cette tâche. « Il est crucial que les autorités de surveillance [« monitors », dans le texte, ndlr] aient la possibilité de créer leurs propres requêtes, filtres et outils d’analyse qui devraient être orientés vers les données brutes, non filtrées et non gérées dans les bases de données des plateformes numériques. L’information devrait être fournie de manière à leur permet également d’établir facilement le volume de publicité sur une période de temps définie, de comprendre des informations détaillées sur les pages où les publicités apparaissent, de connaître qui financent ces publicités, et d’identifier le problème pertinent pour chaque annonce en question », avait encore conclu l’Erga. Toujours dans son rapport intermédiaire de juin 2019, le groupe des régulateurs européens des médias audiovisuels avait appelé la Commission européenne à aller plus loin et au-delà de la seule publicité politique, « première étape d’un processus qui, inévitablement, rapprochera les deux parties (régulateurs et plateformes) tant au niveau européen qu’au niveau national ». L’Erga souhaitait « un niveau de coopération plus élevé ». Un an après son rapport intermédiaire, force est de constater que les premières recommandations de l’Erga n’ont toujours pas été suivis d’effet.

Mais respecter la liberté d’expression
Le groupe des régulateurs européens des médias audiovisuels en a donc remis une couche à travers son rapport final publié le 6 mai dernier (6). « Malgré des efforts notables fournis par les plateformes, l’application de ce code n’est pas encore optimale, à ce jour », insiste le groupe des « CSA » européens auprès de la Commission européenne. Il lui recommande d’agir maintenant dans trois directions pour améliorer la lutte contre la dissémination des infox en ligne : « Améliorer le code existant, étendre ses engagements et explorer de nouveaux outils pour tendre vers une régulation plus efficace, cette dernière étant assortie d’obligations claires de rendre compte selon des procédures davantage harmonisées et dans des délais appropriés », résume le communiqué du CSA en France, daté du 6 mai. Et le président de l’Erga, Tobias Schmid (photo) d’enfoncer le clou : « La lutte contre la désinformation est de la plus haute importance pour notre démocratie. Nous devons préserver la valeur du discours public sur Internet en empêchant la diffusion délibérée de fausses informations tout en respectant la liberté d’expression. (…) Mais un danger doit être combattu là où il se présente. Par conséquent, nous devons également trouver des moyens de renforcer les efforts des [plateformes numériques] signataires pour accroître l’efficacité des mesures du code et de leurs activités de reporting ». L’Allemand Tobias Schmid est par ailleurs directeur de l’autorité médiatique du plus puissant Land, la Rhénaniedu- Nord-Westphalie, ainsi que chargé des Affaires européennes de la DLM qui réunit en Allemagne les directeurs des autorités médiatiques. Au-delà des publicités politiques, l’Erga estime que la pandémie du coronavirus démontre qu’il faut aller plus loin dans la lutte contre la désinformation : « La prolifération de fausses nouvelles, guidées par des objectifs politiques et/ou axés sur le profit, qui accompagne la récente éclosion de covid-19, n’est qu’un exemple de la façon dont les stratégies de manipulation de l’information posent de graves menaces à la formation de l’opinion publique. Il est important de démystifier de telles nouvelles pour protéger les valeurs démocratiques et contrer les tentatives d’incitation à la haine et à la violence ». A nouveau, les régulateurs de l’audiovisuel recommandent que l’ensemble des plateformes numérique de contenus sur Internet opérant en Europe adhèrent à ce code contre la désinformation. Et concrètement, ils appellent à une bien plus grande transparence, y compris des données beaucoup plus détaillées (en particulier des données par pays) sur la façon dont les signataires mettent en œuvre le code « antiinfox ». De façon à uniformiser l’application de ce code de bonne conduite, l’Erga suggère que les plateformes mettent à disposition des ensembles de data, des outils de suivi des données et des informations spécifiques à chaque pays donné pour permettre au régulateur national un suivi indépendant. L’Erga propose en outre d’aider la Commission européenne (au niveau de sa DG Connect) à établir des définitions pertinentes, y compris en matière de publicité politique, ainsi que des lignes directrices pour assurer une approche plus cohérente entre les Etats membres.
Et pour que la lutte contre les fake news soit vraiment efficace, se limiter à Google, Facebook ou Twitter ne suffit plus, toujours selon les « CSA » européens : « Le nombre de signataires du code de pratique sur la désinformation est limité et ne comprend pas certaines plateformes importantes, les services d’information et de communication et les acteurs de l’industrie de la publicité qui sont actifs dans l’Union européenne. Par conséquent, tous les efforts possibles doivent être déployés pour augmenter le nombre de plateformes signataires du code, afin d’éviter les asymétries réglementaires ». Quant à l’auto-régulation flexible actuelle, si elle a pu être un premier pas important et nécessaire, elle a montré aussi ses limites et son insuffisante efficacité. Pour contrer la désinformation en ligne, il est aussi suggéré à la Commission européenne de passer à « une approche de co-régulation ». Aussi, l’Erga se propose de l’aider en 2020 à identifier les mesures spécifiques et pour les plateformes les indicateurs de performance-clés – les « KPI », disent les Anglo-saxons, pour Key Performance Indicators. Last but not the least : l’Erga veut aider Bruxelles à définir des outils nécessaires aux activités de surveillance (monitoring) et d’exécution des autorités de régulation nationales.

Vers une loi européenne « anti-infox » ?
Mais les régulateurs européens de l’audiovisuel et des médias veulent que les institutions européennes aillent encore plus loin, quitte « à envisager une régulation fixée par la loi, comme l’ont fait certains Etats membres tels que la France (7) ou l’Allemagne (8) ». Cette régulation pourrait être prévue par le futur Digital Services Act (DSA) que doit présenter (lire p. 3) la Commission européenne d’ici la fin de l’année. @

Charles de Laubier

Copyright et filtrage : la France veut peser dans les réunions « Article 17 » de la Commission européenne

Le 17 mai marquera le premier anniversaire de la publication au Journal Officiel européen de la directive « Droit d’auteur et droits voisins dans le marché unique numérique ». Son article 17, toujours controversé sur le filtrage des contenus, fait l’objet de négociations pilotées par la Commission européenne.

Après le confinement, la septième « réunion de dialogue avec les parties prenantes » – consacrée comme les six précédentes au controversé article 17 de la nouvelle directive européenne « Droit d’auteur » – va pouvoir se tenir à Bruxelles. Ces « stakeholder dialogue » (1) sont organisés par la Commission européenne depuis l’automne dernier pour parvenir à un accord sur « les meilleures pratiques », afin que cette dernière puisse émettre d’ici la fin de l’année des orientations (guidance) sur l’application cet épineux article 17.

Le blocage risque d’être un point de blocage
Alors que cette directive européenne « sur le droit d’auteur et les droits voisins dans le marché unique numérique » a été publié au Journal officiel de l’Union européenne (JOUE) il y aura un an le 17 mai, et qu’elle doit être transposée par chacun des Vingt-sept d’ici au 7 juin 2021 au plus tard, son article 17 fait toujours l’objet d’un bras de fer entre les industries culturelles et les acteurs de l’Internet. Car c’est lui qui impose désormais aux YouTube, Facebook et autres Dailymotion une nouvelle responsabilité, cette fois directe, vis-à-vis de contenus soumis au droit d’auteur qui auraient été piratés. Bénéficiant jusqu’alors de la responsabilité limitée et indirecte que leur conférait la directive européenne de 2000 sur le commerce électronique (2), les hébergeurs du Web sont maintenant tenus de « fourni[r] leurs meilleurs efforts (…) pour garantir l’indisponibilité d’œuvres et autres objets protégés » et de « bloquer l’accès [à ces contenus] faisant l’objet de la notification ou [de] les retirer de leurs sites Internet ».
Autrement dit, les GAFAM américains, leurs homologues chinois BATX et tous les autres acteurs du Net réalisant un chiffre d’affaires annuel supérieur à 10 millions d’euros n’auront pas d’autres choix que de généraliser la reconnaissance de contenus en ligne, et donc le « filtrage » de l’Internet – même si cette directive « Copyright » ne mentionne pas explicitement ce mot, préférant utiliser les termes « bloquer » ou « blocage ». De l’aveu même du législateur européen exprimé dans cette directive « Droit d’auteur » et de son article 17 « border line », il y a de sérieux risques de dommages collatéraux sur « les droits fondamentaux inscrits dans la Charte des droits fondamentaux de l’Union européenne, notamment la liberté d’expression et la liberté des arts » (3). Comment dès lors définir les « meilleures pratiques » à adopter, afin de garantir la liberté d’expression des utilisateurs du Net et d’éviter la censure non justifiée au nom de la sacro-sainte propriété intellectuelle ? C’est ce sur quoi discutent les parties prenantes lors de ces « réunions de dialogue » qui se tenaient au moins tous les mois – depuis le 15 octobre 2019 jusqu’au confinement – sous la houlette de l’unité « Copyright » (4) dirigée par le juriste italien Marco Giorello (photo de gauche). Avec la crise sanitaire, aucune réunion ne s’était tenue en mars et avril. Au cours des six premières réunions à Bruxelles, les organisations d’utilisateurs – telles que le Bureau européen des unions de consommateurs (Beuc), dont sont membres en France l’UFC-Que choisir et le CLCV – ont appelé la Commission européenne à « s’assurer que le contenu utilisé légitimement n’est pas bloqué, y compris lorsque ce contenu est téléchargé sous des exceptions et des limitations au droit d’auteur » et à « élaborer des solutions pour prévenir ou réduire les demandes abusives ». Dans le dernier « Discussion paper » que Edition Multimédi@ a consulté (5), et datant de la sixième réunion du 10 février dernier, certains intervenants ont mis en garde Bruxelles sur le filtrage obligatoire car « les technologies utilisées aujourd’hui ont des limites importantes en ce qui concerne la reconnaissance des utilisations légitimes [des contenus en ligne], y compris les utilisations en vertu des exceptions et des limitations du droit d’auteur » (6). Des participants ont également estimé qu’« une plus grande transparence est nécessaire en ce qui concerne le contenu bloqué ou supprimé, ainsi que les données stockées par les fournisseurs de services de partage de contenu en ligne ».
Le blocage de l’article 17 ne risque-t-il pas de devenir le point de… blocage, justement, de ces discussions européennes ? La France, elle, reste décidée à être le premier pays à transposer la directive « Copyright » et son article controversé qu’elle a fortement contribué à élaborer au nom de « l’exception culturelle ». Alors que cette disposition de filtrage a été introduite aux articles 16 et 17 du projet de loi sur l’audiovisuel (7), dont l’examen devrait reprendre d’ici l’été, le gouvernement français entend peser au niveau européen.

CSPLA, Hadopi et CNC : mission II
Le 13 janvier dernier, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – du ministère de la Culture – a confié au conseiller d’Etat Jean-Philippe Mochon une seconde mission sur la reconnaissance des contenus. Et ce, dans la foulée de son premier rapport sur ce thème publié en début d’année (8). Cette fois, son deuxième rapport – réalisé à nouveau avec l’Hadopi et le CNC (9) et attendu « d’ici l’automne 2020 » – se focalisera notamment sur cet article 17 de la directive « Copyright » en vue d’être porté à la connaissance de la Commission européenne. @

Charles de Laubier

Et combien coûtera la stratégie digitale de l’Europe ?

En fait. Le 19 février, la Commission européenne a présenté sa stratégie numérique pour les cinq prochaines années en matière de données, d’une part, et d’intelligence artificielle, d’autre part. Deux enquêtes sont menées en ligne, jusqu’au 19 mai pour le livre blanc sur l’IA. Mais le financement reste à préciser.

En clair. Le projet de budget 2021-2027 de l’Union européenne, post-Brexit, a déjà été drastiquement revu à la baisse sous la dernière présidence de la Finlande (1). Bien que la nouvelle Commission « Leyen » soit placée sous le signe d’« une Europe préparée à l’ère numérique », sous la houlette de la vice-présidente Margrethe Vestager, l’heure n’est pas trop aux stratégies dispendieuses. En présentant ses « idées et mesures » en matière de données et d’intelligence artificielle, l’exécutif européen n’a pas précisé comment serait financier ses ambitions digitales dans ces domaines. Il est cependant indiqué, en marge de sa communication du 19 février, que « les investissements nécessaires seront possibles grâce à des fonds transférés du Programme pour une Europe numérique [Digital Europe Programme (2)], du Mécanisme pour l’interconnexion en Europe [Connecting Europe Facility (3)] et d’Horizon Europe (4) ». Sans pour autant chiffrer le montant global issu de ces trois véhicules budgétaires pour financer sa stratégie numérique, la Commission européenne indique qu’elle a proposé d’investir, dans le cadre du Digital Europe Programme, « près de 2,5 milliards d’euros dans le déploiement de plateformes de données et d’applications de l’IA ». En ce qui concerne le programme de recherche et développement Horizon Europe, la Commission « Juncker » – avant l’actuelle Commission « Leyen » – avait proposé un investissement ambitieux de 100 milliards d’euros tous secteurs d’activités confondus, dont « 15 milliards d’euros dans le pôle “Numérique, industrie et espace”, au sein duquel l’IA constituerait un secteur clé à soutenir ».
Dans le livre blanc sur l’IA (5), il est mentionné qu’« au cours des trois dernières années, le financement de l’UE en faveur de la recherche et de l’innovation dans le domaine de l’IA a atteint 1,5 milliard d’euros ». En revanche, aucun montant n’est avancé pour le véhicule budgétaire Connecting Europe Facility (CEF2). Mais dans un document informel (non-paper), la Commission européenne évoque une somme de 3 milliards d’euros sur trois ans (2021-2023) « pour le volet consacré aux infrastructures stratégiques de connectivité numérique », au sein de l’Union européenne, dont jusqu’à 75 % en soutien du déploiement d’infrastructures 5G et jusqu’à 25 % pour les investissements dans des infrastructures de données transfrontalières. @