L’Europe veut encadrer les algorithmes pour retirer les contenus illicites et éviter les « faux positifs »

Le futur règlement européen Digital Services Act (DSA) veut encadrer l’utilisation d’algorithmes dans la gestion des contenus sur les réseaux sociaux et d’en retirer ceux « jugés » illicites. Mais le risque de « faux positifs » (bloqués à tort) va poser des problèmes aux régulateurs et aux juges.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

Bloquer la publication d’un contenu est une décision grave, portant potentiellement atteinte à l’un des droits fondamentaux les plus importants pour la démocratie : la liberté d’expression. Pour la préserver, le droit constitutionnel américain et français exigent généralement qu’une décision interdisant la diffusion de contenus soit prise par une autorité judiciaire, et qu’elle le soit prise après la publication du contenu, non avant (1).

Blocage automatique : quelle légitimité ?
Les plateformes ne s’embarrassent pas de ces principes, filtrant des contenus avant leur publication par l’utilisation de robots. Faut-il s’en inquiéter ? S’agit-il d’une violation des droits fondamentaux des utilisateurs ? Le recours aux algorithmes pour identifier des contenus illégaux est devenu incontournable en raison de la quantité des informations publiées par les utilisateurs des réseaux sociaux. Même si la loi n’impose pas aux plateformes une obligation générale de surveillance des contenus, laquelle reste interdite (2), celles-ci ont mis en place des systèmes automatisés de détection de contenus illicites. Le champ d’application de ces outils s’est élargi grâce à l’émergence de modèles d’apprentissage automatique (machine learning), capables d’identifier des images et textes plus complexes, de comprendre le contexte d’une phrase ou d’une image, voire de juger de la véracité d’une affirmation.
Le futur règlement européen Digital Services Act (DSA) met en lumière les multiples rôles d’algorithmes dans la gestion de contenus sur les réseaux sociaux. Ces algorithmes identifient des contenus illicites et procèdent à leur retrait avec ou sans intervention humaine ; ils signalent l’existence d’utilisateurs potentiellement abusifs du service ; ils organisent la présentation de contenus et de publicités aux utilisateurs en fonction de leurs profils. Le règlement DSA propose d’encadrer l’utilisation d’algorithmes, surtout ceux utilisés pour retirer des contenus illicites. Les outils sont calibrés pour bloquer automatiquement, et sans intervention humaine, des contenus les plus manifestement illégaux. En cas de doute, la machine enverra le cas à des décisionnaires humains. Une grande partie des décisions de retrait de contenus sont aujourd’hui prises sans intervention humaine (3), ce qui soulève la question de leur légitimité et des garanties qui les entourent. Le DSA prévoit des garanties procédurales et de transparence similaires à celles qui existent pour les décisions prises par l’Etat. Le droit constitutionnel impose à l’Etat des règles contraignantes en matière de blocage de contenus illicites, alors que les plateformes, elles, ne sont pas directement concernées par ces contraintes constitutionnelles. Cependant, les plateformes dites « structurantes » ont un pouvoir quasi-étatique en matière de liberté d’expression. Il est donc logique d’étendre à ces plateformes les règles de transparence et de procédure qui s’appliquent aux décisions de l’Etat.
En 2018, les organisations de défense des droits civiques aux Etats-Unis ont élaboré des principes minimaux de transparence et de procédure équitable qui doivent s’appliquer aux décisions de retrait de contenus ou de suspension de comptes sur les réseaux sociaux. Appelés « Santa Clara Principles » (4), ces principes non-contraignants recommandent la publication par chaque plateforme numérique de données détaillées sur les alertes, les décisions de retrait et de suspension. Ils prévoient la notification aux utilisateurs affectés par les décisions de retrait, la publication de règles claires sur les types de contenus interdits sur la plateforme, la mention de raisons du retrait, la fourniture d’informations sur l’utilisation ou non d’un outil automatique, et une procédure efficace de contestation devant un décisionnaire humain différent de la personne qui a pris la décision initiale. Les Santa Clara Principles (SCP) reprennent, pour les adapter aux plateformes, une partie des règles constitutionnelles de « due process » aux Etats-Unis qui s’appliquent aux décisions, notamment algorithmiques, de l’Etat.

Le DSA va plus loin que les « SCP »
Le projet de règlement DSA rendrait contraignant un certain nombre des SCP, et notamment l’obligation d’informer l’utilisateur que son contenu a été retiré et de lui fournir une explication sur les raisons du retrait. La notification doit également mentionner l’utilisation éventuelle d’un outil automatique, et fournir des informations claires sur la possibilité de contester la décision. Le DSA exige une procédure efficace pour gérer les contestations d’utilisateurs, une procédure qui ne peut pas s’appuyer uniquement sur des moyens automatisés. Les utilisateurs peuvent donc contester un retrait devant un décisionnaire humain. Le DSA va au-delà des SCP en matière de transparence algorithmique, en exigeant la publication par les plateformes structurantes d’information sur les objectifs poursuivis par l’algorithme, les indices de performance, et les garanties entourant son utilisation.
Le projet de loi français sur le « respect des principes de la République », adopté par l’Assemblée nationale le 16 février dernier et actuellement examiné au Sénat (5), va plus loin encore en prévoyant la communication au Conseil supérieur de l’audiovisuel (CSA) des paramètres utilisés par les outils automatisés, des méthodes et des données utilisées pour l’évaluation et l’amélioration de leur performance.

Algorithmes, « faux positifs » et censure
La performance des algorithmes sera un sujet-clé pour le régulateur. Quel est le niveau acceptable de « faux positifs », à savoir des contenus bloqués à tort ? On sait que les tribunaux n’apprécient guère les faux positifs en matière de liberté d’expression (lire encadré ci-dessous) et qu’un algorithme d’apprentissage automatique va forcément générer des faux positifs. Le niveau de faux positifs dépendra notamment du niveau de sensibilité de l’algorithme dans la détection de « vrais » positifs, par exemple une vraie vidéo terroriste. Si l’on réduit le nombre de faux positifs, on va nécessairement réduire la sensibilité de l’algorithme dans la détection de vrais cas de contenus illégaux. Le bon équilibre entre les faux positifs et les faux négatifs sera un sujet délicat, et le niveau d’équilibre sera différent selon le type de contenus. Laisser passer la vidéo d’un acte terroriste du type Christchurch aura un coût très élevé pour la société, alors que laisser passer un morceau de musique protégé par le droit d’auteur sera a priori moins dommageable.
Les taux d’erreurs algorithmiques peuvent varier en fonction de la langue utilisée – un algorithme d’analyse de textes sera généralement plus performant en anglais – et peuvent également refléter les biais présents dans les données d’entraînement. Les algorithmes apprennent à partir des exemples de contenus retirés précédemment par les analystes humains. Ces analystes humains sont faillibles. Ils ont leur propre biais – biais culturels, linguistiques, ethniques, de genre – et commettent eux-aussi des erreurs d’appréciation qui seront reproduits ensuite par les algorithmes (6). Ainsi, il faut veiller non seulement au « bon » niveau de faux positifs et de faux négatifs selon le type de contenu, mais également vérifier que le niveau de perfor-mances de l’algorithme ne varie pas selon la couleur de la peau ou le sexe des personnes impliquées, selon la langue utilisée, ou selon le type de discours haineux (7). Ces multiples équilibres devraient être abordés dans un premier temps dans les études de risques systémiques conduites par les plateformes structurantes, en application de l’article 26 du futur règlement DSA en Europe. Ces études devront analyser l’impact des algorithmes d’identification et de retrait de contenus sur les droits fondamentaux. Ainsi, les plateformes devront proposer des solutions techniques et humaines pour concilier des objectifs – souvent contradictoires – liés à la mise en place d’un système de détection performant qui respecte en même temps la liberté d’expression, la protection des données personnelles et la protection contre les discriminations. Actuellement, le projet de règlement DSA prévoit que la Commission européenne sera le régulateur principal pour les plateformes structurantes. Celle-ci pourra émettre des recommandations relatives aux systèmes algorithmiques. Mais la manière de gérer les tensions entre la liberté d’expression et d’autres droits est avant tout une affaire nationale, dépendant du contexte, de l’histoire et de la culture de chaque pays (8).
En France, le CSA serait mieux placé que la Commission européenne pour évaluer les systèmes algorithmiques mis en place par les grandes plateformes pour analyser des contenus destinés au public français. Le paramétrage des algorithmes devra nécessairement refléter ces circonstances locales, et le contrôle de ces paramètres relèverait plus naturellement de la compétence du régulateur national. Un contrôle national de ces outils renforcerait en revanche le morcèlement des approches réglementaires entre Etats membres, et nécessiterait donc un système de coordination au niveau européen similaire à ce qui existe pour la régulation des télécoms et le RGPD. @

* Winston Maxwell, ancien avocat, est depuis juin 2019
directeur d’études Droit et Numérique à Telecom Paris.

FOCUS

Le droit est allergique aux surblocages
Le droit constitutionnel est peu tolérant aux « faux positifs » en matière de liberté d’expression. Les risques de surblocage ont été soulignés par la Cour suprême des Etats-Unis dans l’affaire « Reno c. ACLU » (9) dans les années 1990, et par la Cour de justice de l’Union européenne (CJUE) dans les affaires « Scarlet c. Sabam » (10) en 2011 et « Sabam c. Netlog » (11) en 2012. Ces deux dernières affaires concernaient la mise en place, à la demande d’un tribunal belge, d’un dispositif simple pour bloquer des contenus protégés par le droit d’auteur, s’appuyant sur un procédé de « hash » pour identifier les fichiers contrevenants.
La CJUE a considéré que ce procédé créait une atteinte disproportionnée à la protection des données à caractère personnel, mais également à la liberté d’expression en raison du risque de surblocage. L’outil serait incapable de détecter s’il s’agissait d’une citation, d’une parodie ou d’une autre utilisation permises par l’une des exceptions du droit d’auteur. Plus récemment, le Conseil constitutionnel a annulé deux dispositions de la loi française « Avia » (contre la cyberhaine) en raison du risque de surblocage de contenus « non manifestement illicites » (12). Pour des contenus faisant l’apologie du terrorisme, le Conseil constitutionnel a considéré que les injonctions de l’autorité administrative (13) ne constituaient pas une garantie suffisante et que les opérateurs de plateformes ne devaient pas suivre ces injonctions de manière automatique. @

Les discussions secrètes et le lobbying autour de l’article 17 controversé de la directive « Copyright »

La culture du secret qui caractérise les négociations et le lobbying autour de l’article 17 controversé de la directive « Copyright » n’est pas digne du fonctionnement démocratique de l’Europe. Alors que tous les internautes européens sont concernés par le filtrage et les risques de censures sur le Net.

La dernière réunion de négociation en date autour de l’article 17 controversé s’est tenue dans le plus grand secret – à huis clos – le 12 février dernier entre la DG Connect de la Commission européenne, des membres du Parlement européen et des représentants des Etats membres. Cette direction « Communications Networks, Content and Technology » (1), pilotée par Roberto Viola (photo) sous la houlette de Margrethe Vestager, vice-présidente de la Commission européenne, et de Thierry Breton, commissaire européen en charge du Marché intérieur, ne fait pas vraiment dans la clareté.

Futures lignes directrices, sujet sensible
Alors que jusqu’à il y a un an, la DG Connect faisait preuve d’un peu de transparence sur le « dialogue des parties prenantes sur l’application de l’article 17 de la directive sur le droit d’auteur dans le marché unique numérique » (2), force est de constater que depuis février 2020, c’est le blackout quasi-total sur ce qui se dit et s’échange lors des réunions au tour de cet article 17 controversé. C’est d’autant plus regrettable que les futures lignes directrices sur son application porteront sur des dispositions concernant au premier chef les internautes européens eux-mêmes. Les lignes directrices qui découleront de ces tractations auront un impact sur le filtrage, le blocage et le risque de censure sur Internet.
Pour les ayants droit des industries culturelles, il s’agit de lutter contre le piratage en ligne en exigeant des plateformes numériques qu’elles prévoient des dispositifs techniques pour supprimer les contenus enfreignant le droit d’auteur. Pour éviter un filtrage automatique et généralisé des contenus sur Internet, la Commission européenne avait – dans son projet de lignes directrices (3) sur l’article 17 publié en septembre 2020 – instauré un distinguo entre contenus « vraisemblablement contrefaisants » et ceux « vraisemblablement légitimes ». C’est cette dernière notion – de « téléchargement susceptible d’être légitime » – que les discussions achoppent à Bruxelles. C’est aussi sur ce point (de blocage) que des eurodéputés, de tous bords – mais principalement des deux plus grands groupes politiques – le Parti populaire européen (PPE) de droite et les Socialistes et démocrates (S&D) de gauche – ont fait part dans une lettre (4), juste avant la réunion technique du 12 février, de leur insatisfaction sur l’interprétation de l’article 17 par la Commission européenne. « L’approche actuelle des lignes directrice ne reflète pas correctement l’accord obtenu après de longues négociations sur l’article 17 de la directive sur le droit d’auteur », écrivent ces parlementaires, dont les Français Geoffroy Didier (PPE), Sylvie Guillaume (S&D) ou encore Laurence Farreng (Renew Europe). Et les eurodéputés de s’inquiéter : « La dernière réponse de la Commission européenne aux questions du Parlement européen sur cette question et les récentes déclarations publiques des membres des services de la DG Connect n’ont pas contribué à apaiser ces préoccupations ».
Roberto Viola, le patron de la DG Connect, et Giuseppe Abbamonte, directeur de la politique des médias à cette même DG Connect, ont tenté d’apaiser les craintes des parlementaires européens. En revanche, d’après Election Libre, le cabinet de Thierry Breton était convié à cette réunion tendue mais n’y a pas participé. L’eurodéputé Axel Voss (PPE), qui fut rapporteur de la directive « Copyright » (5) adoptée le 17 avril 2019 et publiée le 17 mai suivant, est bien sûr intervenu dans cette réunion électrique. « Aucune réunion de suite n’est prévue », a indiqué la Cnect (DG Connect) à Edition Multimédi@. Le temps presse car cette directive européenne « sur le droit d’auteur et les droits voisins dans le marché unique numérique » doit être transposée par les Vingt-sept « au plus tard le 7 juin 2021 », dans trois mois maintenant.

Paris et Berlin, pas dans le même axe
La France, qui veut être aux avant-postes de la transposition justement de ce texte qu’elle a largement contribué à élaborer, fait partie des pays européens – avec l’Italie, le Portugal, l’Espagne, la Croatie, le Danemark, ou encore la Grèce – qui estiment que les orientations (notamment des lignes directrices ou guidance sur l’article 17) n’atteindraient pas les objectifs initialement fixés par la Commission européenne en matière de protection de la propriété intellectuelle des détenteurs de droits en Europe. Paris n’est d’ailleurs pas sur la même longueur d’onde que Berlin : le projet de transposition de la France donne un rôle prépondérant à l’intervention préventive pour bloquer des contenus, mais avec des risques de sur-blocages et d’atteintes à la liberté d’expression sur Internet, alors que l’Allemagne a une approche qui est celle de la Commission européenne où le contenu présumé licite ne peut pas être bloqué automatiquement (voir schéma ci-dessous).

Ne pas sacrifier la liberté d’expression
A trois mois de la deadline pour la transposition de la directive « Copyright », cet article 17 continue de cristalliser les oppositions. Ce n’est pas faute, pour la Commission européenne, d’avoir mené une série de consultations depuis le second semestre 2019 et au début de l’année 2020, afin de clarifier la mise en œuvre de cet article controversé. Le projet de lignes directrices (guidance) issu de ces concertations et lobbying des parties en présence – plateformes numériques, d’un côté, industries culturelles, de l’autre – n’a pas permis de parvenir à un consensus, les ayants droit estimant que le compte n’y est pas (6).
En cause, selon eux, un nouveau principe dit de « téléchargement susceptible d’être légitime », prévoyant un modus operandi pour l’application de l’article 17 où les instructions des détenteurs de droits seraient simplement écartées dans le cadre des mesures préventives. La Commission européenne, elle, cherche à préserver un équilibre entre le respect des œuvres protégée par le droit de propriété intellectuelle et les exceptions au droit d’auteur. Objectif : ne pas sacrifier la liberté d’expression, de création et d’information, dont font partie la citation, la critique, la revue, la caricature, la parodie ou le pastiche (dixit l’article 17). En France, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – dépendant du ministère de la Culture – avait regretté l’an dernier que la Commission européenne « esquiss[e] des lignes directrices qui réserveraient les blocages aux seuls cas de certitude de contrefaçon, et en donnant à la protection des exceptions […] une place centrale au détriment de l’effectivité des droits » (7).
L’article 17 incite en tout cas les plateformes de partage numériques (YouTube, Facebook, Twitter, …) à obtenir une autorisation – « par exemple en concluant un accord de licence » – qui « couvre également les actes accomplis par les utilisateurs (…) lorsqu’ils n’agissent pas à titre commerciale ou lorsque leur activité ne génère pas de revenus significatifs ». A défaut d’accord d’autorisation, ces plateformes – que la directive « Copyright » appelle « fournisseurs de services de partage de contenus en ligne » – sont alors responsables du piratage des œuvres protégées. A moins qu’ils ne montrent pattes blanches : « meilleurs efforts » pour obtenir une autorisation ou pour garantir l’indisponibilité les contenus signalés comme piratés ; « agi[r] promptement », dès réception d’une notification des titulaires de droits, pour bloquer l’accès aux contenus protégés. @

Charles de Laubier

L’article 17 controversé, ou comment la Commission européenne a relancé la guérilla du filtrage

La Commission européenne n’est pas prête à publier ses lignes directrices finales sur l’interprétation que les plateformes numériques et les ayants droits devront faire de l’article 17 de la directive « Droit d’auteur », tant celui-ci est toujours controversé sur fond de lobbying incessant.

Par Juliette Félix, Avocate, cabinet Herald

Après trois ans de débats houleux, l’adoption le 17 avril 2019 de la directive européenne « Droit d’auteur et droits voisins dans le marché numérique » (1) avait réjoui le monde de la culture. En France, Franck Riester, alors ministre de la Culture, ne cachait pas son soulagement : « C’est une grande satisfaction et une étape majeure dans la capacité de l’Europe à défendre les créateurs, artistes et journalistes, et à s’assurer d’un meilleur partage de la valeur créée sur le numérique » (2).

La France se rebiffe et critique Bruxelles
Le Parlement européen venait de mettre un terme à une bataille de lobbying féroce autour notamment de l’article 13, devenu l’article 17. Fustigé par les GAFA et les partisans d’un Internet libre, en ce qu’il ouvre la voie à un filtrage automatisé des contenus et entame le régime d’irresponsabilité des hébergeurs, l’article 17 de la directive « Droit d’auteur » (ou « Copyright ») a finalement été adopté dans une rédaction favorable aux créateurs, soutenue par la France. Cette disposition âprement débattue met fin à la responsabilité limitée des plateformes de partage de contenus, et leur impose, d’une part, de rechercher l’autorisation des ayantsdroit, notamment par la voie d’accords de licence collectifs et, d’autre part, de mettre en place un filtrage des contenus contrefaisants. La directive européenne « Copyright » doit être transposée par les Etats membres au plus tard en juin 2021. La Commission européenne a lancé « un dialogue » entre les Etats membres et les parties intéressées (titulaires de droits, sociétés de gestion collective, organisations d’utilisateurs, …) pour « examiner les meilleures pratiques » et « émettre des orientations » sur l’application de cet article 17 controversé. La publication, le 27 juillet 2020, de la consultation des parties par la Commission européenne en vue de l’élaboration des lignes directrices (3) tant attendues a ravivé les tensions entre les deux camps. Le gouvernement français, lui, en a perdu son bel optimisme. Dans leur contribution, les autorités françaises estiment que « ce document soulève des préoccupations très importantes ». Et de critiquer l’approche de l’exécutif européen : « Au plan méthodologique, le projet excède très largement le cadre imparti pour les orientations de la Commission [européenne] et se révèle très pauvre quant aux éléments concrets et documentés pourtant attendus sur les meilleures pratiques de coopération. Sur le fond, l’approche préconisée remet fondamentalement en cause les équilibres arrêtés par les co-législateurs, à travers une réécriture des dispositions de la directive qui en méconnaît tant la lettre que l’esprit ». Les représentants des créateurs – notamment le Gesac (4) – lui reprochent également de réécrire l’article 17 et de favoriser le maintien en ligne de contenus illicites, tout en faisant peser trop d’obligations sur les ayants-droit (5). Les représentants des utilisateurs, de la société civile (6) et des plateformes numériques – notamment la CCIA (7) – s’alarment pour leur part de ce qu’ils analysent comme la consécration de l’obligation de surveillance générale des contenus. L’objectif initial de fédérer des « bonnes pratiques » est loin d’être atteint. Les interprétations divergent sur de nombreux points essentiels :
• La définition de la communication au public.
La Commission européenne souligne que la directive « Copyright », en ce qu’elle rend les plateformes responsables du contenu partagé par leurs utilisateurs, constitue une « lex specialis » (soit une « loi spéciale » qui déroge à la « loi générale ») par rapport : à l’article 3 de la directive de 2001 dite « DADVSI » (8), qui consacre, « pour les auteurs, le droit exclusif d’autoriser ou d’interdire toute communication au public de leurs œuvres », et à l’article 14 de la directive de 2000 dite « E-commerce » (9), qui définit le statut d’hébergeur.

Notion d’« acte de communication au public »
Même si les plateformes sont désormais considérées comme effectuant des actes de communication au public en rendant les œuvres disponibles, les Etats membres ne doivent pas, dans le cadre de la transposition, se référer aux notions préexistantes de « communication au public » et d’« autorisation ». Ils doivent créer une « notion d’autorisation » spécifique correspondant à « l’acte de communication au public » spécial de l’article 17. Si les représentants des utilisateurs et des plateformes numériques se réjouissent de cette distinction, les titulaires de droits réclament l’adoption de la même définition de la communication au public que celle relevant des textes existants, par souci d’harmonisation (10).
• Les « meilleurs efforts » des plateformes pour obtenir des autorisations. La directive « Droit d’auteur » encourage la conclusion de licences entre les ayants droit et les plateformes du Net. L’existence d’une licence vaudra autorisation pour les utilisateurs de téléverser leurs contenus, en toute sécurité juridique. Les plateformes numériques n’ont toutefois pas d’obligation de résultat, et doivent faire « leurs meilleurs efforts » pour obtenir les autorisations.

« Vraisemblablement ou probablement illicite » ? La Commission européenne tente de définir ces « meilleurs efforts ». Elle encourage les Etats membres à favoriser la conclusion d’accords : modèles de licences, mécanismes de médiation et d’échange d’information. Elle invite ces mêmes plateformes à être proactives, notamment à l’égard des sociétés de gestion collective des droits d’auteurs (ou OGC), et à ne pas refuser des conditions de rémunération raisonnables. L’obligation de « meilleurs efforts » devra s’apprécier au cas par cas, selon le principe de proportionnalité, mais peu d’éléments concrets sont livrés pour élaborer un cadre précis. Le groupement représentant les plateformes numériques, la CCIA (11) insiste sur la nécessité de préserver « la liberté contractuelle » des parties et pointe le faible niveau de représentativité des OGC. Il entend également faire supporter la charge de la preuve par les ayants droit… alors que pour ces derniers ce sont les plateformes qui doivent être en mesure démontrer leurs efforts.
• L’articulation entre l’obligation de rechercher des autorisations et l’obligation de filtrage. La conclusion de licences dispense-t-elle la plateforme numériques de mettre en place un système de filtrage de contenus et de faire ses « meilleurs efforts » pour supprimer préventivement les contenus illicites ? L’article 17 précise que le filtrage vient pallier l’absence de licence ou d’autorisation, lorsque la plateforme en question n’est pas parvenue à en obtenir, malgré ses meilleurs efforts. Mais pour les autorités françaises, la Commission européenne « ne peut pour autant affirmer que l’obligation de prendre des mesures préventives ne devient applicable que dès lors que l’objectif de conclusion des licences ne peut être atteint ». La France souhaite que les mesures préventives puissent bénéficier à tous.
A l’opposé, pour la CCIA, une obligation trop étendue s’apparenterait à une surveillance générale, et serait donc prohibée. Il insiste sur la problématique des coûts et le risque de « faux » positifs aboutissant à des blocages indus.
• Le traitement des exceptions et l’apparition de nouvelles notions : les contenus « vraisemblablement illicites » et les contenus « probablement légitimes ». La directive « Copyright » impose le respect des exceptions de « caricature, parodie et pastiche » et de « courte citation, critique, revue », afin de préserver notamment le droit à l’humour et l’expression critique et scientifique. La liberté d’expression ne peut être filtrée. Prise en étau entre le respect du droit d’auteur et celui de la liberté d’expression, la Commission européenne tente de contourner l’obstacle en introduisant deux notions absentes de la directive « Copyright » : les contenus « vraisemblablement illicites » et les contenus « probablement légitimes » (12). La réaction du Gesac est nette : « Une telle distinction est inacceptable ». D’une part, ces notions ne renvoient à aucun concept juridique existant ; elles sont définies en fonction de critères techniques qui demeurent très vagues, alors même qu’une exception au droit d’auteur est une notion juridique d’interprétation stricte. D’autre part, il reviendrait à l’ayant droit de démontrer que l’usage jugé comme « probablement légitime » par la plateforme digitale, n’a en réalité pas été autorisé. Le temps de l’instruction de la demande, le contenu resterait en ligne par défaut. Les ayants-droit rappellent que la directive « Droit d’auteur » pose le blocage comme principe en cas d’identification d’un contenu illicite, à charge pour l’utilisateur de démontrer qu’une exception s’applique pour obtenir le déblocage. La France rejette elle aussi fermement la nouvelle distinction posée par la Commission européenne : « La simple éventualité très aléatoire d’application d’une exception conduirait donc à paralyser les effets du droit d’auteur ». Les représentants des utilisateurs sont, eux, sans surprise, aux antipodes. L’introduction de la notion de « contenus vraisemblablement illicites » leur paraît « trop permissive » et devrait être remplacée par la notion de « manifestement illicite ». Le maintien en ligne doit être le principe.
• Les informations que les plateformes doivent remonter aux ayants droits. A défaut de proposer des mesures concrètes pour combler le « value gap », la directive « Copyright » pose comme principe une plus grande transparence sur les revenus générés par les plateformes numériques, afin que les ayants droits puissent disposer d’informations claires et précises sur le revenu de leurs œuvres, et mieux négocier leur rémunération. La Commission européenne n’entend pas imposer aux plateformes une obligation de transparence étendue, écartant notamment une reddition de compte œuvre par œuvre. Elle préfère renvoyer à la négociation contractuelle. La CCIA rejette une reddition de compte trop détaillée, dont le coût serait excessif.

La France légifère avant les lignes directrices
Les divergences d’interprétation sont multiples. Faute d’apporter des propositions pragmatiques, la consultation – clôturée le 10 septembre dernier – relance la controverse. Dans ce contexte incertain, l’Hadopi – qui constituera avec le CSA la future l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) – semble toutefois assurée d’être désignée comme autorité de contrôle du filtrage. Dans son analyse de la consultation, l’Hadopi en pointe les carences (13) et estime que l’approche de la Commission européenne « met en risque tant les titulaires de droit que les utilisateurs ». Les députés français, eux, ont autorisé le gouvernement à transposer les dispositions de l’article 17 par voie d’ordonnance, sans débat parlementaire et sans attendre les lignes directrices de la Commission européenne. @

App Store et Apple Pay : ce que la Commission européenne reproche à la firme de Cupertino

La WWDC, grand-messe annuelle des développeurs de la marque à la pomme, s’est déroulée du 22 au 26 juin à San Francisco. Plus que jamais, Apple compte sur les commissions émanant de sa boutique App Store pour assurer ses revenus. Mais son écosystème fermé est dans collimateur de l’Europe.

La Worldwide Developer Conference (WWDC) de cette année 2020, qui s’est tenu à Cupertino, près de San Francisco, au sein de l’Apple Park, le fameux QG circulaire mondial de la marque à la pomme depuis plus de trois ans maintenant, avait beau avoir lieu à 8.898 kilomètres de Bruxelles, jamais l’Europe n’a été aussi proche de l’événement. Et pour cause : six jours avant que Tim Cook (photo de gauche), le PDG d’Apple, n’ouvre le bal, Margrethe Vestager (photo de droite), la vice-présidente exécutive de la Commission européenne, chargée de la concurrence (1), lançait deux enquêtes sur les pratiques douteuses de respectivement l’App Store et l’Apple Pay.

Plaintes de Spotify et de Kobo (Rakuten)
Que reproche au juste Bruxelles à la firme de Cupertino dans la salve d’enquêtes lancées contre elles le 16 juin dernier ? D’une part, la Commission européenne a ouvert des enquêtes formelles sur des soupçons de pratiques anticoncurrentielles afin d’« apprécier si les règles imposées par Apple aux développeurs concernant la distribution d’applications via l’App Store enfreignent les règles de concurrence de l’Union européenne ». Ces enquêtes sur l’App Store font suite à deux plaintes distinctes, l’une émanant de la plateforme de streaming musical Spotify, et l’autre du distributeur d’ebooks et de livres audio Kobo, filiale de Rakuten (lire en Une).
Autant la Commission européenne a bien mentionné le groupe suédois, autant elle a curieusement passé sous silence la filiale canadienne du groupe japonais. Il a fallu une fuite auprès du Financial Times (quotidien propriété du groupe japonais Nikkei) pour que le nom du second plaignant soit finalement révélé par voie de presse et non démenti depuis. D’autre part la Commission européenne a ouvert une enquête formelle, là aussi en matière de pratiques anticoncurrentielles, afin cette fois, d’« apprécier si le comportement d’Apple concernant Apple Pay enfreint les règles de concurrence de l’Union européenne ». Contrairement à l’App Store où deux plaignants sont mentionnés, aucun n’est évoqué pour l’Apple Pay. Globalement, la marque à la pomme compte 1,5 milliard de terminaux sous iOS (smartphones) ou iPadOS (tablettes) dans le monde, tandis que 500 millions de personnes utilisent l’App Store régulièrement.
• Concernant la boutique en ligne (App Store), les enquêtes portent plus spécifiquement sur « l’utilisation obligatoire du système d’achat intégré [in-app, ndlr] propriétaire d’Apple et sur les restrictions de la capacité des développeurs à informer les utilisateurs d’iPhone et d’iPad de possibilités d’achat moins coûteuses en dehors des applications ». Plus généralement, l’App Store préoccupe la Commission européenne car il s’agit d’un écosystème entièrement contrôlé par la firme de Cupertino qui y fixe ses propres règles d’accès, de distribution et de tarifs pour les applications mobiles destinés à ses iPhone et iPad. C’est ce rôle de « gatekeeper » vis-à-vis des applications et des contenus destinés aux utilisateurs finals qui intrigue depuis longtemps la commissaire européenne Margrethe Vestager. D’autant que les utilisateurs terminaux fonctionnant sous les systèmes d’exploitation-maison iOS (smartphones) ou iPadOS (tablettes) peuvent télécharger uniquement des applications dites natives – c’est-à-dire non disponibles sur le Web – via l’App Store. « Nous devons veiller à ce que les règles d’Apple ne faussent pas la concurrence sur les marchés où cette entreprise est en concurrence avec d’autres développeurs d’applications, par exemple avec son service de diffusion de musique en streaming Apple Music ou avec Apple Books. J’ai donc décidé, a-t-elle justifié, d’examiner de près les règles de l’App Store d’Apple et leur conformité avec les règles de concurrence de l’Union européenne ». Vis-à-vis du streaming musical (plainte de Spotify), l’enquête porte le numéro « AT.40437 » (2) (*) (**).
Vis-à-vis du streaming musical (plainte de Spotify), l’enquête porte le numéro « AT.40437 » (3). Vis-à-vis des livres numériques et des audio-books (plainte de Kobo), l’enquête porte le numéro « AT.40437 » (4). Ces enquêtes portant sur l’App Store s’intéressent plus particulièrement à deux restrictions imposées par Apple dans ses accords avec les entreprises qui souhaitent distribuer des applications aux utilisateurs d’appareils iOS/iPadOS.

La pomme se paie la concurrence
La première restriction porte sur l’utilisation obligatoire du système d’achat intégré propriétaire d’Apple – In-App Purchase (IPA) – pour la distribution de contenu numérique payant (5). « Apple facture aux développeurs d’applications une commission de 30 % sur tous les frais d’abonnement perçus par l’intermédiaire du système IAP », souligne la Commission européenne. La seconde restriction concerne la limitation des développeurs à informer les utilisateurs sur d’autres possibilités d’achat en dehors des applications, possibilités qui sont généralement moins coûteuses. Pourtant, relève la Commission européenne, « Apple permet également aux utilisateurs de consommer dans l’application du contenu, tel que de la musique, des livres électroniques et des livres audio, acheté ailleurs (par exemple sur le site web du développeur de l’application) ».
• Concernant le système de paiement électronique (Apple Pay), l’enquête porte, elle, sur « les modalités, conditions et autres mesures imposées par Apple pour l’intégration d’Apple Pay dans les applications commerciales et les sites web commerciaux sur les iPhone et les iPad, sur la limitation instaurée par Apple de l’accès à la fonctionnalité de communication en champ proche (NFC (6)) dite tapand- go sur les iPhone pour les paiements en magasin [paiement sans contact, ndlr], ainsi que sur des refus allégués d’accès à Apple Pay ».

Les abus des écosystèmes propriétaires
Le paiement mobile est devenu incontournable au fur et à mesure que les smartphones se sont imposés comme les premiers terminaux d’accès au Web et au e-commerce, que cela soit en ligne et dans les magasins physiques. Or il se trouve qu’Apple fixe les conditions de l’utilisation d’Apple Pay dans les applications et sur les sites web des commerçants. « Il est important que les mesures prises par Apple ne privent pas les consommateurs des avantages qu’offrent les nouvelles technologies de paiement, notamment en matière de choix, de qualité, d’innovation et de prix compétitifs, a prévenu Margrethe Vestager. J’ai donc décidé d’examiner de près les pratiques d’Apple concernant Apple Pay et leur incidence sur la concurrence ».
La marque à la pomme réserve également la fonctionnalité tap-and-go des iPhone à Apple Pay, qui est sa solution de paiement mobile propriétaire pour tous les terminaux sous iOS ou iPadOS en vue d’effectuer des paiements dans les applis mobiles à vocation commerciale, sur les sites de e-commerce, ou encore dans les magasins physiques (web-to-store, click-andcollect, click-and-go, drive-to-store, etc.). De plus, Apple Pay est la seule solution de paiement mobile qui puisse accéder à la technologie NFC tap-and-go intégrée aux smartphones et tablettes de la marque à la pomme pour effectuer des paiements en magasin. Alors que de son côté, la boutique d’applis Android de Google offre le choix dans les moyens de paiement. La Commission européenne craint que « les modalités et conditions d’Apple, ainsi que d’autres mesures liées à l’intégration d’Apple Pay aux fins de l’achat de biens et de services dans des applications commerciales et sur des sites web commerciaux sur les appareils sous iOS et iPadOS, ne puissent fausser la concurrence et réduire le choix et l’innovation ». L’enquête européenne sur les pratiques de la firme de Cupertino portera aussi sur « des restrictions alléguées d’accès à Apple Pay pour des produits spécifiques de concurrents sur les appareils mobiles intelligents sous iOS et iPadOS [et sur] l’incidence éventuelle des pratiques d’Apple sur la concurrence dans le domaine de la fourniture de solutions de paiement mobile ». Que cela soit pour l’App Store ou pour l’Apple Pay, la firme de Cupertino risque gros, si ses pratiques au sein de ses écosystèmes fermés et verrouillés – qui ne datent pas d’hier (7) – s’apparentaient à des « abus de position dominante » interdits (8) par le Traité de fonctionnement de l’Union européenne (TFUE). La Commission européenne serait alors en droit d’infliger à Apple une amende pouvant aller jusqu’à 10 % de son chiffre d’affaires total annuel – en fonction de la gravité et de la durée de l’infraction. Pour sa dernière année fiscale close le 28 septembre 2019, Apple a généré 46,3 milliards de dollars dans les services, sur un total de chiffre d’affaires de 260,2milliards de dollars. Par ailleurs, rappelons qu’en France l’Arcep avait en 2017 pointé du doigt le défaut de neutralité des terminaux d’Apple (9).
Le 16 juin dernier, Spotify s’est réjoui : « Aujourd’hui est un grand jour. Le comportement anticoncurrentiel d’Apple a intentionnellement désavantagé ses rivaux, créé une distorsion de la concurrence et privé les consommateurs d’un choix significatif pendant trop longtemps ». Le 18 juin, le président de Microsoft, Brad Smith, a estimé qu’« il est temps pour les régulateurs de la concurrence aux Etats-Unis et en Europe de s’intéresser aux tactiques que les boutiques d’applications mettent en œuvre [sans nommer explicitement Apple, ndlr] pour tirer profit de ceux qui veulent distribuer leurs logiciels ». Le jour même où la Commission européenne lui a notifié formellement l’ouverture de ces enquêtes, la firme de Cupertino a balayé les soupçons d’abus de position dominante et de pratiques anti-concurrentielles.

« Des plaintes sans fondement » (Apple)
« Il est décevant que la Commission européenne donne suite à des plaintes sans fondement d’une poignée d’entreprises, a réagi Apple, qui veulent simplement un voyage gratuit [free ride] et qui ne veulent pas suivre les mêmes règles que tout le monde. Nous ne pensons pas que ce soit juste, nous voulons maintenir des règles du jeu équitables où toute personne déterminée et ayant une bonne idée peut réussir ». Et le groupe dirigé par Tim Cook d’assurer : « En fin de compte, notre objectif est simple : que nos clients aient accès à la meilleure application ou au meilleur service de leur choix, dans un environnement sûr et sécurisé ». @

Charles de Laubier

Les « CSA » européens veulent plus de la Commission européenne contre les fake news

Les Google, Facebook et autres Twitter ont été contraints de se constituer en « police privée » pour chasser sur Internet les fausses informations. Liberté d’expression et liberté d’informer sont passées au crible pour supprimer les infox. Mais pour les « CSA » européens, cela ne pas assez loin.

Le groupe des régulateurs européens des médias audiovisuels, l’Erga (1), a publié le 6 mai son « rapport sur la désinformation et l’évaluation de la mise en œuvre du code de pratique » pour lutter contre les fake news. Ce rapport final intervient deux ans après l’adoption par la Commission européenne de mesures fondées sur les conclusions et les recommandations présentées le 12 mars 2018 par « un groupe d’experts de haut niveau » pour lutter contre la désinformation en ligne (2).

Autorégulation des acteurs du Net
Dans la foulée, le 24 avril 2018, la Commission européenne publiait une communication intitulée « Lutter contre la désinformation en ligne : une approche européenne » (3), qui préconisait un code de bonnes pratiques et de nouvelles règles visant à accroître la transparence et l’équité des plateformes en ligne, notamment la mise en place d’un réseau indépendant de vérificateurs de faits dans le cadre d’une démarche d’autorégulation des acteurs du Net. Ces derniers ont été fermement invités à coopérer avec l’exécutif européen dans cette croisade contre les mensonges, les manipulations et les informations erronées. Le 16 octobre 2018, les premiers signataires de ce « code de bonne conduite » furent Facebook, Google, Twitter et Mozilla (éditeur du navigateur Firefox).
Dans le même temps, l’Edima (European Digital Media Association) – lobby basé à Bruxelles et représentant les GAFAM (Google, Amazon, Facebook, Apple et Microsoft) ainsi que Airbnb, Allegro, eBay, Expedia, Mozilla Mozilla, OLX, Snap, TripAdvisor, Twitter, Verizon Media, Yelp et Spotify – signait également ce code « anti-fake news », tout comme les associations professionnelles représentant l’industrie de la publicité et les annonceurs (EACA, IAB Europe, WFA et UBA). Microsoft a également rejoint le 22 mai 2019 les entreprises signataires. C’est lors des élections européennes de mai 2019 que les plateformes numériques participantes – Facebook, Google et Twitter en tête – ont publié des rapports mensuels sur la mise en œuvre de leurs actions dans le cadre de ce « code de pratique sur la désinformation » et dans un souci de « transparence de la publicité politique ». Cinq relevés mensuels ont été publiés sur cette période électorale, de janvier à mai 2019, dont le dernier publié il y a un an, le 14 juin (4). L’Erga en a fait la synthèse dans un rapport « monitoring » intermédiaire, en concluant que les GAFAM pouvaient mieux faire. « Google, Twitter et Facebook ont fait des progrès évidents dans la mise en œuvre des engagements du “Code of Practice on Disinformation” en créant une procédure ad hoc pour l’identification des publicités politiques et de leurs sponsors, et en rendant accessible au public les publicités en question. Il s’agissait d’un effort sérieux visant à accroître la transparence. Cependant, bien que les plateformes aient fourni des informations substantielles qui pouvaient être significatives pour les utilisateurs individuels, le suivi indique que les bases de données auraient dû être davantage développées [notamment plus détaillées, ndlr] afin de fournir les outils et les données nécessaires pour assurer la qualité électorale » (5). Les régulateurs européens de l’audiovisuel avaient en outre déjà constaté que les notions de « désinformation » et de « publicité politique » n’ont pas de définitions partagées par les Etats membres, dont certains n’ont même aucune définition des publicités politiques. A cela s’ajoutait aussi le fait que la plupart des « CSA » en Europe disposaient de compétences, de pouvoirs et de ressources juridiques très limités pour s’engager dans l’activité de surveillance des plateformes en ligne. Il y a un an, l’Erga estimait alors que l’approche de coopération en matière de régulation – appelée aussi co-régulation – adoptée par les institutions européennes ne devait pas empêcher d’aller plus loin en rendant exécutoires ou contraignantes (enforceable) les dispositions du code « anti-infox ».

Renforcer les autorités de surveillance
Cela supposait aussi, selon l’Erga, que les autorités de régulation chargées de surveiller le respect de ces dispositions par les plateformes du Net disposent également d’outils, d’accès aux informations et de l’autonomie nécessaires pour s’acquitter de cette tâche. « Il est crucial que les autorités de surveillance [« monitors », dans le texte, ndlr] aient la possibilité de créer leurs propres requêtes, filtres et outils d’analyse qui devraient être orientés vers les données brutes, non filtrées et non gérées dans les bases de données des plateformes numériques. L’information devrait être fournie de manière à leur permet également d’établir facilement le volume de publicité sur une période de temps définie, de comprendre des informations détaillées sur les pages où les publicités apparaissent, de connaître qui financent ces publicités, et d’identifier le problème pertinent pour chaque annonce en question », avait encore conclu l’Erga. Toujours dans son rapport intermédiaire de juin 2019, le groupe des régulateurs européens des médias audiovisuels avait appelé la Commission européenne à aller plus loin et au-delà de la seule publicité politique, « première étape d’un processus qui, inévitablement, rapprochera les deux parties (régulateurs et plateformes) tant au niveau européen qu’au niveau national ». L’Erga souhaitait « un niveau de coopération plus élevé ». Un an après son rapport intermédiaire, force est de constater que les premières recommandations de l’Erga n’ont toujours pas été suivis d’effet.

Mais respecter la liberté d’expression
Le groupe des régulateurs européens des médias audiovisuels en a donc remis une couche à travers son rapport final publié le 6 mai dernier (6). « Malgré des efforts notables fournis par les plateformes, l’application de ce code n’est pas encore optimale, à ce jour », insiste le groupe des « CSA » européens auprès de la Commission européenne. Il lui recommande d’agir maintenant dans trois directions pour améliorer la lutte contre la dissémination des infox en ligne : « Améliorer le code existant, étendre ses engagements et explorer de nouveaux outils pour tendre vers une régulation plus efficace, cette dernière étant assortie d’obligations claires de rendre compte selon des procédures davantage harmonisées et dans des délais appropriés », résume le communiqué du CSA en France, daté du 6 mai. Et le président de l’Erga, Tobias Schmid (photo) d’enfoncer le clou : « La lutte contre la désinformation est de la plus haute importance pour notre démocratie. Nous devons préserver la valeur du discours public sur Internet en empêchant la diffusion délibérée de fausses informations tout en respectant la liberté d’expression. (…) Mais un danger doit être combattu là où il se présente. Par conséquent, nous devons également trouver des moyens de renforcer les efforts des [plateformes numériques] signataires pour accroître l’efficacité des mesures du code et de leurs activités de reporting ». L’Allemand Tobias Schmid est par ailleurs directeur de l’autorité médiatique du plus puissant Land, la Rhénaniedu- Nord-Westphalie, ainsi que chargé des Affaires européennes de la DLM qui réunit en Allemagne les directeurs des autorités médiatiques. Au-delà des publicités politiques, l’Erga estime que la pandémie du coronavirus démontre qu’il faut aller plus loin dans la lutte contre la désinformation : « La prolifération de fausses nouvelles, guidées par des objectifs politiques et/ou axés sur le profit, qui accompagne la récente éclosion de covid-19, n’est qu’un exemple de la façon dont les stratégies de manipulation de l’information posent de graves menaces à la formation de l’opinion publique. Il est important de démystifier de telles nouvelles pour protéger les valeurs démocratiques et contrer les tentatives d’incitation à la haine et à la violence ». A nouveau, les régulateurs de l’audiovisuel recommandent que l’ensemble des plateformes numérique de contenus sur Internet opérant en Europe adhèrent à ce code contre la désinformation. Et concrètement, ils appellent à une bien plus grande transparence, y compris des données beaucoup plus détaillées (en particulier des données par pays) sur la façon dont les signataires mettent en œuvre le code « antiinfox ». De façon à uniformiser l’application de ce code de bonne conduite, l’Erga suggère que les plateformes mettent à disposition des ensembles de data, des outils de suivi des données et des informations spécifiques à chaque pays donné pour permettre au régulateur national un suivi indépendant. L’Erga propose en outre d’aider la Commission européenne (au niveau de sa DG Connect) à établir des définitions pertinentes, y compris en matière de publicité politique, ainsi que des lignes directrices pour assurer une approche plus cohérente entre les Etats membres.
Et pour que la lutte contre les fake news soit vraiment efficace, se limiter à Google, Facebook ou Twitter ne suffit plus, toujours selon les « CSA » européens : « Le nombre de signataires du code de pratique sur la désinformation est limité et ne comprend pas certaines plateformes importantes, les services d’information et de communication et les acteurs de l’industrie de la publicité qui sont actifs dans l’Union européenne. Par conséquent, tous les efforts possibles doivent être déployés pour augmenter le nombre de plateformes signataires du code, afin d’éviter les asymétries réglementaires ». Quant à l’auto-régulation flexible actuelle, si elle a pu être un premier pas important et nécessaire, elle a montré aussi ses limites et son insuffisante efficacité. Pour contrer la désinformation en ligne, il est aussi suggéré à la Commission européenne de passer à « une approche de co-régulation ». Aussi, l’Erga se propose de l’aider en 2020 à identifier les mesures spécifiques et pour les plateformes les indicateurs de performance-clés – les « KPI », disent les Anglo-saxons, pour Key Performance Indicators. Last but not the least : l’Erga veut aider Bruxelles à définir des outils nécessaires aux activités de surveillance (monitoring) et d’exécution des autorités de régulation nationales.

Vers une loi européenne « anti-infox » ?
Mais les régulateurs européens de l’audiovisuel et des médias veulent que les institutions européennes aillent encore plus loin, quitte « à envisager une régulation fixée par la loi, comme l’ont fait certains Etats membres tels que la France (7) ou l’Allemagne (8) ». Cette régulation pourrait être prévue par le futur Digital Services Act (DSA) que doit présenter (lire p. 3) la Commission européenne d’ici la fin de l’année. @

Charles de Laubier