Directive Copyright : ce qu’en disent les GAFA

En fait. Le 26 mars, les eurodéputés ont voté à une majorité – 348 pour, 274 contre et 36 abstentions – en faveur de la directive européenne controversée sur le droit d’auteur dans le marché unique numérique. Pour Google, c’est « source d’insécurité juridique ». L’Edima, Digital Europe et la CCIA n’en pensent pas moins.

En clair. « La directive sur le droit d’auteur a fait l’objet d’améliorations mais sera toujours source d’une insécurité juridique qui pourra nuire au secteur de la création et
à l’économie numérique en Europe. Les détails ont une grande importance, et nous souhaitons collaborer avec les législateurs, les éditeurs, les créateurs et les ayants-droit lors de la transposition de cette nouvelle réglementation par les Etats membres de l’Union européenne ». Telle la déclaration officielle complète que Google a transmise
à Edition Multimédi@ après l’adoption le 26 mars de la directive « Copyright » (1). Comme le fait remarquer son concurrent franco-allemand Qwant (voir l’entretien en Une), le recours préventif aux outils de reconnaissance des contenus protégés sur les plateformes – tels que Content ID de YouTube (filiale de Google) – pourrait se retrouver en conflit avec d’autres directives européennes. Par exemple, l’article 13 devenu 17 de la nouvelle directive « Droit d’auteur » permettant le recours au filtrage du Net pour lutter contre le piratage pourrait se heurter frontalement avec l’article 15 de la directive « E-commerce » intitulé justement « Absence d’obligation générale en matière de surveillance » (2). De plus, cela supposerait le consentement préalable des internautes prévu par le RGPD (3). L’Edima, organisation basée à Bruxelles et représentant notamment les GAFA (4), « regrette le manque de clarté et de pragmatisme des deux articles-clé de la directive » – faisant ainsi référence aux articles 13 (devenu 17) et 11 (devenu 15), ce dernier instaurant un droit voisin pour la presse payable par les GAFA. Et sa directrice générale, Siada El Ramly, de déclarer : « La directive Copyright sape d’autres lois de l’Union européenne ; elle tente d’imposer un business model de licences sur des plateformes ouvertes et d’affaiblir les droits fondamentaux à la vie privée et à la liberté d’expression des citoyens européens ».
La filiale d’Alphabet est aussi membre de Digital Europe, qui ne voit « ni certitude ni clarté, mais seulement complexité », ainsi que de l’association CCIA aux Etats-Unis, laquelle dénonce le caractère « disproportionnée » de la directive « Copyright » qui
« porte atteinte à la légalité des outils et sites (web) » et qui « incite à surfiltrer et à supprimer les téléchargements des utilisateurs ». @

Tout en justifiant son soutien à la directive « Copyright », Qwant prépare une grosse levée de fonds et vise la Bourse

Slogan de Qwant : « Le moteur de recherche qui respecte votre vie privée » – … « et le droit d’auteur », rajouteraiton depuis que son PDG Eric Léandri soutient la directive « Droit d’auteur » – adoptée le 26 mars. Mais il se dit opposé au filtrage du Net. Côté finances, le moteur de recherche veut lever 100 millions d’euros et vise la Bourse.

Qwant, société franco-allemande dont le capital est détenu majoritairement par son PDG fondateur Eric Léandri (photo), à 20 % par la CDC et à 18,4 % par le groupe de médias allemand Axel Springer (1), cherche d’abord à lever 30 millions d’euros de cash dans les deux mois. Objectif : accélérer le développement de ses plateformes. « Nous sollicitons des investisseurs, tandis que nos actionnaires CDC et Axel Springer nous suivent. Ensuite, nous irons vers une vraie belle augmentation de capital d’ici la fin de l’année ou début 2020, avec une levée de fonds à 100 millions d’euros », indique Eric Léandri à Edition Multimédi@. Avec une introduction en Bourse à cette occasion ? « Allez savoir… Rien n’est fermé ! Pour cela, vous avez des obligations d’être propre au niveau comptable », nous a-t-il confié. Concernant le financement de 25 millions d’euros consenti par la Banque européenne d’investissement (BEI) en octobre 2015, le solde a finalement été entièrement versé en 2018. Le renforcement financier de Qwant prend du temps, l’explication de son soutien à la directive européenne « Droit d’auteur dans le marché unique numérique » aussi ! Eric Léandri ne cesse de devoir justifier son choix – mais en assurant qu’il est contre les robots de filtrage automatisé que permet l’article 13 (devenu 17) de cette directive adoptée le 26 mars.

Liberté de l’Internet versus presse indépendante ?
 « Il fallait que la directive “Droit d’auteur” soit votée pour que la presse finisse par être indépendante et libre. Sinon, d’ici trois ans, il n’y aura plus de journaux, sauf quelques-uns financés par des géants et des journalistes payés au lance-pierre. Et sans presse, un moteur de recherche n’est pas capable de vous donner autre chose que les résultats de l’Internet », nous explique-t-il. D’un côté, il est salué par le ministre de la Culture, Franck Riester, pour « a[voir]annoncé le 20 mars son engagement en faveur de la directive “Droit d’auteur” ». De l’autre, il est critiqué pour avoir appelé à voter pour un texte qui déroule le tapis rouge aux robots filtreurs au profit des  ayants droits mais – potentiellement – au détriment de la liberté d’expression et des droits fondamentaux.
« Je ne mets pas en balance la liberté de l’Internet contre la liberté des auteurs et ayants droit, nous assure Eric Léandri. Je dis que ce n’est pas des robots filtreurs qu’il faut mettre devant les sites web ».

« Précédent démocratiquement redoutable »
Et le PDG de Qwant de mettre en garde les industries culturelles : « Si c’est le filtrage généralisé que veulent nos amis les ayants droits, ils vont se retrouver en conflit avec d’autres dispositions européennes qui l’interdisent (4) ». Pour un moteur de recherche européen « qui protège les libertés de ses utilisateurs », mais qui ouvre la boîte de Pandore à la légalisation du filtrage généralisé sur « un Internet libre » dont il se revendique pourtant comme un de ses fervents « défenseurs », c’est pour le moins troublant. Le paradoxe de Qwant a de quoi désorienter les internautes qui, à raison
de 70 millions de visites par mois atteintes à ce jour par cet « anti- Google », ont généré en 2018 plus de 18 milliards de requêtes, contre 9,8 milliards en 2017. Le moteur de recherche franco-allemande ne cesse de vanter son modèle avec « zéro traceur publicitaire », son PDG allant jusqu’à présenter son moteur de recherche comme « la Suisse de l’Internet ». Cela ne l’empêche pas d’aller dans le sens du risque énorme pour le Web – 30 ans cette année (5) – de voir se généraliser les robots pour surveiller les contenus de ses utilisateurs.
Pour éviter d’en arriver là, tout va maintenant se jouer lors de la transposition dans chaque pays européen de cette directive « Droit d’auteur » et de son article 13 (devenu 17), lequel (6), concède Eric Léandri, « est écrit avec les pieds » ! « Battons-nous pour mettre en place un site web, totalement open source de base de données globale partagée des auteurs, interrogeable à tout moment, qui est le contraire d’un filtre. Car si l’on généralise par exemple Content ID de YouTube, qui récupérera alors les adresses IP des internautes, cela entre là aussi en contradiction avec toutes les lois européennes – dont le RGPD (7) exigeant le consentement préalable des visiteurs. Cela ne passera pas », prévient-il. Le PDG de Qwant affirme n’être ni « anti-droit d’auteur » ni « pro-GAFA ». Dans un droit de réponse en juillet 2018, sa société mettait tout de même
en garde : « L’article 13 [le 17] créerait de notre point de vue un précédent démocratiquement redoutable » (8). Guillaume Champeau (photo de droite), l’ancien journaliste fondateur et dirigeant de Numerama, devenu il y a deux ans et demi directeur « Ethique et Affaires juridiques » de Qwant, ne disait pas autre chose sur le blog de l’entreprise en juin 2018 : « [L’article 13 devenu 17]exigera des plateformes qu’elles implémentent des méthodes de filtrage automatisées. (…) Ceci aura un impact sur la liberté d’expression » (9). Et il sait de quoi il parle, lui qui fut l’auteur d’un mémoire universitaire en 2015 intitulé « Les intermédiaires de l’Internet face aux droits de l’homme : de l’obligation de respecter à la responsabilité de protéger ». Tristan Nitot, ancien dirigeant de Mozilla Europe devenu il y a près d’un an vice-président
« Advocacy, Open Source & Privacy » de Qwant, se retrouve lui-aussi en porte-à-faux après l’adoption de la directive « Copyright ». Ces deux dirigeants ont forgé ces dernières années leur réputation sur la défense des droits fondamentaux sur un Internet ouvert et neutre. Vont-ils démissionner pour autant ? « Démissions ? Non, il y a aucune démission en perspective, nous répond Eric Léandri. Ils veulent maintenant trouver des solutions. Il n’est pas question de démissionner devant des lois qui ne me conviennent pas vraiment, mais qui empêchent les uns (grands) d’écrabouiller les autres (petits) ». Dans un tweet posté juste après le vote des eurodéputés en faveur de la directive
« Copyright » (lire p.3), le directeur « Ethique et Affaires juridiques » de Qwant ne s’avoue pas vaincu pour autant : « Maintenant que la #CopyrightDirective a été adoptée, nous devons travailler ensemble pour créer les outils libres et ouverts dont nous aurons besoin (y compris une base de données ouverte de signatures d’oeuvres protégées). L’article 13 [le 17] ne devrait pas être appliqué sans ceux-ci ! ». Ce projet de serveur centralisé en laisse perplexes plus d’un (10) (*). Cette solution de la dernière chance a pour but d’éviter non seulement les robots filtreurs mais aussi de recourir aux technologies propriétaires d’identification des œuvres, telles que Content ID (11) ou à Rights Manager de Facebook. Et le PDG de Qwant d’assurer à Edition Multimédi@ :
« Ma proposition règle tous les problèmes et n’entre en conflit avec aucun autre règlement. Qwant financera cette plateforme, non exclusive, que l’on mettra à disposition courant avril. Ce site aura une capacité à gérer des milliards de photos [y compris vidéos, musiques et textes, ndlr]. Nous mettrons aussi les technologies open source à disposition pour que cette base puisse être dupliquée partout en Europe ».

« Mission d’étude » Hadopi-CNC-CSPLA
Mais quid du reste du monde au regard de l’Internet sans frontières ? Reste à savoir
s’il ne s’agira pas d’une usine à gaz. Qwant n’ira pas voir lui-même tous les éditeurs de contenus ; ce sont eux qui les déposeront dans la base d’indexation pour les protéger. L’Hadopi, le CNC et le CSPLA ont lancé le 1er avril « une mission conjointe d’étude et de propositions sur les outils de reconnaissance des contenus protégés sur les plateformes ». @

Charles de Laubier

User-Generated Video (UGV) : la directive SMA ne doit pas tuer ni la liberté d’expression ni la créativité

La nouvelle directive sur les services de médias audiovisuels (SMA) vient
d’être promulguée au JOUE du 28 novembre. Mais, afin d’épargner la liberté d’expression et la créativité, la Commission européenne consulte encore en
vue de publier « le plus rapidement possible » des « lignes directrices ».

Le 14 novembre, les présidents respectifs du Parlement européen et du Conseil de l’Union européenne ont signé la nouvelle directive concernant « la fourniture de services de médias audiovisuels, compte tenu de l’évolution des réalités du marché ». Cette directive dite SMA (services de médias audiovisuels), qui fut définitivement adoptée le 6 novembre,
a été publiée le 28 novembre au Journal Officiel de l’Union européenne (JOUE). Ce texte communautaire – en français ici (1) – doit maintenant être obligatoirement transposé par les Etats membres « au plus tard le 19 septembre 2020 ».

Une menace pour les droits fondamentaux
Mais le plus délicat reste à venir pour les régulateurs audiovisuels nationaux tels que
le Conseil supérieur de l’audiovisuel (CSA) en France. Les YouTube, Dailymotion et autres plateformes vidéo (Facebook, Snapchat, Musical.ly/TikTok, …) sont en effet désormais visés – comme les services de télévision traditionnels et les services de diffusion à la demande (replay et VOD) – par la nouvelle directive SMA censée protéger les mineurs contre les contenus préjudiciables comme la pornographie et protéger tous les citoyens européens contre la haine et les propos racistes, ainsi qu’en interdisant tout contenu incitant à la violence et au terrorisme. Or la question la plus sensible est celle de la définition des User-Generated Video (UGV), qui sont aux plateformes vidéo en particulier ce que les User-Generated Content (UGC) sont à Internet en général. Autrement dit, la liberté d’expression et la créativité des internautes et mobinautes
– rompus aux contenus créés par eux-mêmes – ne doivent pas être les victimes collatérales de la nouvelle régulation des plateformes vidéo.
La tâche des régulateurs nationaux de l’audiovisuel est d’autant moins facile que le nouveaux texte législatif européen manque de clarté, au point qu’il prévoit lui-même que la Commission européenne doit « dans un souci de clarté, d’efficacité et de cohérence de la mise en oeuvre, (…) publier des orientations, après consultation
du comité de contact, sur l’application pratique du critère relatif à la fonctionnalité essentielle figurant dans la définition d’un “service de plateformes de partage de
vidéos” ». Selon les informations de Edition Multimédi@, la Commission européenne
a tout juste commencé à discuter de ces lignes directrices lors d’une première réunion le 12 novembre dernier (2). D’après une porte-parole, Nathalie Vandystadt (photo),
« aucune date précise n’est encore prévue pour la publication des lignes directrices mais la Commission européenne compte les adopter le plus rapidement possible,
après consultation des Etats membres [comité de contact, ndlr] et un atelier sur cette question ». Car entre la théorie et la pratique, les « CSA » européens sont quelque peu démunis face à un texte sujet à interprétations – notamment vis-à-vis des UGV. « Ces orientations devraient être rédigées en tenant dûment compte des objectifs d’intérêt public général à atteindre par les mesures à prendre par les fournisseurs de plateformes de partage de vidéos et du droit à la liberté d’expression », prévient le considérant n°5 de la directive SMA révisée. Les acteurs du Net, eux, étaient plutôt favorables à une autorégulation et non à une nouvelle réglementation contraignante (3). Trois pays – la Finlande, l’Irlande et les Pays-Bas – avaient même émis des réserves sur la portée de cette nouvelle directive modifiant l’ancienne directive SMA de 2010 (4). Dans leur déclaration conjointe du 18 octobre dernier, ils estiment que « la directive SMA n’est pas le cadre approprié pour réglementer les plateformes de partage de vidéos, étant donné que le reste du champ d’application de la directive couvre uniquement les services de médias audiovisuels pour lesquels le fournisseur de services a la responsabilité éditoriale du contenu du programme ». Ces trois pays du Nord de l’Europe mettent en garde contre les dérives possibles au détriment de la liberté d’expression et de la créativité, tout en justifiant qu’ils ne voteront pas pour cette directive révisée : « La réglementation proposée des plateformes de partage de vidéos est difficile à contrôler et elle peut provoquer des effets secondaires indésirables et occasionner une charge administrative disproportionnée ».

Des UGC (Content) aux UGV (Video)
Et la Finlande, l’Irlande et les Pays-Bas d’enfoncer le clou : « Nous estimons que le manque de clarté, aggravé par l’absence d’analyses d’impact et de base factuelle solide, est susceptible de compromettre la sécurité juridique dont ont besoin les régulateurs et le secteur pour mettre en oeuvre les dispositions d’une manière claire, cohérente et effective et dont a besoin le secteur pour innover. Il peut également menacer la capacité des citoyens européens à exercer leurs droits fondamentaux, en particulier leur liberté d’expression ». La convergence entre la télévision et les services Internet a profondément révolutionné le monde de l’audiovisuel et les usages, tant dans la consommation de vidéos que dans leur production par les utilisateurs eux-mêmes. La génération « Millennials » est plus encline à partager des vidéos sur les médias sociaux et les plateformes numériques qu’à rester dans le salon à regarder les chaînes linéaires. Le phénomène des UGV, souvent pétris de liberté d’expression, change la donne.

Des allures de régulation de l’Internet
La directive SMA n’a pas pour but, nous explique-t-on, de réguler les services de médias sociaux en tant que tels, mais elle devrait s’appliquer à ces services « si la fourniture de programmes et de vidéos créées par l’utilisateur en constitue une fonctionnalité essentielle ». Or le législateur européen a considéré que la fourniture
de programmes et des UGV – ces vidéos créées par l’utilisateur – constitue une fonctionnalité essentielle d’un service de médias sociaux « si le contenu audiovisuel n’est pas simplement accessoire ou ne constitue pas une partie mineure des activités de ce service de médias sociaux » (5).
Mais le diable est dans les détails : lorsqu’une partie dissociable d’un service constitue un service de plateformes de partage de vidéos au sens de la directive SMA, seule cette partie « devrait » être concernée par la réglementation audiovisuelle et uniquement pour ce qui est des programmes et des vidéos créées par l’utilisateur.
« Les clips vidéo incorporés dans le contenu éditorial des versions électroniques de journaux et de magazines, et les images animées, au format GIF notamment, ne devraient pas être couverts (…).
La définition d’un service de plateformes de partage de vidéos ne devrait pas couvrir les activités non économiques, telles que la fourniture de contenu audiovisuel de sites web privés et de communautés d’intérêt non commerciales », peut-on lire au considérant n°6. Les « CSA » européens, réunis au sein du Groupe des régulateurs européens des services de médias audiovisuels (ERGA (6)), s’interrogent d’ailleurs eux-mêmes sur l’application qui doit être faire – qui plus est de façon harmonisée à travers les Vingt-huit – de cette directive SMA qui prend des allures de régulation du Net. Dans leur livre d’analyse et de discussion publié le 6 novembre (7) sur l’implémentation de la nouvelle directive SMA, les gendarmes de l’audiovisuel en Europe s’attardent sur la notion de
« service de plateformes de partage de vidéos » introduite dans le premier article de la directive révisée. Ce service de type YouTube ou Dailymotion consiste en « la fourniture au grand public de programmes, de vidéos créées par l’utilisateur [UGV, ndlr], ou des deux, qui ne relèvent pas de la responsabilité éditoriale du fournisseur de la plateforme de partage de vidéos, dans le but d’informer, de divertir ou d’éduquer ». Parmi leurs 34 propositions, les membres de l’ERGA appellent la Commission européenne à fournir une orientation (guidance) afin d’aborder les questions soulevées par la définition de UGV. En substance, quelle est la différence entre une vidéo créée par l’utilisateur et un programme audiovisuel ? Les « CSA » européens veulent disposer de l’interprétation la plus compréhensible possible de la notion d’UGV afin de protéger les publics de ces plateformes vidéo, sur lesquelles sont « uploadées » par les utilisateurs des vidéos qui relèvent de la liberté d’expression et de droits fondamentaux. Toujours dans l’article 1er de la directive SMA révisée, la vidéo créée par l’utilisateur est définie comme étant « un ensemble d’images animées, combinées ou non à du son, constituant un seul élément, quelle qu’en soit la longueur, qui est créé par un utilisateur et téléchargé vers une plateforme de partage de vidéos par ce même utilisateur ou par n’importe quel autre utilisateur ». Quant à l’article 28 ter, il stipule dans le détail que « les fournisseurs de plateformes de partage de vidéos relevant de leur compétence prennent les mesures appropriées pour protéger : a) les mineurs des programmes, vidéos créées par l’utilisateur et communications commerciales audiovisuelles susceptibles de nuire à leur épanouissement physique, mental ou moral (…) ; le grand public des programmes, vidéos créées par l’utilisateur et communications commerciales audiovisuelles comportant une incitation à la violence ou à la haine visant un groupe de personnes ou un membre d’un groupe (…) ; le grand public des programmes, vidéos créées par l’utilisateur et communications commerciales audiovisuelles comportant des contenus dont la diffusion constitue une infraction pénale au titre du droit de l’Union, à savoir la provocation publique à commettre une infraction terroriste (…), les infractions liées à la pédopornographie (…) et les infractions relevant du racisme et de la xénophobie (…) ». On l’aura compris, les vidéos créées par l’utilisateur sont désormais mises sous surveillance par les plateformes du Net qui risquent bien d’appliquer le principe de précaution juridique pour ne pas tomber sous le coup de la loi.

Ni surveillance généralisée ni de filtrage ?
Afin de ne pas être en contradiction avec la directive européenne « Commerce électronique » de 2000 (8), notamment avec son article 15 (« Absence d’obligation générale en matière de surveillance ») selon lequel les Etats membres ne doivent pas imposer aux [hébergeurs] une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites », la directive SMA révisée se veut compatible. « Ces mesures n’entraînent pas de mesures de contrôle ex anteni de filtrage de contenus au moment de la mise en ligne qui ne soient pas conformes à l’article 15 de la directive [« Commerce électronique »] ». C’est à voir. @

Charles de Laubier

Réforme du droit d’auteur : les eurodéputés rejettent le risque de filtrage généralisé d’Internet

En rejetant le 5 juillet 2018 la réforme controversée de la directive sur le droit d’auteur, les eurodéputés jouent les prolongations en renvoyant la poursuite des débats à septembre prochain. Le risque de filtrage généralisé de l’Internet est l’un des points noirs de ce projet législatif.

L’article 13 de la directive européenne « Droit d’auteur dans le marché unique numérique » est le plus controversé de la réforme du copyright, contre laquelle 318 eurodéputés se sont prononcés contre le 5 juillet à Strasbourg (versus 278 pour et 31 abstention). Cet article 13 est celui qui fait le plus débat – voire polémique – dans ce projet de texte qui vient d’être rejeté. Car il introduirait une responsabilité des plateformes du numériques – de YouTube à Facebook, en passant par Twitter, Dailymotion ou encore Wikipedia – sur le sort des contenus (musiques, films, photos, …) qu’elles hébergent et mettent à disposition sur Internet.

L’article 13 cristallise l’opposition
Cet article 13, qui avait pourtant obtenu le 20 juin dernier la bénédiction de la commission des Affaires juridiques (JURI) du Parlement européen (15 voix pour,
10 contre), présente le risque d’ouvrir la voie au filtrage généralisé d’Internet dans la mesure où les GAFA devraient supprimer de façon préventive les contenus considérés comme piratés. Leur responsabilité serait ainsi étendue à la lutte contre le piratage en ligne, au point de leur demander d’utiliser le filtrage automatique de téléchargement en cas de violation de la propriété intellectuelle. YouTube, la filiale vidéo de Google, utilise déjà un système d’identification des contenus protégés, baptisé Content ID, qui détecte automatiquement les violations présumées de droits d’auteur. Un fois que le contenu
« piraté » est repéré, YouTube le supprime aussitôt.
C’est la perspective de ce filtrage généralisé qui pose problème depuis la présentation de ce projet de directive en septembre 2016 par la Commission européenne. Le 25 mai dernier, les Etats membres, au sein du Conseil de l’Union européenne, s’étaient mis d’accord sur la responsabilisation des plateformes. Le projet de texte (1) oblige les prestataires de services à obtenir l’autorisation des ayants droits. Ainsi, l’article 13 stipule : « Quand il a aucune autorisation, par exemple parce que le détenteur de droits ne veut pas conclure une licence, le prestataire de services devra empêcher la disponibilité des œuvres identifiées par l’ayant droit. Sinon, les prestataires de service seront considérés comme responsables de l’infraction au copyright. (…) Sur la notification par l’ayant droit d’une oeuvre protégée non autorisé, le prestataire de services devra prendre des mesures urgentes pour supprimer l’oeuvre et l’empêcher de devenir disponible à l’avenir ». Autrement dit, en absence de d’autorisation de l’ayant droit, un fournisseur de services de partage de contenu en ligne sera tenu pour responsable s’il ne démontre pas qu’il a fait preuve des meilleurs efforts pour empêcher la disponibilité des œuvres spécifiques ou autres « en mettant en oeuvre des mesures efficaces et proportionnées, pour empêcher la disponibilité sur ses services des œuvres spécifiques ou autres identifiées par le détenteur de droits et pour lequel celui-ci a fourni au service des informations pertinentes et nécessaires pour l’application de ces mesures, et sur notification de l’ayant droit ». Cet article 13 soulève de nombreux problèmes de compatibilité avec la directive européenne de 2000 sur le commerce électronique (2), laquelle régit – depuis près de vingt ans maintenant – une bonne partie des responsabilités des acteurs de l’Internet qui ne sont soumis à aucune obligation de surveillance préalable des contenus. Le statut d’hébergeur à responsabilité limité avait d’ailleurs été conforté le 24 novembre 2011 par la Cour de justice de l’Union européenne (CJUE) dans un arrêt « Scarlet contre Sabam » dans lequel elle a décidé que« le droit de l’Union s’oppose à une injonction faite à un [fournisseur d’Internet] de mettre en place un système de filtrage de toutes les communications électroniques transitant par ses services ». La directive « e-commerce » de 2000 prévoit en effet, dans son article 15 intitulé « Absence d’obligation générale en matière de surveillance », que « les États membres ne doivent pas imposer aux [fournisseur d’Internet] une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites » (3).

Les arrêts « contre » de la CJUE
De plus, la CJUE avait estimé qu’« une telle obligation de surveillance générale serait incompatible » avec une autre directive et non des moindres : à savoir la directive « Propriété intellectuelle » du 29 avril 2004 (4), selon laquelle « les mesures [pour assurer le respect des droits de propriété intellectuelle] ne doivent pas être inutilement complexes ou coûteuses et ne doivent pas comporter de délais déraisonnables ». Ce qui n’est pas le cas du filtrage généralisé. Et comme si cela ne suffisait pas, les juges européens en ont appelé à la Charte des droits fondamentaux de l’Union européenne signée le 7 décembre 2000 et devenue « force juridique obligatoire » depuis l’entrée en vigueur du Traité de Lisbonne en décembre 2009. « La protection du droit de propriété intellectuelle est certes consacrée [par] la charte des droits fondamentaux de l’Union européenne (article 17, paragraphe 2). Cela étant, il ne ressort nullement (…) qu’un tel droit serait intangible et que sa protection devrait donc être assurée de manière absolue », a estimé la CJUE. Un autre arrêt européen, daté du 16 février 2012 celui-là (Sabam contre Netlog (5)), s’est lui aussi opposé à une surveillance généralisée du Net. En France, la loi pour la confiance dans l’économie numérique (LCEN) de 2004 est venue à son tour sanctuariser ce régime de responsabilité limitée de l’hébergeur.

Mises en garde et controverses
Malgré toutes ces précautions législatives et jurisprudentielles, le statut des hébergeurs du Net était menacé. Les mises en gardes des opposants et les campagnes des lobbies ont finalement abouti au rejet du 5 juillet. « Ces mesures [si elles devaient être adoptées à la rentrée, ndlr] vont sérieusement saper les libertés fondamentales de l’Internet. Placer les intérêts particuliers des grosses compagnies média avant notre capacité à participer librement en ligne est inacceptable », avait lancé le 20 juin dernier l’eurodéputée Julia Reda (photo), qui fut l’auteur en 2015 du premier rapport (6) demandé par le Parlement européen en vue de cette réforme du droit d’auteur à l’ère du numérique. Selon elle, « l’article 13 va forcer les plateformes Internet (réseaux sociaux, sites vidéo, hébergeurs de photos, etc.) à installer de puissants filtres pour inspecter tout contenu publié par des utilisateurs, aussi en images – et donc à bloquer la plupart des “mèmes” (7), ceux-ci étant en général basé sur des images connues et non libres de droits ». Du côté des utilisateurs, le Bureau européen des unions de consommateurs (Beuc), basé à Bruxelles, avait exprimé son inquiétude, par la voix de sa directrice générale, Monique Goyens :
« Internet tel que nous le connaissons ne sera plus le même à partir du moment où les plateformes devront systématiquement filtrer le contenu que les utilisateurs veulent télécharger. Internet va passer d’un lieu où les utilisateurs peuvent partager leurs créations et leurs idées à un lieu contraignant et contrôlé ». La Quadrature du Net, elle, avait dénoncé très tôt « l’automatisation de la censure au nom de la protection du droit d’auteur et, plus largement, contre la centralisation du Web » (8). Cette association de défense des droits et libertés numériques a pris acte des « garanties » présentées par l’eurodéputé rapporteur du texte, Axel Voss, à savoir contre des censures arbitraires ou abusives : la censure opérée par les plateformes ne doit pas conduire au filtrage de contenus qui ne contreviennent pas à un droit d’auteur, ni au déploiement d’une surveillance généralisée des contenus mis en ligne ; un mécanisme de contestation rapide auprès de la plateforme, ainsi que la possibilité de saisir un juge afin de faire valoir des exceptions au droit d’auteur qui rendraient le filtrage injustifié. Mais ce compromis n’avait pas convaincu La Quadrature du Net, ni même Wikipedia qui avait protesté le 4 juillet en se rendant inaccessible dans plusieurs pays européens. Surtout qu’un article 11 prévoit, lui, l’instauration d’un droit voisin pour les éditeurs de presse. Encore plus contesté que l’article 13, il fut adopté le 20 juin dernier de justesse (13 voix pour, 12 contre). Ce droit voisin va permettre aux journaux, magazines ou encore aux agences de presse de se faire rémunérer lors de la réutilisation en ligne de leurs contenus par les agrégateurs d’informations tels que Google News ou Yahoo News (9). Surnommée « taxe sur les liens » (link tax) pour les contenus d’actualité, cette mesure suppose aussi de surveiller et filtrer Internet pour la mettre en oeuvre. « Le filtrage automatique des téléchargements et les droits voisins vont entraîner une censure de la liberté d’expression en ligne et un délitement d’Internet tel que nous le connaissons », avait déclaré Siada El Ramly, directrice générale d’Edima (European Digital Media Association), organisation représentant les GAFA (10). Le 5 juillet, l’Edima a considéré le rejet du texte comme « une victoire pour la démocratie ». Quant à l’association CCIA (Computer & Communications Industry Association), basée aux Etats-Unis et porte-parole des mêmes géants américains du Net, elle avait fustigé aussi la réforme du droit d’auteur : « Les filtres de téléchargement présenteront une obligation générale de contrôler le contenu téléchargé par l’utilisateur, ce qui sera destructeur pour les droits fondamentaux des citoyens européens et pour responsabilité limité des plateformes – une pierre angulaire légale pour le secteur numérique européen ».
En France, l’Association des services Internet communautaires (Asic) – présidée par Giuseppe de Martino (11) – avait lancé un appel le 13 avril dernier, dans une tribune parue dans Le Monde et cosignée par le Syntec numérique, France Digitale, Tech in France et Renaissance numérique, en demandant « au gouvernement français de préserver l’Internet ouvert tel que nous le connaissons actuellement, en empêchant l’instauration d’un filtrage généralisé ». Ensemble, ils ont mis en garde : « Le développement d’Internet, la créativité, la diversité des contenus que l’on peut y trouver et qui font sa richesse s’en trouveraient gravement menacés ». Les eurodéputés les ont entendus.

« Outils automatiques » et contenus illicites
La Commission européenne, elle, incite fortement les plateformes à mettre en place des « outils automatiques » de détection pour lutter non seulement contre le piratage en ligne mais aussi les contenus à caractère terroriste, les incitations à la haine et à la violence, les contenus pédopornographiques, les produits de contrefaçon. C’est le sens de sa recommandation du 1er mars (12). Elle avait fixé l’échéance du mois de mai 2018 avant de décider s’il y a lieu ou pas de légiférer. @

Charles de Laubier

Contenus illicites et piratage en ligne : la Commission européenne menace de légiférer si…

Si les acteurs du Net n’appliquent pas ses recommandations pour lutter contre les contenus à caractère terroriste, les incitations à la haine et à la violence, les contenus pédopornographiques, les produits de contrefaçon et les violations du droit d’auteur, la Commission européenne se dit prête sévir.

Facebook, Twitter, YouTube, Google, Microsoft et bien d’autres plateformes numériques et réseaux sociaux sont plus que jamais mis sous surveillance par la Commission européenne, laquelle les incite fortement – voire les obligera à terme si cela s’avérait nécessaire – à suivre ses recommandations publiées le 1er mars pour lutter contre les contenus illicites (terrorisme, haine, violence, …) et le piratage en ligne d’œuvres protégées par le droit d’auteur (musique, films, jeux vidéo, ebooks, …).

« Outils automatiques » et « vérification humaines »
Il s’agit pour les GAFAM et tous les autres de retirer le plus rapidement possible
les contenus illicites de l’Internet. Les « mesures opérationnelles » que préconisent l’exécutif européen – dans sa recommandation du 1er mars 2018 « sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne » (1) –
ont pour but d’« accélérer la détection et la suppression du contenu illicites en ligne », tout en invitant les entreprises du Net à « appliquer le principe de proportionnalité lors de la suppression de contenu illicite » et « éviter la suppression – involontaire ou erronée – du contenu qui n’est pas illicite » (2) – notamment en prévoyant des procédures accélérées pour les « signaleurs de confiance ».
Il s’agit aussi de faire en sorte que les fournisseurs de contenus soient informés des suppressions de contenus illicites en ligne, afin qu’ils aient la possibilité de les contester par la voie d’un « contre-signalement ». En amont, les plateformes numériques et les réseaux sociaux sont tenus d’établir des règles simples et transparentes pour
« la notification du contenu illicite » ainsi que « des systèmes de notification clairs » pour les utilisateurs. Pour la suppression de ces contenus illicites, la Commission européenne demande à ce que, aux côtés des « outils proactifs » ou « outils automatiques » de détection et de suppression, les acteurs du Net aient aussi recours aussi à des « moyens de supervision et de vérification humaines ». Et ce, afin que les droits fondamentaux, la liberté d’expression et les règles en matière de protection des données soient respectés. Pour autant, dès qu’il existe des preuves d’une infraction pénale grave ou le soupçon qu’un contenu illicite représente une menace pour la vie d’autrui ou la sécurité, « les entreprises doivent informer sans délai les autorités répressives » – « les Etats membres [étant] encouragés à établir les obligations légales appropriées ». Quant aux contenus en ligne à caractère terroriste, ils font, eux, l’objet d’un traitement spécial et d’une « procédures accélérées » (voir encadré page suivante). Les Etats membres et les acteurs du numérique sont « invités » à présenter « dans un délai de six mois » des informations pertinentes sur tous les types de contenus illicites – exceptés les contenus à caractère terroriste où le délai du rapport est de trois mois.
Le vice-président pour le marché unique numérique, Andrus Ansip (photo), table sur l’autorégulation. Mais il menace de prendre des mesures législatives si cette autorégulation des plateformes ne donne pas des résultats efficaces. D’autant que le Parlement européen a déjà enjoint aux acteurs du Net, dans sa résolution du 15 juin 2017 sur les plateformes en ligne et le marché unique numérique (3), de « renforcer leurs mesures de lutte contre les contenus en ligne illégaux et dangereux », tout en invitant la Commission européenne à présenter des propositions pour traiter ces problèmes. Celle-ci va lancer « dans les semaines à venir » une consultation publique. « Ce qui est illicite hors ligne l’est aussi en ligne », prévient-elle. Il y a six mois, l’échéance du mois de mai 2018 avait été fixée pour aboutir sur le sujet et décider s’il y a lieu ou pas de légiférer.

Violations du droit d’auteur, fraudes, haines, …
Ainsi, cinq grandes catégories de contenus illicites en ligne sont susceptibles d’enfreindre des directives européennes déjà en vigueur :
• Violations des droits de propriété intellectuelle, au regard de la directive du 22 mai 2001 sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information – directive dite DADVSI (4).
• Escroqueries et fraudes commerciales, au regard de la directive du 11 mai 2005 sur les pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs dans le marché intérieur (5), ou la directive du 25 octobre 2011 relative aux droits des consommateurs (6).
• Discours de haine illégaux, au regard de la décision-cadre du 6 décembre 2008 sur la lutte contre certaines formes et manifestations de racisme et de xénophobie au moyen du droit pénal (7).
• Matériel pédopornographique, au regard de la directive du 13 décembre 2011 pour la lutte contre les abus sexuels et l’exploitation sexuelle des enfants, ainsi que la pédopornographie (8).
• Contenu à caractère terroriste, au regard de la directive du 15 mars 2017 pour la lutte contre le terrorisme (9).

Vers le filtrage automatisé de l’Internet
Cette recommandation « Contenus illicites en ligne » du 1er mars 2018 sera complémentaire de la révision en cours de la directive « Services de médias audiovisuels » (SMA) qui prévoit des mesures législatives spéciales pour protéger
les mineurs en ligne contre les contenus préjudiciables (10) et tous les citoyens contre les discours de haine (11). Et bien qu’elle n’ait pas de caractère contraignant comme une directive ou un règlement, la recommandation va plus loin que les orientations
pour lutter contre le contenu illicite en ligne présentées en septembre 2017 par la Commission européenne. Pour les plateformes du numérique, grandes ou petites (12), elle énonce les modalités détaillées du traitement des notifications de contenu illicite selon des procédures dites de « notification et action » (notice and action) et encourage les acteurs du Net à recourir à des « processus automatisés comme le filtrage » du contenu mis en ligne. Cependant, au regard du statut d’hébergeur des YouTube, Facebook et autre Twitter, la recommandation du 1er mars 2018 ne modifie pas la directive du 8 juin 2000 sur le commerce électronique, laquelle exonère les intermédiaires en ligne de la responsabilité du contenu qu’ils gèrent. « La recommandation est une mesure non contraignante et ne saurait modifier l’acquis
de l’UE », a justifié à ce propose la Commission européenne, qui s’était engagée en 2016 « à maintenir un régime de responsabilité équilibré et prévisible pour les plateformes en ligne, étant donné qu’un cadre réglementaire fondamental est essentiel pour préserver l’innovation numérique dans l’ensemble du marché unique numérique ». Néanmoins, la directive « Commerce électronique » laisse la place à l’autorégulation pour la suppression de contenu illicite en ligne. Quitte à ce que cette autorégulation
soit supervisée par la Commission européenne, comme avec le « Code de conduite » présenté en septembre 2017 – et convenu avec Facebook, Twitter, Google (YouTube et Google+), Microsoft ainsi que Instagram (propriété de Facebook) rallié plus récemment – pour combattre les discours de haine illégaux sur Internet.

Code de conduite contre « Far West numérique »
Les autres plateformes numériques sont appelées, par Vera Jourová, commissaire européenne à la Justice, aux Consommateurs et l’Egalité des genres, à rejoindre ce Code de conduite. « Nous ne pouvons accepter qu’il existe un Far West numérique
et nous devons agir. Le Code de conduite montre qu’une approche d’autorégulation peut servir d’exemple et produire des résultats », avait-elle prévenu il y a six mois. Récemment, dans une lettre ouverte publiée le 12 mars dernier (13) à l’occasion des
29 ans de l’invention du le World Wide Web dont il est à l’origine, Tim Berners-Lee
a appelé à réguler les grandes plateformes en prônant « un cadre légal ou réglementaire ». @

Charles de Laubier

ZOOM

Contenu à caractère terroriste : pas de temps à perdre
Pour endiguer le contenu terroriste en ligne, qu’il est interdit d’héberger, la Commission européenne joue la montre. Elle recommande la suppression de ce type de contenu
« dans l’heure ». Partant du constat que le contenu à caractère terroriste est le plus préjudiciable au cours des premières heures de sa parution en ligne, « toutes les entreprises doivent supprimer ce type de contenu dans le délai d’une heure à compter de son signalement en règle générale », préconise-t-elle.
Pour les repérer, les GAFAM seront destinataires de « signalements » émanant d’autorités telles que la police ou la gendarmerie, ainsi que ceux effectués par l’unité de signalement des contenus sur Internet (IRU) de l’Union européenne au sein d’Europol, ou par les unités de signalement des Etats membres. Les acteurs du Net auront aussi mis en oeuvre leurs « mesures proactives, notamment en matière de détection automatique, afin de retirer ou désactiver efficacement et promptement le contenu
à caractère terroriste et d’empêcher sa réapparition après qu’il a été supprimé ».
Le contenu terroriste en ligne doit en tout cas faire l’objet de « procédures accélérées » pour traiter les signalements aussi vite que possible. Les Etats membres, eux, sont appelés à s’assurer qu’ils disposent des capacités et des ressources nécessaires
pour « détecter, identifier et signaler » le contenu à caractère terroriste. Ils doivent en outre remettre à la Commission européenne un rapport – « de préférence tous les
trois mois » (six mois pour les contenus illicites non terroristes) – sur les signalements et leur suivi, ainsi que sur la coopération avec les entreprises du Net. Par ailleurs, la Commission européenne soutient ce qu’elle appelle « des voix crédibles pour diffuser en ligne des contre-récits positifs ou des contre-discours » dans le cadre du Forum de l’UE sur l’Internet via son « programme de renforcement des moyens d’action de la société civile » (14) . @