Comment l’Autorité de la concurrence dénonce une régulation audiovisuelle « profondément inadaptée »

La Cour des comptes, le CSA et le rapport « Bergé » ont déjà mis en évidence les faiblesses du système français de régulation de l’audiovisuel. L’Autorité de la concurrence va plus loin en en dénonçant la « complexité rare » et le caractère « très atypique », voire « non-équitable et inefficace ».

François Brunet* (photo) et Winston Maxwell,

avocats associés, cabinet Hogan Lovells

L’Autorité de la concurrence plaide pour une réforme qui permettrait aux acteurs français de la télévision de se débarrasser de contraintes, lesquelles, aujourd’hui, n’ont plus aucun sens économique – voire, risquent de condamner à la stagnation et au déclin l’ensemble des filières audiovisuelle et cinématographique françaises. Son analyse commence par un panorama détaillé du nouveau paysage concurrentiel de l’audiovisuel. L’Autorité de la concurrence met en avant l’existence d’une « révolution numérique », qui a « profondément modifié les usages de l’audiovisuel » et qui a permis le développement de nouveaux opérateurs issus du monde de l’Internet, en particulier celui des GAFAN. Elle constate ainsi que ces nouveaux acteurs ne connaissent pas les mêmes contraintes réglementaires que les acteurs traditionnels français de l’audiovisuel et sont, en conséquence, capables de proposer des offres plus flexibles et moins coûteuses pour les consommateurs.

Une dérégulation inéluctable du secteur
Ainsi, Netflix augmente aujourd’hui le nombre de ses abonnés de 25 % à 30 % par an et dispose d’une base mondiale de 140 millions d’abonnés – dont près de 5 millions en France. De même, après seulement deux années d’existence, Amazon Prime Video totalise déjà 100 millions d’abonnés dans le monde. A l’inverse, Canal+, qui, depuis 20 ans, s’est désinvesti de nombreux marchés étrangers, notamment de l’Italie et des pays scandinaves, voit sa base française d’abonnés décliner chaque année (le nombre d’abonnés aux offres historiques de Canal+ a enregistré une baisse de 230 000 en 2018). L’Autorité de la concurrence note également, dans la lignée de son avis de mars 2018 relatif à la publicité en ligne (1), que cette révolution numérique s’accompagne « d’une rapide évolution du secteur de la publicité télévisuelle, confrontée à la très forte croissance de la publicité en ligne ». Dans ce nouvel environnement, Lire la suite

La « taxe GAFA » – chère au président Macron et à son ministre Le Maire – cherche son véhicule législatif

Absente de la loi de finances pour 2019 et de la loi « Gilets jaunes » promulguées en décembre, la taxe GAFA – que Bruno Le Maire présentera d’ici fin février en conseil des ministres – cherche encore son véhicule législatif. Projet de loi Pacte ? Projet de loi de finances rectificative (PLFR) pour 2019 ? Ou projet de loi spécifique à part ?

Edition Multimédi@ s’est rendu le 14 janvier dernier à Bercy aux voeux à la presse de Bruno Le Maire (photo) et, en marge de la cérémonie, a pu demander directement au ministre de l’Economie et des Finances à quel stade en est précisément la décision de taxer en France les GAFA – les Google, Amazon, Facebook, Apple et autres Microsoft – rétroactivement à partir du 1er janvier 2019. « Pour la taxation nationale des géants du numériques, je suis en train avec mes équipes de préparer un projet de loi spécifique qui nous soumettrons au Parlement dans les prochaines semaines », nous a-t-il répondu, sans préciser quel véhicule législatif sera utilisé pour porter cette « taxe GAFA » qui est l’un des chevaux de bataille du président de la République, Emmanuel Macron. Six jours après ses voeux à la presse, Bruno Le Maire n’a pas non plus évoqué – dans une interview au Journal du Dimanche parue le 20 janvier – le cadre législatif retenu pour ce projet de loi « taxe GAFA » du gouvernement.

La « taxe GAFA » devant le Parlement au printemps
« Nous présenterons un projet de loi spécifique en conseil des ministres d’ici à fin février, qui sera rapidement soumis au vote du Parlement », a-t-il néanmoins indiqué, en ajoutant que « [cette] taxe touchera toutes les entreprises qui proposent des services numériques représentant un chiffre d’affaires supérieur à 750 millions d’euros au niveau mondial et 25 millions d’euros en France (…) et son taux sera modulé en fonction du chiffre d’affaires avec un maximum de 5 % ». Le gouvernement en attend quelque 500 millions d’euros de recettes fiscales dès cette année.
Sur le véhicule législatif, le ministre de l’Economie et des Finances avait pourtant dit le 18 décembre dernier que cette mesure fiscale – qui portera sur les revenus publicitaires des plateformes numériques et la vente des données des utilisateurs à des fins de publicité – « pourrait être introduite dans la loi Pacte » (1), dont le projet va être examiné en première lecture au Sénat (2) à partir du 29 janvier et jusqu’au 12 février. Or non seulement Bruno Le Maire Lire la suite

Projet de directive « Droit d’auteur » : revirement !

En fait. Le 12 septembre, en séance plénière à Strasbourg, les eurodéputés ont finalement adopté – par 438 voix pour, 226 voix contre et 39 abstentions – le projet de directive sur « le droit d’auteur dans le marché unique numérique ». Alors qu’ils l’avaient rejeté 15 juillet dernier. Le texte a été amendé.

En clair. « Malgré une campagne de lobbying très forte, menée par les géants d’Internet, le Parlement européen compte désormais une majorité pour soutenir ce besoin de protéger le principe d’une rémunération équitable pour les créateurs européens », s’est félicité à l’issue du vote
Axel Voss, le rapporteur de la « proposition de directive sur le droit d’auteur dans le marché unique numérique » (1). Pour la majorité des 703 eurodéputés qui ont pris part au vote ce 12 septembre, soit 62,3 % ayant voté pour, « les géants de la technologie doivent partager les recettes avec les artistes et journalistes ». Quel revirement depuis le précédent vote du 5 juillet ! Ce jour-là, à Strasbourg également, une majorité – certes limitée (50,7 % pour, sur 627 votants) – avait en effet rejeté cette réforme controversée par crainte d’un risque de filtrage généralisé de l’Internet (2). Objet de polémique et d’une âpre bataille des lobbies entre industries culturelles et géants du Net, l’article 13 introduit une responsabilité des plateformes numériques – de YouTube à Facebook, en passant par Twitter ou encore Dailymotion – vis-à-vis des contenus (musiques, films, photos, …) qu’elles hébergent et mettent en ligne, afin de renforcer la lutte contre le piratage d’œuvres sur Internet.
Quant à l’article 11, qui a fait aussi l’objet d’un intense lobbying des éditeurs et agences de presse, il prévoit sous la forme de « droit voisin » une rémunération des articles et dépêches utilisés par les Google News, Yahoo News et autres agrégateurs d’actualités (lire p. 5).
Face aux inquiétudes, le texte a été amendé pour « exclure du champ d’application les petites et micro-plateformes ou agrégateurs, afin d’encourager les start-ups et l’innovation ». Le texte précise d’ailleurs que les encyclopédies en ligne non commerciales telles que Wikipédia ou des plateformes de logiciels libres comme GitHub seront « automatiquement exclu[es] de l’obligation de se conformer aux règles de droit d’auteur ». Cette version corrigée du projet de directive vise aussi à protéger la liberté d’expression qui caractérise Internet. Ainsi, « le simple partage d’hyperliens vers des articles, ainsi que de “mots isolés” pour les décrire, sera libre de toute contrainte de droit d’auteur ». Place maintenant au trilogue (3) qui devra déboucher – avant les élections européennes de mai 2019 (23- 26) ? – sur un texte de compromis. @

Fake news et délit de fausse nouvelle : la loi doit s’arrêter là où commencent les libertés

Les « fake news » ne datent pas d’hier ni le délit de fausse nouvelle. Mais Internet et les réseaux sociaux ont relancé les débats sur la lutte contre la « désinformation ». Or légiférer sans censurer relève d’une mission impossible, si l’on ne veut pas déstabiliser les fondements de
la démocratie.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

En anglais, fake signifie « faux » (ou « truqué »). Il s’agit donc de « fausses informations » ou, plus précisément, d’informations délibérément fausses dont la diffusion vise à induire en erreur. Cette stratégie de désinformation du public a été largement évoquée dans les médias, notamment à l’occasion des dernières élections présidentielles aux Etats-Unis comme en France.

Mensonges, calomnies, tromperies, …
Il a en effet été beaucoup question de « faux comptes russes » de publicités sur Facebook dont l’objectif étaient de véhiculer des fausses informations sur des sujets sensibles au moment de la campagne présidentielle de Donald Trump, ou encore de fausses nouvelles véhiculées sur les réseaux sociaux durant la campagne présidentielle d’Emmanuel Macron. Le sujet
a également été évoqué lors de la campagne du Brexit ou encore du référendum en Catalogne. Actuellement, si aucun texte de droit commun
ne prévoit de réprimer la diffusion de fausses nouvelles, plusieurs textes spéciaux visent le délit de fausse nouvelle. L’article 27 de la loi du 29 juillet 1881 sur la liberté de la presse, les articles L.97, L.114 et L.117 du Code électoral, les article L.465-3-1 à L465- 3-3 du Code monétaire et financier ainsi que l’article L.443- 2 du Code de commerce sont autant de textes qui, bien qu’applicables dans des domaines spécifiques, renvoient tous à la notion de « fausse nouvelle » et présentent plusieurs traits communs : ils
ne posent aucune condition relative à l’auteur de la fausse nouvelle ; afin qu’une infraction puisse être qualifiée, ils exigent que la fausse nouvelle
ait fait l’objet d’une publication, une diffusion ou une reproduction ; enfin, ils emploient des termes tels que « informations mensongères », « bruits calomnieux », « nouvelles trompeuses ou destinées à tromper ».
Cependant, ces textes peuvent être difficiles à mettre en oeuvre, à l’instar
de l’article 27 précité de la loi de 1881 qui sanctionne d’une amende de 45.000 euros le fait d’avoir publié ou d’avoir relayé des informations créées et diffusées volontairement pour tromper le public. En effet, le texte prévoit que la « publication, la diffusion ou la reproduction » a été faite de
« mauvaise foi » et qu’elle est de nature à troubler la paix publique. Ces deux conditions constituent des obstacles importants pour contrer l’auteur de l’infraction qui ne manquera pas de faire valoir qu’il ne savait pas qu’il s’agissait d’une « fake news ». Quant aux hébergeurs, s’ils bénéficient d’un régime d’« irresponsabilité sauf », ils restent tenus de concourir à la lutte contre certaines infractions et, à ce titre, ils doivent mettre en place un dispositif de signalement. Mais cette obligation est circonscrite à des contenus qui relèvent de certaines catégories : l’apologie de crimes contre l’humanité, la provocation à la commission d’actes de terrorisme et de leur apologie, l’incitation à la haine raciale, à la haine à l’égard des personnes
en raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap, ainsi que la pornographie enfantine, l’incitation à la violence, notamment l’incitation aux violences faites aux femmes, des atteintes à la dignité humaine. Le dispositif existant n’apparait donc pas adapté aux
« fake news ».
Devant l’ampleur du phénomène, certains acteurs du Web ont pris des initiatives telles que la mise en place d’outils de vérification de contenus,
à l’exemple de l’option proposée par Facebook aux internautes pour leur permettre de qualifier certains contenus comme de « fausses informations», ou encore ont rejoint le consortium Trust Project (1) qui réunit de grands éditeurs de presse pour lutter ensemble contre les « fake news ».

Du texte « Goulet » de 2017 …
Parallèlement, le constat de l’insuffisance du dispositif légal a conduit à plusieurs propositions de lois, notamment celle qui a été soumise par sénatrice Nathalie Goulet le 22 mars 2017 visant à sanctionner les personnes qui mettent à la disposition du public des contenus sans vérifier les sources. Ce texte (2) présumait que « l’éditeur, le diffuseur, le reproducteur, le moteur de recherche ou le réseau social ayant maintenu
à la disposition du public des nouvelles fausses non accompagnées des réserves nécessaires pendant plus de trois jours à compter de la réception du signalement de leur caractère faux » étaient de mauvaise foi. Certes, ils pouvaient rétablir leur bonne foi en démontrant qu’ils avaient fait des
« démarches suffisantes et proportionnelles aux moyens » dont ils avaient disposé pour vérifier le contenu litigieux. Le texte a déclenché une série
de critiques, la principale consistant à dénoncer la difficulté à délimiter la frontière entre la « fake news » et la liberté d’expression, la liberté d’opinion ou encore la liberté de la presse. Il en résultait un risque non négligeable d’atteinte à un droit fondamental et constitutionnel. Aucune suite n’a été donnée à cette proposition jusqu’en janvier 2018, date à laquelle le président de la République – à l’occasion de ses voeux à la presse (3) – a annoncé sa volonté de réguler la publication de contenus sur Internet au cours des périodes électorales.

… au texte « Macron » de 2018
Une proposition de loi relative à la lutte contre les fausses informations
(4) ainsi qu’un projet de loi organique (5) prévoient de modifier le code électoral pour encadrer les périodes pré-électorale et électorale, définies comme courant à compter de la date de publication du décret convoquant les électeurs, jusqu’à la fin des opérations de vote, soit sur une durée maximum de cinq semaines avant le scrutin. L’objectif du législateur est
de contrôler les canaux de diffusion des fausses nouvelles, tout particulièrement les réseaux sociaux et les sites web de partage de vidéo ainsi que les médias sous influence d’un Etat étranger. A cet effet, le dispositif se décline en trois grandes propositions :
D’une part, le texte met à la charge des plateformes une obligation de transparence accrue sur tous les contenus sponsorisés. Elles devront rendre publiques l’identité des annonceurs de contenus ainsi que celle des personnes qui contrôlent les annonceurs. Elles devront également publier les montants consacrés à ces contenus, afin d’identifier les contenus sponsorisés à des montants élevés.
D’autre part, dans le cas où une fausse nouvelle serait publiée sur Internet, il est proposé d’introduire une nouvelle action en référé devant
le juge civil pour faire cesser la diffusion massive et artificielle d’une fausse nouvelle. Cette procédure, inspirée du référé « LCEN » (6) qui permet à toute personne de demander au juge de prescrire aux hébergeurs ou aux fournisseurs d’accès toutes mesures propres à prévenir un dommage ou
à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne. Cette action pourrait être engagée à la demande du ministère public ou de toute personne ayant intérêt à agir, uniquement pendant la période pré-électorale et électorale. Le tribunal
de grande instance de Paris serait exclusivement compétent, eu égard
au caractère national de l’écho donné à la diffusion massive de fausses informations. Le juge pourra notamment ordonner de supprimer le contenu mis en cause, de déréférencer le site, de fermer le compte utilisateur concerné ou encore de bloquer l’accès au site Internet.
Enfin, les pouvoirs du Conseil supérieur de l’audiovisuel (CSA) seront accrus afin de lutter contre toute tentative de déstabilisation par les services contrôlés ou influencés par des Etats étrangers. Si le régulateur considère qu’un Etat étranger propage une fausse nouvelle, il pourra
« suspendre » ou « révoquer » la convention d’un média sous influence de cet Etat. La commission de la Culture et la commission des Lois du Sénat
ont rejeté ces propositions le 26 juillet 2018, considérant que le dispositif continue de susciter les mêmes inquiétudes au regard de la censure, y ajoutant qu’en envisageant d’accroître la responsabilité des plateformes en cas de diffusion de fausses nouvelles, les principes posés dans la loi « LCEN » de 2004 sont susceptibles d’être remis en question. Il s’agit en effet d’une nouvelle exception, au même titre que pour les contenus terroristes ou pédopornographiques, au principe de limitation de responsabilité des intermédiaires techniques. Le projet de loi « Fausses nouvelles » devrait passer en commission mixte paritaire d’ici la fin de l’année.
On notera que, dans son avis du 19 avril 2018, le Conseil d’Etat partageait déjà l’opinion des sénateurs, en considérant que la mesure tendant au
« déréférencement d’un site diffusant ces fausses informations » apparaissait excessive, seuls devant être déréférencés les liens menant vers les pages diffusant ces informations.
Par ailleurs, le Conseil d’Etat proposait de prévoir que l’ordonnance du juge des référés soit rendue en premier et dernier ressort, afin de ne permettre que l’exercice d’un pourvoi en cassation dans des conditions de délai qui peuvent être précisées dans le texte réglementaire d’application de la future loi. Enfin, plus généralement, après avoir reconnu que« l’état actuel du droit, notamment en matière électorale, ne permet[tait] pas nécessairement de répondre à l’intégralité des risques induits par [les plateformes numériques] », a suggéré « d’harmoniser les différentes dispositions des propositions de loi pour ne retenir que la notion de “fausses informations” » et non celle de « fausses nouvelles », et a recommandé que « la lutte contre les fausses informations soit systématiquement circonscrite aux cas dans lesquels il est établi que
la diffusion de telles informations procède d’une intention délibérée de nuire ».

L’Europe contre « la désinformation »
Sur le plan européen, la Commission européenne a adopté des mesures fondées sur les conclusions et les recommandations présentées le 12 mars 2018 (8) par un groupe d’experts de haut niveau pour lutter contre la désinformation en ligne. Dans sa communication « Lutter contre la désinformation en ligne : une approche européenne » (9), datée du 24 avril 2018, elle préconise ainsi un code de bonnes pratiques et de nouvelles règles visant à accroître la transparence et l’équité des plateformes en ligne, notamment la mise en place d’un réseau indépendant de vérificateurs de faits ou encore une démarche d’autorégulation des acteurs. @

* Christiane Féral-Schuhl est ancien bâtonnier du Barreau
de Paris, et auteure de « Cyberdroit », dont la 7e édition
(2018-2019) est parue aux éditions Dalloz.

Vers un droit fondamental de l’accès à l’Internet dans la Constitution de 1958 ?

Comme il existe une Charte de l’environnement adossée à la Constitution française depuis 2004, une « Charte du numérique » faisant de l’accès à Internet un droit-liberté serait historique après une décennie de débats. Le 11 juillet, le projet a été rejeté. Mais la réflexion continue.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

Un groupe de parlementaires de tous horizons politiques a proposé d’adosser à la Constitution de 1958 une « Charte du numérique », comme il y a une Charte de l’environnement adoptée, elle, en 2004 (1). Cette charte du numérique – qui comprend sept articles (2) – vise à consolider les grands principes du numérique en garantissant des droits et libertés numériques qui pourront alors faire l’objet d’un contrôle de constitutionnalité.

Droit d’accès aux réseaux numériques
La Charte du numérique, telle que proposée le 21 juin dernier par le groupe de travail informel commun à l’Assemblée nationale et au Sénat en vue de
« réfléchir à l’inclusion des droits et libertés numériques dans la Constitution », prévoit notamment que « la loi garantit à toute personne un droit d’accès aux réseaux numériques libre, égal et sans discrimination »
et que les réseaux numériques « respectent le principe de neutralité qui implique un trafic libre et l’égalité de traitement ». Ces propositions font écho à la déclaration commune signée le 28 septembre 2015 (3) par le président de l’Assemblée nationale (Claude Bartolone) et la présidente de
la Chambre des députés italienne (Laura Boldrini). Ce texte franco-italien
« sur les droits et devoirs numériques du citoyen » (4) devait être adressé
au Parlement européen pour inviter les Etats de l’Union européenne à y adhérer. Si l’on peut regretter que la Charte du numérique ait été aussitôt rejetée par la commission des lois, le 27 juin 2018 à l’Assemblée nationale, lors de l’étude du projet de loi constitutionnelle au motif que ses conséquences et implications étaient trop hasardeuses, on note qu’elle pourrait être reprise sous forme d’amendements au projet de loi constitutionnelle (5). Le sujet est d’importance. Il suffit, pour s’en convaincre, de constater que l’accès à l’Internet n’est pas libre dans tous
les pays, certains Etats limitant l’accès au réseau des réseaux en utilisant diverses techniques : blocage d’adresses IP de noms de domaine, censure
de certains mots-clés sur les moteurs de recherche ou encore filtrage des sites web contenants ces mots-clés (6). Il suffit également de rappeler que
le Saoudien Raif Badawi a été cruellement sanctionné pour avoir voulu ouvrir un blog afin d’inviter à un débat sur l’influence religieuse dans le Royaume d’Arabie saoudite. Cette initiative a été sévèrement sanctionnée : une peine de prison de dix ans, 1.000 coups de fouet et une amende. Son avocat, Waleed Abu al-Khair a également été condamné, à quinze ans de prison, pour l’avoir défendu et avoir prôné la liberté d’expression. De même, le blogueur mauritanien Cheikh Ould Mohamed Ould Mkheitir a été condamné à mort pour un billet jugé blasphématoire (7). Sa peine de mort avait été confirmée par la cour d’appel de Nouadhibou, tout en requalifiant les faits en « mécréance », mais annulée par la Cour suprême (8) avant de
se voir transformée en une condamnation à deux ans, toujours pour les mêmes faits (9). Il aura été incarcéré durant quatre ans. Quant au chinois Liu Xiaobo, il a également été déclaré coupable d’« avoir participé à la rédaction de la Charte 08, manifeste politique qui défendait une réforme démocratique pacifique et demandait un plus grand respect des droits humains fondamentaux en Chine, ainsi que la fin du système de parti unique ». Il avait été condamné à onze ans de prison pour ce manifeste signé par 303 intellectuels qui a circulé sous forme de pétition sur Internet. Récipiendaire du prix Nobel de la Paix en 2010, il est décédé en juillet 2017 alors qu’il venait de bénéficier d’une mise en liberté conditionnelle à raison de son état de santé très dégradé. Certains, à l’instar de Vinton Cerf (10) – l’un des pères fondateurs de l’Internet – considère que l’Internet est une
« technologie (…) facilitateur de droits, pas un droit en lui-même ».

Un nouveau droit-liberté fondamental
C’est en ce sens également que s’exprime Michaël Bardin, docteur en droit public, lequel considère que si « les juges, par cette décision [Hadopi de 2009, ndlr (11)], confirment bien qu’il est nécessaire de reconnaître l’importance contemporaine du droit d’accès à internet (…), pour autant,
le droit d’accès à internet n’est ni “un droit de l’homme” ni un “droit fondamental” en lui-même ». Et d’ajouter : « Il n’est et n’existe que comme moyen de concrétisation de la liberté d’expression et de communication.
En définitive, le droit d’accès à internet vient prendre sa juste place dans les moyens déjà connus et protégés que sont la presse, la radio ou encore la télévision » (12). Tel n’est pas l’avis du Conseil d’Etat qui qualifie le droit d’accès à l’Internet de droit fondamental (13). En ce sens également, la professeure universitaire Laure Marino observe que le Conseil constitutionnel a élevé la liberté d’accès à Internet au rang de nouveau droit fondamental : « Pour ce faire, le Conseil constitutionnel utilise la méthode d’annexion qu’il affectionne. Il décide que la liberté de communication et d’expression “implique” désormais la liberté d’accès
à Internet. Comme dans un jeu de poupées russes, cela signifie qu’elle l’intègre et l’enveloppe ou, mieux encore, qu’elle l’annexe. On peut se réjouir de cette création d’un nouveau droit-liberté : le droit d’accès à Internet. L’accès à Internet devient ainsi, en lui-même, un droit-liberté, en empruntant par capillarité la nature de son tuteur, la liberté d’expression. Ainsi inventé par le Conseil, le droit d’être connecté à Internet est donc un droit constitutionnel dérivé de l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789 » (14).

La coupure de l’accès Internet
C’est également la position exprimée en 2015 par la commission de réflexion et de propositions sur le droit et les libertés à l’âge du numérique (ComNum) de l’Assemblée nationale dans son rapport (15). Elle observe que plusieurs décisions prises au plan européen militent en ce sens. Ainsi, à titre d’exemple, dès 2009, et en plein débat sur la loi « Hadopi » que devait adopter la France quelques semaines plus tard, le Parlement européen s’est symboliquement opposé, par une recommandation (16), à la riposte graduée et à l’hypothèse de la coupure de l’accès Internet. Dans le même esprit, la directive européenne 2009/140/CE du 25 novembre 2009, composante du troisième « Paquet télécom » (17), prévoit que « les mesures prises par les Etats membres concernant l’accès des utilisateurs finals aux services et applications, et leur utilisation, via les réseaux de communications électroniques respectent les libertés et droits fondamentaux des personnes physiques tels qu’ils sont garantis par la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales et les principes généraux du droit communautaire ». Cette directive impose par conséquent le respect de la présomption d’innocence et la mise en place d’une procédure « préalable, équitable et impartiale » avant toute restriction de l’accès ; elle estime en conséquence que le droit d’accès à Internet comporte des enjeux qui dépassent largement ceux de l’accès à la presse, la radio ou la télévision (18). Plus encore, « l’accès à internet est indispensable non seulement à l’exercice du droit à la liberté d’expression, mais aussi à celui d’autres droits, dont le droit à l’éducation, le droit de s’associer librement avec d’autres et le droit de réunion, le droit de participer pleinement à la vie sociale, culturelle et politique et le droit au développement économique et social » (19). Comme l’indique le Conseil d’Etat dans son étude annuelle de 2014, la liberté d’entreprendre – qui découle de l’article 4 de la Déclaration des droits de l’homme et du citoyen – implique le droit pour les entreprises de développer des activités à caractère numérique. « La loi et la jurisprudence présentent aujourd’hui plusieurs garanties de ce que l’on pourrait qualifier de ‘’droit à une existence numérique’’ de l’entreprise, qui implique différents attributs : droit à un nom de domaine, droit à fournir des services sur Internet, droit d’utiliser certains instruments tels que la publicité, la cryptographie ou les contrats conclus par voie électronique ». Il va sans dire que la liberté d’entreprendre et le droit à une existence numérique impliquent également le droit d’accéder à Internet. On rappellera que la peine de suspension de l’accès à Internet n’a été prononcée qu’une seule fois par la justice française et jamais appliquée. Elle a été supprimée par le décret du 8 juillet 2013 (le rapport Robert de 2014 a émis une proposition de rétablissement de cette peine de suspension en la généralisant aux infractions qui mettent en péril un mineur).
Dans ce contexte, il convient d’acter que le droit fondamental d’accès à Internet doit être assuré dans ses fondements substantiels et pas seulement comme possibilité de connexion à la toile. L’accès comprend le libre choix des systèmes d’exploitation, des logiciels et des applications. La protection effective du droit d’accès exige des interventions publiques adéquates pour surmonter toute forme de fracture numérique – culturelle, infrastructurelle, économique – en ce qui concerne notamment l’accessibilité de la part des personnes handicapées.

A l’instar de la Charte de l’environnement
C’est donc dans cet objectif que le groupe parlementaire transpartisan a proposé d’adosser à la Constitution de 1958 la « Charte du numérique »,
à l’instar de la Charte de l’environnement adoptée en 2004. Les débats du
11 juillet 2018 à l’Assemblée nationale sur le projet de loi constitutionnelle
« pour une démocratie plus représentative, responsable et efficace » ont finalement abouti au rejet de cette charte.
Mais la réflexion, elle, va se poursuivre, d’autant que l’Internet Society (Isoc) soutient l’initiative française après avoir lancé une pétition « pour la consécration constitutionnelle des droits fondamentaux des utilisateurs du numérique ». @

* Ancien bâtonnier du Barreau de Paris,
et auteure de « Cyberdroit », dont la 7e édition
(2018-2019) est parue aux éditions Dalloz

Réforme du droit d’auteur : les eurodéputés rejettent le risque de filtrage généralisé d’Internet

En rejetant le 5 juillet 2018 la réforme controversée de la directive sur le droit d’auteur, les eurodéputés jouent les prolongations en renvoyant la poursuite des débats à septembre prochain. Le risque de filtrage généralisé de l’Internet est l’un des points noirs de ce projet législatif.

L’article 13 de la directive européenne « Droit d’auteur dans le marché unique numérique » est le plus controversé de la réforme du copyright, contre laquelle 318 eurodéputés se sont prononcés contre le 5 juillet à Strasbourg (versus 278 pour et 31 abstention). Cet article 13 est celui qui fait le plus débat – voire polémique – dans ce projet de texte qui vient d’être rejeté. Car il introduirait une responsabilité des plateformes du numériques – de YouTube à Facebook, en passant par Twitter, Dailymotion ou encore Wikipedia – sur le sort des contenus (musiques, films, photos, …) qu’elles hébergent et mettent à disposition sur Internet.

L’article 13 cristallise l’opposition
Cet article 13, qui avait pourtant obtenu le 20 juin dernier la bénédiction de la commission des Affaires juridiques (JURI) du Parlement européen (15 voix pour, 10 contre), présente le risque d’ouvrir la voie au filtrage généralisé d’Internet dans la mesure où les GAFA devraient supprimer de façon préventive les contenus considérés comme piratés. Leur responsabilité serait ainsi étendue à la lutte contre le piratage en ligne, au point de leur demander d’utiliser le filtrage automatique de téléchargement en cas de violation de la propriété intellectuelle. YouTube, la filiale vidéo de Google, utilise déjà un système d’identification des contenus protégés, baptisé Content ID, qui détecte automatiquement les violations présumées de droits d’auteur. Un fois que le contenu « piraté » est repéré, YouTube le supprime aussitôt.
C’est la perspective de ce filtrage généralisé qui pose problème depuis la présentation de ce projet de directive en septembre 2016 par la Commission européenne. Le 25 mai dernier, les Etats membres, au sein du Conseil de l’Union européenne, s’étaient mis d’accord sur la responsabilisation des plateformes. Le projet de texte (1) oblige les prestataires de services à obtenir l’autorisation des ayants droits. Ainsi, l’article 13 stipule : « Quand il a aucune autorisation, par exemple parce que le détenteur de droits ne veut pas conclure une licence, le prestataire de services devra empêcher la disponibilité des œuvres identifiées par l’ayant droit. Sinon, les prestataires de service seront considérés comme responsables de l’infraction au copyright. (…) Sur la notification par l’ayant droit d’une oeuvre protégée non autorisé, le prestataire de services devra prendre des mesures urgentes pour supprimer l’oeuvre et l’empêcher de devenir disponible à l’avenir ». Autrement dit, en absence de d’autorisation de l’ayant droit, un fournisseur de services de partage de contenu en ligne sera tenu pour responsable s’il ne démontre pas qu’il a fait preuve des meilleurs efforts pour empêcher la disponibilité des œuvres spécifiques ou autres « en mettant en oeuvre des mesures efficaces et proportionnées, pour empêcher la disponibilité sur ses services des œuvres spécifiques ou autres identifiées par le détenteur de droits et pour lequel celui-ci a fourni au service des informations pertinentes et nécessaires pour l’application de ces mesures, et sur notification de l’ayant droit ». Cet article 13 soulève de nombreux problèmes de compatibilité avec la directive européenne de 2000 sur le commerce électronique (2), laquelle régit – depuis près de vingt ans maintenant – une bonne partie des responsabilités des acteurs de l’Internet qui ne sont soumis à aucune obligation de surveillance préalable des contenus. Le statut d’hébergeur à responsabilité limité avait d’ailleurs été conforté le 24 novembre 2011 par la Cour de justice de l’Union européenne (CJUE) dans un arrêt « Scarlet contre Sabam » dans lequel elle a décidé que« le droit de l’Union s’oppose à une injonction faite à un [fournisseur d’Internet] de mettre en place un système de filtrage de toutes les communications électroniques transitant par ses services ». La directive « e-commerce » de 2000 prévoit en effet, dans son article 15 intitulé « Absence d’obligation générale en matière de surveillance », que « les États membres ne doivent pas imposer aux [fournisseur d’Internet] une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites » (3).

Les arrêts « contre » de la CJUE
De plus, la CJUE avait estimé qu’« une telle obligation de surveillance générale serait incompatible » avec une autre directive et non des moindres : à savoir la directive « Propriété intellectuelle » du 29 avril 2004 (4), selon laquelle « les mesures [pour assurer le respect des droits de propriété intellectuelle] ne doivent pas être inutilement complexes ou coûteuses et ne doivent pas comporter de délais déraisonnables ». Ce qui n’est pas le cas du filtrage généralisé. Et comme si cela ne suffisait pas, les juges européens en ont appelé à la Charte des droits fondamentaux de l’Union européenne signée le 7 décembre 2000 et devenue « force juridique obligatoire » depuis l’entrée en vigueur du Traité de Lisbonne en décembre 2009. « La protection du droit de propriété intellectuelle est certes consacrée [par] la charte des droits fondamentaux de l’Union européenne (article 17, paragraphe 2). Cela étant, il ne ressort nullement (…) qu’un tel droit serait intangible et que sa protection devrait donc être assurée de manière absolue », a estimé la CJUE. Un autre arrêt européen, daté du 16 février 2012 celui-là (Sabam contre Netlog (5)), s’est lui aussi opposé à une surveillance généralisée du Net. En France, la loi pour la confiance dans l’économie numérique (LCEN) de 2004 est venue à son tour sanctuariser ce régime de responsabilité limitée de l’hébergeur.

Mises en garde et controverses
Malgré toutes ces précautions législatives et jurisprudentielles, le statut des hébergeurs du Net était menacé. Les mises en gardes des opposants et les campagnes des lobbies ont finalement abouti au rejet du 5 juillet. « Ces mesures [si elles devaient être adoptées à la rentrée, ndlr] vont sérieusement saper les libertés fondamentales de l’Internet. Placer les intérêts particuliers des grosses compagnies média avant notre capacité à participer librement en ligne est inacceptable », avait lancé le 20 juin dernier l’eurodéputée Julia Reda (photo), qui fut l’auteur en 2015 du premier rapport (6) demandé par le Parlement européen en vue de cette réforme du droit d’auteur à l’ère du numérique. Selon elle, « l’article 13 va forcer les plateformes Internet (réseaux sociaux, sites vidéo, hébergeurs de photos, etc.) à installer de puissants filtres pour inspecter tout contenu publié par des utilisateurs, aussi en images – et donc à bloquer la plupart des “mèmes” (7), ceux-ci étant en général basé sur des images connues et non libres de droits ». Du côté des utilisateurs, le Bureau européen des unions de consommateurs (Beuc), basé à Bruxelles, avait exprimé son inquiétude, par la voix de sa directrice générale, Monique Goyens :
« Internet tel que nous le connaissons ne sera plus le même à partir du moment où les plateformes devront systématiquement filtrer le contenu que les utilisateurs veulent télécharger. Internet va passer d’un lieu où les utilisateurs peuvent partager leurs créations et leurs idées à un lieu contraignant et contrôlé ». La Quadrature du Net, elle, avait dénoncé très tôt « l’automatisation de la censure au nom de la protection du droit d’auteur et, plus largement, contre la centralisation du Web » (8). Cette association de défense des droits et libertés numériques a pris acte des « garanties » présentées par l’eurodéputé rapporteur du texte, Axel Voss, à savoir contre des censures arbitraires ou abusives : la censure opérée par les plateformes ne doit pas conduire au filtrage de contenus qui ne contreviennent pas à un droit d’auteur, ni au déploiement d’une surveillance généralisée des contenus mis en ligne ; un mécanisme de contestation rapide auprès de la plateforme, ainsi que la possibilité de saisir un juge afin de faire valoir des exceptions au droit d’auteur qui rendraient le filtrage injustifié. Mais ce compromis n’avait pas convaincu La Quadrature du Net, ni même Wikipedia qui avait protesté le 4 juillet en se rendant inaccessible dans plusieurs pays européens. Surtout qu’un article 11 prévoit, lui, l’instauration d’un droit voisin pour les éditeurs de presse. Encore plus contesté que l’article 13, il fut adopté le 20 juin dernier de justesse (13 voix pour, 12 contre). Ce droit voisin va permettre aux journaux, magazines ou encore aux agences de presse de se faire rémunérer lors de la réutilisation en ligne de leurs contenus par les agrégateurs d’informations tels que Google News ou Yahoo News (9). Surnommée « taxe sur les liens » (link tax) pour les contenus d’actualité, cette mesure suppose aussi de surveiller et filtrer Internet pour la mettre en oeuvre. « Le filtrage automatique des téléchargements et les droits voisins vont entraîner une censure de la liberté d’expression en ligne et un délitement d’Internet tel que nous le connaissons », avait déclaré Siada El Ramly, directrice générale d’Edima (European Digital Media Association), organisation représentant les GAFA (10). Le 5 juillet, l’Edima a considéré le rejet du texte comme « une victoire pour la démocratie ». Quant à l’association CCIA (Computer & Communications Industry Association), basée aux Etats-Unis et porte-parole des mêmes géants américains du Net, elle avait fustigé aussi la réforme du droit d’auteur : « Les filtres de téléchargement présenteront une obligation générale de contrôler le contenu téléchargé par l’utilisateur, ce qui sera destructeur pour les droits fondamentaux des citoyens européens et pour responsabilité limité des plateformes – une pierre angulaire légale pour le secteur numérique européen ».
En France, l’Association des services Internet communautaires (Asic) – présidée par Giuseppe de Martino (11) – avait lancé un appel le 13 avril dernier, dans une tribune parue dans Le Monde et cosignée par le Syntec numérique, France Digitale, Tech in France et Renaissance numérique, en demandant « au gouvernement français de préserver l’Internet ouvert tel que nous le connaissons actuellement, en empêchant l’instauration d’un filtrage généralisé ». Ensemble, ils ont mis en garde : « Le développement d’Internet, la créativité, la diversité des contenus que l’on peut y trouver et qui font sa richesse s’en trouveraient gravement menacés ». Les eurodéputés les ont entendus.

« Outils automatiques » et contenus illicites
La Commission européenne, elle, incite fortement les plateformes à mettre en place des « outils automatiques » de détection pour lutter non seulement contre le piratage en ligne mais aussi les contenus à caractère terroriste, les incitations à la haine et à la violence, les contenus pédopornographiques, les produits de contrefaçon. C’est le sens de sa recommandation du 1er mars (12). Elle avait fixé l’échéance du mois de mai 2018 avant de décider s’il y a lieu ou pas de légiférer. @

Charles de Laubier

Données personnelles, RGPD et fichiers pénaux : l’ensemble de loi de 1978 est à réécrire

Quarante ans après sa version initiale, la loi « Informatique et Libertés » de 1978 va subir un lifting historique pour transposer le « Paquet européen » sur la protection des données qui entre en vigueur le 25 mai 2018. Mais il y a un risque d’insécurité juridique et un manque de lisibilité.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

Le projet de loi sur la protection des données personnelles (1) vise à permettre l’application du « paquet européen de protection des données » composé, d’une part, du règlement européen pour la protection des données (RGPD) et d’autre part, de la directive applicable aux fichiers de la sphère pénale, tous deux applicables à compter de mai 2018. En faisant l’analyse du projet de loi, on relève des différences significatives de terminologie entre les deux textes.

Pouvoirs de la Cnil et marges des Etats
Ces différences se retrouvent dans plusieurs articles de la loi
« Informatique et Libertés » du 6 janvier 1978 pourraient donner lieu à des interprétations et des difficultés de compréhension de certaines notions, qui seront sources d’insécurité juridique. A cela s’ajoutent les critiques de la Commission nationale de l’informatique et des libertés (Cnil) et du Conseil d’Etat qui pointent le « manque de lisibilité » du texte (voir encadré page suivante). Le titre Ier du projet de loi, qui traite des dispositions communes au RGPD et à la directive européenne « Fichiers pénaux », définit les missions, les pouvoirs et les modalités de contrôle de la Cnil. On peut ainsi relever que l’Autorité de contrôle pourra « présenter des observations devant toute juridiction à l’occasion d’un litige relatif à l’application du règlement et de la loi du 6 janvier 1978 ».
Cette disposition interroge dans la mesure où seul le juge est le garant de l’interprétation du droit applicable aux données à caractère personnel.
La Cnil ne peut se voir ouvrir ce droit. Par ailleurs, à quel titre la Cnil interviendrait-elle dans le cadre d’une procédure civile ou d’une procédure pénale ? Les débats parlementaires auraient dû apporter des réponses sur ce point. Le projet de loi ouvre également la possibilité pour la Cnil de prononcer des sanctions dans un ordre de gradation plus pédagogique et mieux compréhensible par les responsables de traitement des données. Elle pourra, en outre, labelliser les objets connectés. Enfin, le titre Ier du projet de loi reprend le principe de l’interdiction de traitement de données dites
« sensibles » sauf en cas de traitement nécessaires à la recherche publique après autorisation de la Cnil et élargit le champ de ces données : interdiction de traiter des données génétiques, biométriques aux fins d’identifier une personne physique de manière unique, données concernant l’orientation sexuelle d’une personne.
S’agissant du titre II du projet de loi « RGPD », on relève que, en cas de divergences de législations entre Etats membres de l’Union européenne (UE) liées aux marges de manœuvre laissées à ces derniers sur plusieurs points, la loi nationale s’applique dès lors que la personne réside en France, y compris lorsque le responsable de traitement n’est pas établi en France. Faisant application de ces marges de manœuvres, le projet de loi limite la portée des obligations et des droits des personnes concernées (droit à l’information droit d’accès, droit de rectification, droit à l’effacement, droit à la portabilité, droit d’opposition, etc.), lorsqu’une telle limitation respecte l’essence des libertés et droits fondamentaux et qu’elle constitue une mesure nécessaire et proportionnée dans une société démocratique pour garantir certains objectifs (sécurité nationale, défense nationale, sécurité publique, prévention et la détection d’infractions pénales, protection de l’indépendance de la justice et des procédures judiciaires, objectifs importants d’intérêt public général de l’UE ou d’un Etat membre,…). Le projet de loi prévoit également, afin de renforcer l’obligation de sécurité, que les responsables de traitement seront tenus par une obligation de chiffrement de bout en bout où seules les personnes autorisées à accéder aux données auront la clef de déchiffrement.

Traitements « pénaux » : conditions strictes
Et ce, alors que par ailleurs le Conseil constitutionnel a rendu le 30 mars 2018 une décision où les Sages jugent conforme à la Constitution française l’article 434-15-2 du code pénal qui punit de trois ans de prison et de 270.000 euros d’amende « le fait, pour quiconque ayant connaissance de la convention secrète de déchiffrement d’un moyen de cryptologie susceptible d’avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit, de refuser de remettre ladite convention aux autorités judiciaires ». En sus, le projet de loi renforce la protection des données de santé afin qu’elles ne puissent être utilisées pour fixer les prix des assurances ou à des fins de choix thérapeutiques et médicaux et la sélection des risques.
Quant au titre III du projet de loi « RGPD », il concerne plus spécifiquement les dispositions portant transposition de la directive « Fichiers pénaux ». On retiendra dans ce cadre que l’ensemble des règles applicables aux traitements de données à caractère personnel en matière pénale – prévues par cette directive européenne – sont regroupées aux articles 70-1 à 70-27 (nouveaux) de la loi « Informatique et Libertés » du 6 janvier 1978. Le projet de loi français prévoit que le traitement des données sensibles à des fins pénales n’est possible que s’il répond à des conditions strictement définies : la nécessité absolue d’un traitement de données, l’existence de garanties appropriées pour les droits et libertés de la personne concernée, l’autorisation du traitement par un acte législatif ou réglementaire, la protection des intérêts vitaux d’une personne physique. De plus, le traitement des données sensibles à des fins pénales doit porter sur des données manifestement rendues publiques par la personne concernée (2).

Exactitude des données et profilage interdit
En outre, le projet de loi « RGPD » prévoit que les données à caractère personnel figurant dans les traitements en matière pénale mis en oeuvre par les autorités compétentes devront, « dans la mesure du possible », distinguer celles qui sont fondées sur des faits de celles qui reposent sur des appréciations personnelles – principe de l’exactitude des données (3). Les interdictions relatives aux décisions individuelles automatisées (4) sont applicables aux traitements de données personnelles en matière pénale – interdiction du profilage, par exemple (5). Il convient également de relever que le gouvernement a retenu des restrictions aux droits des personnes dans le cadre de ces traitements particuliers. Ces restrictions s’appliquent notamment pour éviter de gêner les enquêtes ou procédures judiciaires ou nuire à la prévention ou à la détection d’infractions pénales et à l’exécution de sanctions pénales ; protéger la sécurité publique ou la sécurité nationale ; ou encore garantir les droits et libertés d’autrui (6). Ces restrictions pourront consister à retarder ou limiter la fourniture des informations supplémentaires susceptibles d’être transmises à la personne concernée ou de ne pas les fournir, à limiter en totalité ou en partie le droit d’accès (le responsable du traitement devra consigner les motifs de fait ou de droit fondant da décision et les mettre à disposition de la Cnil) ou à ne pas informer la personne concernée de son refus de rectifier ou d’effacer les données la concernant ou le limiter le traitement. La personne concernée par ces traitements devrait toujours avoir la possibilité d’exercer ses droits par l’intermédiaire de la Cnil. C’est à cette dernière qu’il reviendra d’informer la personne concernée de son droit d’exercer un recours (7).
On notera que l’article 20 du projet de loi est une demande d’habilitation du gouvernement à légiférer par voie d’ordonnance, afin de procéder à une réécriture de l’ensemble de la loi du 6 janvier 1978, en vue notamment de mettre en cohérence l’ensemble de la législation applicable à la protection des données à caractère personnel. Cette ordonnance devra être adoptée dans un délai de six mois suivant la promulgation de la loi relative à la protection des données personnelles. Ce texte arrive péniblement et non sans mal en fin de processus législatif, le Sénat et l’Assemblée nationale n’étant pas parvenus à un accord – la commission mixte paritaire a échoué à trouver un consensus (8). Les sénateurs ont maintenu leur projet de loi qu’ils ont voté le 19 avril dernier à l’unanimité. Mais les députés auront le dernier mot le 14 mai prochain. @

Ancien bâtonnier du Barreau de Paris, et auteure de « Cyberdroit »,
dont la 7e édition (2018-2019) est parue aux éditions Dalloz.

ZOOM

Ce qu’en disent la Cnil et le Conseil d’Etat : « Manque de lisibilité »
Si le texte constitue « un progrès majeur pour la protection des données personnelles des citoyens et la sécurité juridique des acteurs économiques », il soulève plusieurs critiques de la part de la Commission national de l’informatique et des libertés (Cnil), qui, dans son avis du 30 novembre 2017 (9), regrette que certaines « propositions n’aient pas été retenues, tendant notamment à l’ajout de garanties supplémentaires lors de l’utilisation de traitements algorithmiques débouchant sur l’adoption de décisions administratives » ou encore « à l’adaptation de ses procédures pour lui permettre de faire face à l’augmentation d’activité liée au nouveau cadre européen ».
Plus généralement, l’Autorité de contrôle déplore « le risque important de manque de lisibilité » des nouvelles dispositions du fait, notamment, du choix du projet de loi, consistant à n’opérer que les modifications « a minima » nécessaires à la mise en oeuvre du règlement et de la directive européens, et à renvoyer la réécriture d’ensemble de la loi du 6 janvier 1978 à une ordonnance ultérieure. La Cnil appelle dès lors à l’adoption la plus rapide possible de cette ordonnance. Quant au Conseil d’Etat, dans son avis du 7 décembre 2017 (10), i l n’apporte pas de nouveaux éléments par rapport à l’avis de la Cnil. La Haute juridiction souligne cependant que les choix légistiques aboutissent à « un résultat très insatisfaisant en termes de lisibilité du droit positif ». @