Responsabilité des hébergeurs : renforcer la modération en ligne, mais éviter les censures

Les patrons de Facebook, Google et Twitter ont été auditionnés le 25 mars au Congrès des Etats-Unis sur « le rôle des médias sociaux dans la promotion de l’extrémisme et de la désinformation » (1). Aucun ne s’oppose à une réforme de la responsabilité des plateformes. L’Europe, elle, a pris de l’avance.

Par Olivia Roche, avocate, et Prudence Cadio, avocate associée, cabinet LPA-CGR avocats

L’utilisation toujours plus massive d’Internet par les internautes a progressivement conduit les plateformes à opérer un filtrage renforcé de leurs contenus. A défaut de contours clairs des règles qui leur sont applicables, les hébergeurs endossent ainsi un nouveau rôle de « premier juge » en établissant des standards pour écarter les éventuels abus liés à l’utilisation de leurs services.

Les plateformes, juges et parties
Aujourd’hui, en Europe, les régimes de responsabilité des acteurs de l’Internet résultent principalement de la directive « E-commerce » de 2000 relative à certains aspects juridiques des services de l’information, et notamment du commerce électronique (2). Cette directive européenne a été transposée en droit français par la loi dite « pour la confiance dans l’économie numérique », ou loi « LCEN » (3). Celle-ci distingue, d’une part, les intermédiaires techniques, fournisseurs d’accès à Internet (FAI) et hébergeur et, d’autre part, les éditeurs de contenus, éditeurs de site web et internautes. Les premiers fournissent un accès au public à des services de communications électroniques et leur permettent de stocker les contenus fournis par les destinataires de ce service, tandis que les seconds utilisent ces services comme outils de communication.
Contrairement aux règles applicables aux éditeurs, la LCEN prévoit que les hébergeurs ne sont pas soumis à « une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ni une obligation générale de rechercher des faits ou des circonstances révélant des activités illicites », sans préjudice « de toute activité de surveillance ciblée et temporaire demandée par l’autorité judiciaire » (4). Ainsi, c’est seulement à partir du moment où un contenu illicite est porté à la connaissance de l’hébergeur, que celui-ci doit « agir promptement pour retirer ces données ou en rendre l’accès impossible » (5) – à défaut sa responsabilité étant susceptible d’être engagée. Dès lors, les hébergeurs endossent une responsabilité très limitée dans la mesure où ils ne sont pas tenus de rechercher les contenus illicites parmi ceux qu’ils hébergent. En effet, de même que les FAI, les hébergeurs doivent simplement collaborer à la lutte contre les contenus illicites. Leur responsabilité est limitée aux seuls cas où ils n’auraient pas retiré – promptement – un contenu stocké qu’ils savent manifestement illicite après avoir reçu une notification signalant ce contenu, cette notification étant soumise à des règles précises pour être valide, telles que prévues par la LCEN.
A l’origine, ce régime de responsabilité limitée a été établi pour éviter la censure par les hébergeurs et afin de préserver la liberté d’expression sur Internet. Néanmoins, aujourd’hui, les réseaux sociaux sont de plus en plus présents dans notre environnement en raison du nombre croissant d’utilisateurs et de la multiplication des contenus postés.
Cette explosion de l’utilisation d’Internet a eu pour conséquence le développement d’abus tels que l’incitation à la haine, la violence ou les propos injurieux (mention de l’origine israélienne du père d’April Benayoum, tweets antisémites envers Miss France 2021, affaire de l’influenceur Marvel Fitness, …), ce qui a été renforcé par la possibilité pour les auteurs de rester anonymes. Dans ces conditions, les hébergeurs ont dû dépasser le rôle qui leur avait été initialement été assigné par la directive européenne « E-commerce » et la loi française LCEN en contrôlant davantage les publications mises en ligne via leurs services. L’exposition quotidienne du nombre de contenus mis en ligne et l’impossibilité, en cas de contenus illicites, de saisir autant de juges, au surplus dans un contexte mondialisé, ont contribué au développement de prises de décisions arbitraires et extrajudiciaires par les plateformes numériques elles-mêmes.

Suppressions et risques de censures
Ces opérateurs privés revêtent ainsi progressivement un rôle de « premier juge » dans la mesure où, comme l’a récemment rappelé en France la Cour d’appel de Versailles, ils doivent « prendre toutes mesures techniques » pour « retirer les données illicites ou en rendre l’accès impossible quelles qu’en soient les conséquences » (6). Pour respecter ces obligations, les hébergeurs sont nécessairement amenés à apprécier, de manière autonome et parfois arbitraire, le caractère illicite ou non des contenus partagés via leurs plateformes. Ces systèmes de restriction des réseaux sociaux sont au cœur d’enjeux importants au regard de la liberté d’expression. Un certain nombre d’éditeurs de contenus ou d’utilisateurs de plateformes en ligne ou de réseaux estiment que ces mécanismes se rapprochent aujourd’hui d’une forme de censure de la part des acteurs du Net qui ont pu procéder à des suppressions de contenus jugées abusives.

Techniques de filtrage à encadrer
A titre d’exemples, il y a eu la suspension en janvier 2021 du compte de la militante féministe Mélusine pendant 12 heures suite à un tweet, ainsi que la fermeture en février 2011 du compte de l’enseignant Frédéric Durant qui avait publié une photo du tableau de Gustave Courbet « L’Origine du monde ». Les demandes de retraits se multipliant le rôle des plateformes évolue, celles-ci devant faire un arbitrage dépassant l’appréciation des contenus « manifestement illicites ». Si la viralité des contenus publiés complique la modération, les hébergeurs développent de nouveaux standards qui leur sont propres et leur permettent un contrôle plus accru.
C’est dans ce contexte, où les pratiques de filtrages sur mesure sont mises en œuvre par les plateformes numériques, avec des méthodes souvent floues et nonharmonisées, que les initiatives légales et réglementaires visant à renforcer les obligations des hébergeurs ont été entreprises. La situation actuelle, mais également la volonté de lutter contre la diffusion de contenus haineux ou injurieux en ligne, ont poussé les législateurs à repenser le régime de responsabilité des acteurs de l’Internet. C’est dans cette perspective que la proposition de loi française dite « Avia » (7), visant à lutter contre les contenus haineux sur Internet, avait été portée afin de modifier les dispositions de l’article 6 la LCEN. L’article 1er de la proposition de loi Avia prévoyait notamment que les hébergeurs et les éditeurs disposaient d’un délai d’une heure pour retirer les contenus à caractère terroriste ou pédopornographique notifiés par l’autorité administrative.
Néanmoins, ces dispositions ont été censurées par le Conseil constitutionnel qui a jugé que le dispositif prévu n’aurait fait « qu’inciter les opérateurs de plateforme en ligne à retirer les contenus qui leur sont signalés, qu’ils soient ou non manifestement illicites » et que ces dispositions « portent donc une atteinte à l’exercice de la liberté d’expression et de communication qui n’est pas nécessaire, adaptée et proportionnée » (8). Dans la continuité de la censure partielle de la proposition de loi Avia, un amendement a été porté en janvier 2021 afin d’introduire, au sein du projet de loi confortant « le respect des principes de la République » (9), un mécanisme de contrôle des contenus illicites publiés sur les plateformes en ligne. L’adoption de ce texte permettrait à la France d’anticiper l’entrée en vigueur du règlement européen « Digital Service Act » (DSA) – en cours d’élaboration au sein du Conseil de l’Union européenne et des instances préparatoires (10) – et de se doter de moyens plus efficaces de lutte contre les contenus illicites en ligne.
Cet amendement de « mise en œuvre des procédures et des moyens humains et technologiques proportionnés » (11) vise à compléter le dispositif prévu par la LCEN en créant de nouvelles obligations substantielles à la charge des plateformes numériques en matière de modération des contenus illicites, de transparence quant aux algorithmes utilisés pour retirer des contenus de manière automatisée, ou encore de procédures de traitement des injonctions des autorités judiciaires ou publiques.
Le contrôle de la mise en œuvre de ces obligations serait confié au Conseil supérieur de l’audiovisuel (CSA), en l’occurrence de la future Autorité de régulation de la communication audiovisuelle et numérique (Arcom) issue de la fusion du CSA et de l’Hadopi, qui pourrait prononcer des mises en demeure, éventuellement suivies d’amendes administratives pouvant atteindre 20 millions d’euros ou 6 % du chiffre d’affaires mondial total de l’exercice précédent de la plateforme mise en cause. Ce nouveau dispositif imposerait aux plateformes de l’Internet une meilleure transparence et coopération avec les autorités mais également de publier des conditions générales d’utilisation claires et transparentes, afin de prévoir l’interdiction de mettre en ligne des contenus illicites. Cette réforme obligerait également ces plateformes numériques à détailler leurs moyens et procédures internes pour détecter, identifier et traiter ces contenus illicites, et à prévoir une procédure de recours interne pour contester les décisions de modération qu’elles auraient prises.

Libertés d’expression et de création
Ces tentatives multiples de réforme du statut des hébergeurs de contenus mis en ligne illustrent le principe suivant : si la possibilité d’exprimer ses opinions sur Internet et la liberté de créer ou de caricaturer doivent être protégées, cela doit néces-sairement être concilié avec la sauvegarde de l’ordre public. Compte tenu de ce double objectif, le cadre juridique pertinent est délicat à définir pour protéger la liberté d’expression tout en poursuivant la lutte contre la diffusion massive sur Internet de contenus illicites. @

Les discussions secrètes et le lobbying autour de l’article 17 controversé de la directive « Copyright »

La culture du secret qui caractérise les négociations et le lobbying autour de l’article 17 controversé de la directive « Copyright » n’est pas digne du fonctionnement démocratique de l’Europe. Alors que tous les internautes européens sont concernés par le filtrage et les risques de censures sur le Net.

La dernière réunion de négociation en date autour de l’article 17 controversé s’est tenue dans le plus grand secret – à huis clos – le 12 février dernier entre la DG Connect de la Commission européenne, des membres du Parlement européen et des représentants des Etats membres. Cette direction « Communications Networks, Content and Technology » (1), pilotée par Roberto Viola (photo) sous la houlette de Margrethe Vestager, vice-présidente de la Commission européenne, et de Thierry Breton, commissaire européen en charge du Marché intérieur, ne fait pas vraiment dans la clareté.

Futures lignes directrices, sujet sensible
Alors que jusqu’à il y a un an, la DG Connect faisait preuve d’un peu de transparence sur le « dialogue des parties prenantes sur l’application de l’article 17 de la directive sur le droit d’auteur dans le marché unique numérique » (2), force est de constater que depuis février 2020, c’est le blackout quasi-total sur ce qui se dit et s’échange lors des réunions au tour de cet article 17 controversé. C’est d’autant plus regrettable que les futures lignes directrices sur son application porteront sur des dispositions concernant au premier chef les internautes européens eux-mêmes. Les lignes directrices qui découleront de ces tractations auront un impact sur le filtrage, le blocage et le risque de censure sur Internet.
Pour les ayants droit des industries culturelles, il s’agit de lutter contre le piratage en ligne en exigeant des plateformes numériques qu’elles prévoient des dispositifs techniques pour supprimer les contenus enfreignant le droit d’auteur. Pour éviter un filtrage automatique et généralisé des contenus sur Internet, la Commission européenne avait – dans son projet de lignes directrices (3) sur l’article 17 publié en septembre 2020 – instauré un distinguo entre contenus « vraisemblablement contrefaisants » et ceux « vraisemblablement légitimes ». C’est cette dernière notion – de « téléchargement susceptible d’être légitime » – que les discussions achoppent à Bruxelles. C’est aussi sur ce point (de blocage) que des eurodéputés, de tous bords – mais principalement des deux plus grands groupes politiques – le Parti populaire européen (PPE) de droite et les Socialistes et démocrates (S&D) de gauche – ont fait part dans une lettre (4), juste avant la réunion technique du 12 février, de leur insatisfaction sur l’interprétation de l’article 17 par la Commission européenne. « L’approche actuelle des lignes directrice ne reflète pas correctement l’accord obtenu après de longues négociations sur l’article 17 de la directive sur le droit d’auteur », écrivent ces parlementaires, dont les Français Geoffroy Didier (PPE), Sylvie Guillaume (S&D) ou encore Laurence Farreng (Renew Europe). Et les eurodéputés de s’inquiéter : « La dernière réponse de la Commission européenne aux questions du Parlement européen sur cette question et les récentes déclarations publiques des membres des services de la DG Connect n’ont pas contribué à apaiser ces préoccupations ».
Roberto Viola, le patron de la DG Connect, et Giuseppe Abbamonte, directeur de la politique des médias à cette même DG Connect, ont tenté d’apaiser les craintes des parlementaires européens. En revanche, d’après Election Libre, le cabinet de Thierry Breton était convié à cette réunion tendue mais n’y a pas participé. L’eurodéputé Axel Voss (PPE), qui fut rapporteur de la directive « Copyright » (5) adoptée le 17 avril 2019 et publiée le 17 mai suivant, est bien sûr intervenu dans cette réunion électrique. « Aucune réunion de suite n’est prévue », a indiqué la Cnect (DG Connect) à Edition Multimédi@. Le temps presse car cette directive européenne « sur le droit d’auteur et les droits voisins dans le marché unique numérique » doit être transposée par les Vingt-sept « au plus tard le 7 juin 2021 », dans trois mois maintenant.

Paris et Berlin, pas dans le même axe
La France, qui veut être aux avant-postes de la transposition justement de ce texte qu’elle a largement contribué à élaborer, fait partie des pays européens – avec l’Italie, le Portugal, l’Espagne, la Croatie, le Danemark, ou encore la Grèce – qui estiment que les orientations (notamment des lignes directrices ou guidance sur l’article 17) n’atteindraient pas les objectifs initialement fixés par la Commission européenne en matière de protection de la propriété intellectuelle des détenteurs de droits en Europe. Paris n’est d’ailleurs pas sur la même longueur d’onde que Berlin : le projet de transposition de la France donne un rôle prépondérant à l’intervention préventive pour bloquer des contenus, mais avec des risques de sur-blocages et d’atteintes à la liberté d’expression sur Internet, alors que l’Allemagne a une approche qui est celle de la Commission européenne où le contenu présumé licite ne peut pas être bloqué automatiquement (voir schéma ci-dessous).

Ne pas sacrifier la liberté d’expression
A trois mois de la deadline pour la transposition de la directive « Copyright », cet article 17 continue de cristalliser les oppositions. Ce n’est pas faute, pour la Commission européenne, d’avoir mené une série de consultations depuis le second semestre 2019 et au début de l’année 2020, afin de clarifier la mise en œuvre de cet article controversé. Le projet de lignes directrices (guidance) issu de ces concertations et lobbying des parties en présence – plateformes numériques, d’un côté, industries culturelles, de l’autre – n’a pas permis de parvenir à un consensus, les ayants droit estimant que le compte n’y est pas (6).
En cause, selon eux, un nouveau principe dit de « téléchargement susceptible d’être légitime », prévoyant un modus operandi pour l’application de l’article 17 où les instructions des détenteurs de droits seraient simplement écartées dans le cadre des mesures préventives. La Commission européenne, elle, cherche à préserver un équilibre entre le respect des œuvres protégée par le droit de propriété intellectuelle et les exceptions au droit d’auteur. Objectif : ne pas sacrifier la liberté d’expression, de création et d’information, dont font partie la citation, la critique, la revue, la caricature, la parodie ou le pastiche (dixit l’article 17). En France, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – dépendant du ministère de la Culture – avait regretté l’an dernier que la Commission européenne « esquiss[e] des lignes directrices qui réserveraient les blocages aux seuls cas de certitude de contrefaçon, et en donnant à la protection des exceptions […] une place centrale au détriment de l’effectivité des droits » (7).
L’article 17 incite en tout cas les plateformes de partage numériques (YouTube, Facebook, Twitter, …) à obtenir une autorisation – « par exemple en concluant un accord de licence » – qui « couvre également les actes accomplis par les utilisateurs (…) lorsqu’ils n’agissent pas à titre commerciale ou lorsque leur activité ne génère pas de revenus significatifs ». A défaut d’accord d’autorisation, ces plateformes – que la directive « Copyright » appelle « fournisseurs de services de partage de contenus en ligne » – sont alors responsables du piratage des œuvres protégées. A moins qu’ils ne montrent pattes blanches : « meilleurs efforts » pour obtenir une autorisation ou pour garantir l’indisponibilité les contenus signalés comme piratés ; « agi[r] promptement », dès réception d’une notification des titulaires de droits, pour bloquer l’accès aux contenus protégés. @

Charles de Laubier

La loi Hadopi se retrouve partiellement censurée

En fait. Le 20 mai, le Conseil constitutionnel a « censuré des dispositions organisant l’accès de la Hadopi à tous documents, dont des données de connexion des internautes » (1). « Cette décision ne change rien pour nous », assure l’Hadopi à EM@. La Quadrature du Net avait, elle, crié trop vite : « Hadopi est vaincue ».

En clair. « La décision du Conseil constitutionnel ne change rien pour le fonctionnement de l’Hadopi et de sa réponse graduée ; elle nous conforte même dans notre action et notre façon d’obtenir des fournisseurs d’accès à Internet (FAI) l’identité, l’adresse postale, l’adresse électronique et les coordonnées téléphoniques de l’abonné dont l’accès a été utilisé à des fins de piratage », indique l’Hadopi à Edition Multimédi@. Les membres de la commission de protection des droits (CPD), bras armé de la réponse graduée de l’Hadopi, et ses agents publics assermentés peuvent continuer à demander aux FAI – Orange, SFR, Bouygues Telecom et Free en tête – l’identification des internautes présumés pirates, dont les organisations de la musique (SCPP, Sacem/SDRM et SPPF) et du cinéma (Alpa) lui fournissent depuis dix ans maintenant les adresses IP collectées par la société nantaise Trident Media Guard (TMG). Mais en censurant le mot « notamment » dans l’article 5 de la loi « Hadopi 1 » (2), précision jugée anticonstitutionnelle, les juges du Palais-Royal ordonnent que l’Hadopi s’en tienne aux seules données personnelles que sont « l’identité, l’adresse postale, l’adresse électronique et les coordonnées téléphoniques » de l’abonné incriminé. « De toute façon, nous assure l’Hadopi, nous nous en tenions à ces seules données d’identification des internautes ». En outre, a été jugé contraire à la Constitution le pouvoir exorbitant conféré aux agents assermentés de la CPD d’« obtenir tous documents, quel qu’en soit le support, y compris les données conservées et traitées par les opérateurs de communications électroniques » . En mettant tous les documents d’identification en « open bar » (si l’on peut dire), le législateur a fait l’erreur de ne pas limiter ce « droit de communication » et de livrer des « informations nombreuses et précises » sur les internautes, « particulièrement attentatoires à leur vie privée ».
L’article L. 331-21 du code de la propriété intellectuelle (introduit par l’article 5 de la loi « Hadopi 1 ») est donc censuré sur sa partie illégale (3) au regard de la jurisprudence. Là encore, l’Hadopi ne s’estime pas im-pactée : « Nous n’utilisions pas cette possibilité d’obtenir tous documents ». Son président, Denis Rapone, doit communiquer ce lundi. Après avoir crié un peu trop vite « Hadopi est vaincue » (4), La Quadrature du Net a, elle, rectifié le tir en « Hadopi, une victoire de façade ? » (5). @

Haine sur Internet : la loi Avia veut lutter
contre un fléau sans « privatiser la censure »

Le marathon parlementaire de la future loi « Avia » contre la haine sur Internet n’en finit pas. Rédigé à la va-vite, le texte est controversé. Le délai de retrait de 24 heures – disposition supprimée puis réintégrée (délai ramené à 1 heure dans certains cas) – illustre la valse-hésitation du législateur.

Par Rémy Fekete, avocat associé, cabinet Jones Day

C’était il y a 37 ans… Dans « L’ère du vide » (1), Gilles Lipovetsky s’essayait déjà à analyser jusqu’où l’individualisme emmenait la société contemporaine, à force de tout tourner en dérision, de mettre fin à toute hiérarchie, vers une ère postmoderne. Ce postmodernisme se traduisait selon l’auteur, par une forme d’épuisement des valeurs collectives, de réduction de la violence physique, et globalement une ère de bien-pensance dans laquelle l’engagement laissait place à la tolérance.

Eviter une société schizophrène
Lipovetsky ne pouvait s’imaginer combien la généralisation de l’usage de l’Internet allait décupler cet individualisme, déjà fortifié pendant les années 1980 par les contre-vertus combinées de la crise économique et de l’explosion de la consommation audiovisuelle. De fait, 2019 parait déjà comme une année charnière puisque pour la première fois, le temps passé sur Internet dépasse celui devant les écrans de télévision (2). Récemment, le neuroscientifique Michel Desmurget nous alarmait sur la situation, selon lui presque désespérée, des atteintes portées par la visualisation d’écran pour les enfants et adolescents. Avec plus de 1.000 heures par an devant un écran, les enfants de maternelle entrent dans un processus de « crétinisation » qui ne fait que s’amplifier (3). Le risque présenté par une consommation non contrôlée de l’Internet est exacerbé par la facilité de l’accès à la violence sur le Net.
La haine et la violence s’expriment de multiples manières, telles que le cyberharcèlement, les propos haineux, les images violentes. Ces risques constatés depuis une trentaine d’années (4) ont fait l’objet de multiples dispositifs législatifs et en particulier de la loi du 21 juin 2004 « pour la confiance dans l’économie numérique » – loi dite LCEN. Depuis, de nombreux autres textes sont venus compléter l’édifice législatif français pour prendre en considération à la fois l’instrumentalisation de l’Internet dans le cadre des activités terroristes visant notre territoire, et les enjeux particuliers que présente l’effet démultiplicateur des réseaux sociaux. C’est dans ce cadre, à l’occasion du plan du gouvernement de lutte contre le racisme et l’antisémitisme le 6 mars 2018, que le Premier ministre a confié à la députée Laetitia Avia (5), à l’écrivain Karim Amellal (6) et à Gil Tayeb (7) le soin de réfléchir aux outils à mettre en place pour lutter plus efficacement contre le racisme et l’antisémitisme sur Internet. C’est la deuxième fois, sous le mandat du président de la République et à la demande de l’exécutif, que les députés sont amenés à se pencher sur les limites à la liberté d’expression sur Internet. On se rappellera le fâcheux précèdent de la loi contre « la manipulation de l’information » en période électorale (8), loi dite « Fake news » promulguée le 23 décembre 2018. La proposition de loi « Avia » visant à lutter contre la haine sur Internet (9) tente de rajouter un étage supplémentaire dans le contrôle des propos échangés dans le cyberespace. A juste titre, les auteurs de la proposition de loi s’émeuvent de la libération d’une parole haineuse décomplexée sur la Toile et des effets dévastateurs, en particulier sur les jeunes, des phénomènes de cyberharcèlement. Ils constatent également la relative impunité qui règne en matière de cyberhaine, du fait du peu de plaintes déposées et en conséquence de condamnations prononcées. De fait, les plateformes de réseaux sociaux savent habilement échapper à leurs responsabilités tant par une organisation de leur groupe en forme de nébuleuse internationale qu’en exigeant leur statut juridique de simple hébergeur (que leur assure la directive européenne « E-commerce » de 2000). Il est vrai que si nous ne voulons pas voir notre société devenir schizophrène, les interdits applicables dans l’espace public réel devraient également faire l’objet d’interdits dans le cadre de comportements en ligne. Contrairement aux récrits des héros habituels de la liberté à tous crins, une opinion estimée sur Internet ne relève pas plus de la liberté de conscience qu’un cri poussé dans la rue ou qu’un écrit diffusé dans la presse papier. L’Internet a beau être accessible dans la chambre à coucher, il ne relève pas du for intérieur.

Après l’Allemagne, la France légifère
De fait, les évolutions législatives à travers le monde, y compris en Europe, tendent à instaurer des codes de bonne conduite et une responsabilité croissante des acteurs du numérique. Le 1er octobre 2017, l’Allemagne a adopté la loi « NetzDG » par laquelle la responsabilité des plateformes est renforcée avec l’obligation de mettre en place des procédures de traitement des signalements efficaces et transparentes, et l’exigence de retrait des contenus illicites sous 24 heures sous peine de lourde sanction financière.
En France, la réforme de la justice instaurée par la loi de programmation 2018-2022 et de réforme pour la justice (10) a permis de procéder à des avancées qui sont utiles dans le cadre de la lutte contre les propos haineux sur Internet : dépôt de plainte en ligne, jugement par ordonnance pénale plus rapide, responsabilité des plateformes quel que soit leur lieu d’établissement, …

Régime de responsabilité administrative
La proposition de loi Avia prévoit un nouveau régime de responsabilité administrative applicable aux opérateurs de plateforme à fort trafic, selon un seuil de connexion mensuel sur le territoire français qui sera déterminé par décret. L’article 1er du texte, le plus critiqué, notamment au Sénat, prévoit que les opérateurs ont l’obligation de retirer ou de rendre inaccessible dans un délai maximal de 24 heures tout contenu comportant manifestement une incitation à la haine ou une injure discriminatoire en raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap. Le manquement à cette obligation est passible d’une sanction – susceptible d’atteindre 4 % du chiffre annuel mondial de l’opérateur – prononcée par le CSA. Le texte prévoit également, aux termes de son article 2, de faciliter les procédures de notification des contenus illicites par les victimes. Le formalisme procédural qui était prévu initialement par la LCEN de 2004 est considérablement simplifié. Désormais, tous les hébergeurs ont l’obligation de mettre en place un bouton unique de signalement commun à tous les grands opérateurs de plateforme de communication et de simplifier le processus de notification. Le soutien des victimes et des déclarants amène l’article 3 de la proposition de loi à imposer la fourniture par les opérateurs d’une information publique claire et détaillée sur les dispositifs de recours, y compris judiciaire dont disposent les victimes.
Les opérateurs ont également une obligation de transparence en matière de lutte contre les contenus d’incitation à la haine sur Internet (obligation de communiquer le nombre de signalements reçus, la répartition des délits visés, le nombre de signalements abusifs, les moyens humains et financiers engagés, …). Le CSA voit ses compétences élargies à nouveau et il lui reviendra de suivre la lutte engagée contre la haine sur Internet et d’accompagner par ces recommandations les opérateurs de plateforme. L’article 5 impose aux opérateurs de désigner un représentant légal exerçant les fonctions d’interlocuteur référent des autorités sur le territoire français. Cette disposition est en effet essentielle tant les plateformes de réseaux en ligne ont eu jusqu’à présent le loisir de jouer sur la complexité de leur organisation sociale pour éviter de répondre aux autorités administratives judiciaires. Le montant des sanctions applicables a été augmenté de 75.000 à 250.000 euros par infraction. Ce montant reste dérisoire compte-tenu du niveau de revenus des opérateurs, même s’il a vocation à s’appliquer à chacune des infractions, notamment lorsque les représentants des plateformes refusent de coopérer promptement pour lever l’anonymat des auteurs de contenus illicites. Le législateur ayant constaté que les propos racistes sont également diffusés sur des sites web dédiés, il a tenté au sein de l’article 6 de faciliter le blocage et le déréférencement des sites web illicites ainsi que de lutter contre le transfert des contenus litigieux sur des sites miroirs. Il confie le pouvoir à une autorité administrative d’enjoindre le blocage de tels sites miroirs. La proposition de loi Avia prévoit en outre que le gouvernement présente chaque année au Parlement un rapport sur l’exécution de la loi, les moyens consacrés à la lutte contre les contenus licites, y compris en matière d’accompagnement des victimes. Enfin, car la France ne serait plus la France sans mêler à tout texte législatif une disposition fiscale, la proposition crée une taxe additionnelle d’un montant qui reste à définir. Les voies critiques se sont multipliées sur ce texte manifestement rédigé à la va-vite. Conseil national du numérique (11), Conseil d’Etat, Commission européenne (12), … Les avis étaient mitigés ou franchement négatifs, ce qui rend le parcours du combattant parlementaire peu surprenant.
Le Sénat, où certains redoutent une « privatisation de la censure », a finalement adopté le 17 décembre 2019 le texte largement modifié en supprimant notamment le délai de 24 heures prévu par la proposition pour le retrait des contenus illicites. Le texte a été renvoyé en commission mixte paritaire (CMP), qui s’est réunie le 8 janvier 2020 sans parvenir à un accord entre députés et sénateurs. En conséquence, le texte a fait l’objet d’une nouvelle lecture à l’Assemblée nationale les 21 et 22 janvier après avoir été réexaminé le 14 janvier en commission des lois où le délai de 24 heures a été rétabli (13). Ce délai de retrait est assorti d’une amende plafonnée à 1,25million d’euros (14). Le texte a été adopté par les députés, avec l’introduction in extremis par le gouvernement d’un délai de 1 heure seulement pour les contenus terroristes ou pédopornographiques (15). Prochains rendez-vous : le 30 janvier pour une nouvelle lecture au Sénat et le 11 février pour l’adoption définitive du texte à l’Assemblée nationale.

GAFAM, juges de la bien-pensance ?
Espérons que les parlementaires trouveront la voie étroite pour limiter les tombereaux d’ordures qui déferlent sur la Toile, sans donner – ni aux forces étatiques, dont la répression n’est jamais neutre, de nouveaux pouvoirs limitant les libertés publiques, ni au GAFAM, motivés comme jamais par des sanctions pécuniaires significatives – le pouvoir de s’ériger en nouveaux juges de la bien-pensance universelle. Le risque, à défaut, serait de donner une nouvelle dimension à cet « Empire du bien » fustigé par Philippe Murray, qui y voyait avec raison le règne d’une « tolérance hygiénique » sans savoir combien l’Internet contribuerait à décupler ce qu’il appelait avec une anticipation géniale la « Virtue World Corporation ». @