Contenus illicites et piratage en ligne : la Commission européenne menace de légiférer si…

Si les acteurs du Net n’appliquent pas ses recommandations pour lutter contre les contenus à caractère terroriste, les incitations à la haine et à la violence, les contenus pédopornographiques, les produits de contrefaçon et les violations du droit d’auteur, la Commission européenne se dit prête sévir.

Facebook, Twitter, YouTube, Google, Microsoft et bien d’autres plateformes numériques et réseaux sociaux sont plus que jamais mis sous surveillance par la Commission européenne, laquelle les incite fortement – voire les obligera à terme si cela s’avérait nécessaire – à suivre ses recommandations publiées le 1er mars pour lutter contre les contenus illicites (terrorisme, haine, violence, …) et le piratage en ligne d’œuvres protégées par le droit d’auteur (musique, films, jeux vidéo, ebooks, …).

« Outils automatiques » et « vérification humaines »
Il s’agit pour les GAFAM et tous les autres de retirer le plus rapidement possible
les contenus illicites de l’Internet. Les « mesures opérationnelles » que préconisent l’exécutif européen – dans sa recommandation du 1er mars 2018 « sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne » (1) –
ont pour but d’« accélérer la détection et la suppression du contenu illicites en ligne », tout en invitant les entreprises du Net à « appliquer le principe de proportionnalité lors de la suppression de contenu illicite » et « éviter la suppression – involontaire ou erronée – du contenu qui n’est pas illicite » (2) – notamment en prévoyant des procédures accélérées pour les « signaleurs de confiance ».
Il s’agit aussi de faire en sorte que les fournisseurs de contenus soient informés des suppressions de contenus illicites en ligne, afin qu’ils aient la possibilité de les contester par la voie d’un « contre-signalement ». En amont, les plateformes numériques et les réseaux sociaux sont tenus d’établir des règles simples et transparentes pour
« la notification du contenu illicite » ainsi que « des systèmes de notification clairs » pour les utilisateurs. Pour la suppression de ces contenus illicites, la Commission européenne demande à ce que, aux côtés des « outils proactifs » ou « outils automatiques » de détection et de suppression, les acteurs du Net aient aussi recours aussi à des « moyens de supervision et de vérification humaines ». Et ce, afin que les droits fondamentaux, la liberté d’expression et les règles en matière de protection des données soient respectés. Pour autant, dès qu’il existe des preuves d’une infraction pénale grave ou le soupçon qu’un contenu illicite représente une menace pour la vie d’autrui ou la sécurité, « les entreprises doivent informer sans délai les autorités répressives » – « les Etats membres [étant] encouragés à établir les obligations légales appropriées ». Quant aux contenus en ligne à caractère terroriste, ils font, eux, l’objet d’un traitement spécial et d’une « procédures accélérées » (voir encadré page suivante). Les Etats membres et les acteurs du numérique sont « invités » à présenter « dans un délai de six mois » des informations pertinentes sur tous les types de contenus illicites – exceptés les contenus à caractère terroriste où le délai du rapport est de trois mois.
Le vice-président pour le marché unique numérique, Andrus Ansip (photo), table sur l’autorégulation. Mais il menace de prendre des mesures législatives si cette autorégulation des plateformes ne donne pas des résultats efficaces. D’autant que le Parlement européen a déjà enjoint aux acteurs du Net, dans sa résolution du 15 juin 2017 sur les plateformes en ligne et le marché unique numérique (3), de « renforcer leurs mesures de lutte contre les contenus en ligne illégaux et dangereux », tout en invitant la Commission européenne à présenter des propositions pour traiter ces problèmes. Celle-ci va lancer « dans les semaines à venir » une consultation publique. « Ce qui est illicite hors ligne l’est aussi en ligne », prévient-elle. Il y a six mois, l’échéance du mois de mai 2018 avait été fixée pour aboutir sur le sujet et décider s’il y a lieu ou pas de légiférer.

Violations du droit d’auteur, fraudes, haines, …
Ainsi, cinq grandes catégories de contenus illicites en ligne sont susceptibles d’enfreindre des directives européennes déjà en vigueur :
• Violations des droits de propriété intellectuelle, au regard de la directive du 22 mai 2001 sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information – directive dite DADVSI (4).
• Escroqueries et fraudes commerciales, au regard de la directive du 11 mai 2005 sur les pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs dans le marché intérieur (5), ou la directive du 25 octobre 2011 relative aux droits des consommateurs (6).
• Discours de haine illégaux, au regard de la décision-cadre du 6 décembre 2008 sur la lutte contre certaines formes et manifestations de racisme et de xénophobie au moyen du droit pénal (7).
• Matériel pédopornographique, au regard de la directive du 13 décembre 2011 pour la lutte contre les abus sexuels et l’exploitation sexuelle des enfants, ainsi que la pédopornographie (8).
• Contenu à caractère terroriste, au regard de la directive du 15 mars 2017 pour la lutte contre le terrorisme (9).

Vers le filtrage automatisé de l’Internet
Cette recommandation « Contenus illicites en ligne » du 1er mars 2018 sera complémentaire de la révision en cours de la directive « Services de médias audiovisuels » (SMA) qui prévoit des mesures législatives spéciales pour protéger
les mineurs en ligne contre les contenus préjudiciables (10) et tous les citoyens contre les discours de haine (11). Et bien qu’elle n’ait pas de caractère contraignant comme une directive ou un règlement, la recommandation va plus loin que les orientations
pour lutter contre le contenu illicite en ligne présentées en septembre 2017 par la Commission européenne. Pour les plateformes du numérique, grandes ou petites (12), elle énonce les modalités détaillées du traitement des notifications de contenu illicite selon des procédures dites de « notification et action » (notice and action) et encourage les acteurs du Net à recourir à des « processus automatisés comme le filtrage » du contenu mis en ligne. Cependant, au regard du statut d’hébergeur des YouTube, Facebook et autre Twitter, la recommandation du 1er mars 2018 ne modifie pas la directive du 8 juin 2000 sur le commerce électronique, laquelle exonère les intermédiaires en ligne de la responsabilité du contenu qu’ils gèrent. « La recommandation est une mesure non contraignante et ne saurait modifier l’acquis
de l’UE », a justifié à ce propose la Commission européenne, qui s’était engagée en 2016 « à maintenir un régime de responsabilité équilibré et prévisible pour les plateformes en ligne, étant donné qu’un cadre réglementaire fondamental est essentiel pour préserver l’innovation numérique dans l’ensemble du marché unique numérique ». Néanmoins, la directive « Commerce électronique » laisse la place à l’autorégulation pour la suppression de contenu illicite en ligne. Quitte à ce que cette autorégulation
soit supervisée par la Commission européenne, comme avec le « Code de conduite » présenté en septembre 2017 – et convenu avec Facebook, Twitter, Google (YouTube et Google+), Microsoft ainsi que Instagram (propriété de Facebook) rallié plus récemment – pour combattre les discours de haine illégaux sur Internet.

Code de conduite contre « Far West numérique »
Les autres plateformes numériques sont appelées, par Vera Jourová, commissaire européenne à la Justice, aux Consommateurs et l’Egalité des genres, à rejoindre ce Code de conduite. « Nous ne pouvons accepter qu’il existe un Far West numérique
et nous devons agir. Le Code de conduite montre qu’une approche d’autorégulation peut servir d’exemple et produire des résultats », avait-elle prévenu il y a six mois. Récemment, dans une lettre ouverte publiée le 12 mars dernier (13) à l’occasion des
29 ans de l’invention du le World Wide Web dont il est à l’origine, Tim Berners-Lee
a appelé à réguler les grandes plateformes en prônant « un cadre légal ou réglementaire ». @

Charles de Laubier

ZOOM

Contenu à caractère terroriste : pas de temps à perdre
Pour endiguer le contenu terroriste en ligne, qu’il est interdit d’héberger, la Commission européenne joue la montre. Elle recommande la suppression de ce type de contenu
« dans l’heure ». Partant du constat que le contenu à caractère terroriste est le plus préjudiciable au cours des premières heures de sa parution en ligne, « toutes les entreprises doivent supprimer ce type de contenu dans le délai d’une heure à compter de son signalement en règle générale », préconise-t-elle.
Pour les repérer, les GAFAM seront destinataires de « signalements » émanant d’autorités telles que la police ou la gendarmerie, ainsi que ceux effectués par l’unité de signalement des contenus sur Internet (IRU) de l’Union européenne au sein d’Europol, ou par les unités de signalement des Etats membres. Les acteurs du Net auront aussi mis en oeuvre leurs « mesures proactives, notamment en matière de détection automatique, afin de retirer ou désactiver efficacement et promptement le contenu
à caractère terroriste et d’empêcher sa réapparition après qu’il a été supprimé ».
Le contenu terroriste en ligne doit en tout cas faire l’objet de « procédures accélérées » pour traiter les signalements aussi vite que possible. Les Etats membres, eux, sont appelés à s’assurer qu’ils disposent des capacités et des ressources nécessaires
pour « détecter, identifier et signaler » le contenu à caractère terroriste. Ils doivent en outre remettre à la Commission européenne un rapport – « de préférence tous les
trois mois » (six mois pour les contenus illicites non terroristes) – sur les signalements et leur suivi, ainsi que sur la coopération avec les entreprises du Net. Par ailleurs, la Commission européenne soutient ce qu’elle appelle « des voix crédibles pour diffuser en ligne des contre-récits positifs ou des contre-discours » dans le cadre du Forum de l’UE sur l’Internet via son « programme de renforcement des moyens d’action de la société civile » (14) . @