Tout en justifiant son soutien à la directive « Copyright », Qwant prépare une grosse levée de fonds et vise la Bourse

Slogan de Qwant : « Le moteur de recherche qui respecte votre vie privée » – … « et le droit d’auteur », rajouteraiton depuis que son PDG Eric Léandri soutient la directive « Droit d’auteur » – adoptée le 26 mars. Mais il se dit opposé au filtrage du Net. Côté finances, le moteur de recherche veut lever 100 millions d’euros et vise la Bourse.

Qwant, société franco-allemande dont le capital est détenu majoritairement par son PDG fondateur Eric Léandri (photo), à 20 % par la CDC et à 18,4 % par le groupe de médias allemand Axel Springer (1), cherche d’abord à lever 30 millions d’euros de cash dans les deux mois. Objectif : accélérer le développement de ses plateformes. « Nous sollicitons des investisseurs, tandis que nos actionnaires CDC et Axel Springer nous suivent. Ensuite, nous irons vers une vraie belle augmentation de capital d’ici la fin de l’année ou début 2020, avec une levée de fonds à 100 millions d’euros », indique Eric Léandri à Edition Multimédi@. Avec une introduction en Bourse à cette occasion ? « Allez savoir… Rien n’est fermé ! Pour cela, vous avez des obligations d’être propre au niveau comptable », nous a-t-il confié. Concernant le financement de 25 millions d’euros consenti par la Banque européenne d’investissement (BEI) en octobre 2015, le solde a finalement été entièrement versé en 2018.

Liberté de l’Internet versus presse indépendante ?
Le renforcement financier de Qwant prend du temps, l’explication de son soutien à la directive européenne « Droit d’auteur dans le marché unique numérique » aussi ! Eric Léandri ne cesse de devoir justifier son choix – mais en assurant qu’il est contre les robots de filtrage automatisé que permet l’article 13 (devenu 17) de cette directive adoptée le 26 mars. « Il fallait que la directive “Droit d’auteur” soit votée pour que la presse finisse par être indépendante et libre. Sinon, d’ici trois ans, il n’y aura plus de journaux, sauf quelques-uns financés par des géants et des journalistes payés au lance-pierre. Et sans presse, un moteur de recherche n’est pas capable de vous donner autre chose que les résultats de l’Internet », nous explique-t-il. D’un côté, il est salué par le ministre de la Culture, Franck Riester, pour « a[voir]annoncé le 20 mars son engagement en faveur de la directive “Droit d’auteur” ». De l’autre, il est critiqué pour avoir appelé à voter pour un texte qui déroule le tapis rouge aux robots filtreurs au profit des  Lire la suite

Réforme du droit d’auteur : les eurodéputés rejettent le risque de filtrage généralisé d’Internet

En rejetant le 5 juillet 2018 la réforme controversée de la directive sur le droit d’auteur, les eurodéputés jouent les prolongations en renvoyant la poursuite des débats à septembre prochain. Le risque de filtrage généralisé de l’Internet est l’un des points noirs de ce projet législatif.

L’article 13 de la directive européenne « Droit d’auteur dans le marché unique numérique » est le plus controversé de la réforme du copyright, contre laquelle 318 eurodéputés se sont prononcés contre le 5 juillet à Strasbourg (versus 278 pour et 31 abstention). Cet article 13 est celui qui fait le plus débat – voire polémique – dans ce projet de texte qui vient d’être rejeté. Car il introduirait une responsabilité des plateformes du numériques – de YouTube à Facebook, en passant par Twitter, Dailymotion ou encore Wikipedia – sur le sort des contenus (musiques, films, photos, …) qu’elles hébergent et mettent à disposition sur Internet.

L’article 13 cristallise l’opposition
Cet article 13, qui avait pourtant obtenu le 20 juin dernier la bénédiction de la commission des Affaires juridiques (JURI) du Parlement européen (15 voix pour, 10 contre), présente le risque d’ouvrir la voie au filtrage généralisé d’Internet dans la mesure où les GAFA devraient supprimer de façon préventive les contenus considérés comme piratés. Leur responsabilité serait ainsi étendue à la lutte contre le piratage en ligne, au point de leur demander d’utiliser le filtrage automatique de téléchargement en cas de violation de la propriété intellectuelle. YouTube, la filiale vidéo de Google, utilise déjà un système d’identification des contenus protégés, baptisé Content ID, qui détecte automatiquement les violations présumées de droits d’auteur. Un fois que le contenu « piraté » est repéré, YouTube le supprime aussitôt.
C’est la perspective de ce filtrage généralisé qui pose problème depuis la présentation de ce projet de directive en septembre 2016 par la Commission européenne. Le 25 mai dernier, les Etats membres, au sein du Conseil de l’Union européenne, s’étaient mis d’accord sur la responsabilisation des plateformes. Le projet de texte (1) oblige les prestataires de services à obtenir l’autorisation des ayants droits. Ainsi, l’article 13 stipule : « Quand il a aucune autorisation, par exemple parce que le détenteur de droits ne veut pas conclure une licence, le prestataire de services devra empêcher la disponibilité des œuvres identifiées par l’ayant droit. Sinon, les prestataires de service seront considérés comme responsables de l’infraction au copyright. (…) Sur la notification par l’ayant droit d’une oeuvre protégée non autorisé, le prestataire de services devra prendre des mesures urgentes pour supprimer l’oeuvre et l’empêcher de devenir disponible à l’avenir ». Autrement dit, en absence de d’autorisation de l’ayant droit, un fournisseur de services de partage de contenu en ligne sera tenu pour responsable s’il ne démontre pas qu’il a fait preuve des meilleurs efforts pour empêcher la disponibilité des œuvres spécifiques ou autres « en mettant en oeuvre des mesures efficaces et proportionnées, pour empêcher la disponibilité sur ses services des œuvres spécifiques ou autres identifiées par le détenteur de droits et pour lequel celui-ci a fourni au service des informations pertinentes et nécessaires pour l’application de ces mesures, et sur notification de l’ayant droit ». Cet article 13 soulève de nombreux problèmes de compatibilité avec la directive européenne de 2000 sur le commerce électronique (2), laquelle régit – depuis près de vingt ans maintenant – une bonne partie des responsabilités des acteurs de l’Internet qui ne sont soumis à aucune obligation de surveillance préalable des contenus. Le statut d’hébergeur à responsabilité limité avait d’ailleurs été conforté le 24 novembre 2011 par la Cour de justice de l’Union européenne (CJUE) dans un arrêt « Scarlet contre Sabam » dans lequel elle a décidé que« le droit de l’Union s’oppose à une injonction faite à un [fournisseur d’Internet] de mettre en place un système de filtrage de toutes les communications électroniques transitant par ses services ». La directive « e-commerce » de 2000 prévoit en effet, dans son article 15 intitulé « Absence d’obligation générale en matière de surveillance », que « les États membres ne doivent pas imposer aux [fournisseur d’Internet] une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites » (3).

Les arrêts « contre » de la CJUE
De plus, la CJUE avait estimé qu’« une telle obligation de surveillance générale serait incompatible » avec une autre directive et non des moindres : à savoir la directive « Propriété intellectuelle » du 29 avril 2004 (4), selon laquelle « les mesures [pour assurer le respect des droits de propriété intellectuelle] ne doivent pas être inutilement complexes ou coûteuses et ne doivent pas comporter de délais déraisonnables ». Ce qui n’est pas le cas du filtrage généralisé. Et comme si cela ne suffisait pas, les juges européens en ont appelé à la Charte des droits fondamentaux de l’Union européenne signée le 7 décembre 2000 et devenue « force juridique obligatoire » depuis l’entrée en vigueur du Traité de Lisbonne en décembre 2009. « La protection du droit de propriété intellectuelle est certes consacrée [par] la charte des droits fondamentaux de l’Union européenne (article 17, paragraphe 2). Cela étant, il ne ressort nullement (…) qu’un tel droit serait intangible et que sa protection devrait donc être assurée de manière absolue », a estimé la CJUE. Un autre arrêt européen, daté du 16 février 2012 celui-là (Sabam contre Netlog (5)), s’est lui aussi opposé à une surveillance généralisée du Net. En France, la loi pour la confiance dans l’économie numérique (LCEN) de 2004 est venue à son tour sanctuariser ce régime de responsabilité limitée de l’hébergeur.

Mises en garde et controverses
Malgré toutes ces précautions législatives et jurisprudentielles, le statut des hébergeurs du Net était menacé. Les mises en gardes des opposants et les campagnes des lobbies ont finalement abouti au rejet du 5 juillet. « Ces mesures [si elles devaient être adoptées à la rentrée, ndlr] vont sérieusement saper les libertés fondamentales de l’Internet. Placer les intérêts particuliers des grosses compagnies média avant notre capacité à participer librement en ligne est inacceptable », avait lancé le 20 juin dernier l’eurodéputée Julia Reda (photo), qui fut l’auteur en 2015 du premier rapport (6) demandé par le Parlement européen en vue de cette réforme du droit d’auteur à l’ère du numérique. Selon elle, « l’article 13 va forcer les plateformes Internet (réseaux sociaux, sites vidéo, hébergeurs de photos, etc.) à installer de puissants filtres pour inspecter tout contenu publié par des utilisateurs, aussi en images – et donc à bloquer la plupart des “mèmes” (7), ceux-ci étant en général basé sur des images connues et non libres de droits ». Du côté des utilisateurs, le Bureau européen des unions de consommateurs (Beuc), basé à Bruxelles, avait exprimé son inquiétude, par la voix de sa directrice générale, Monique Goyens :
« Internet tel que nous le connaissons ne sera plus le même à partir du moment où les plateformes devront systématiquement filtrer le contenu que les utilisateurs veulent télécharger. Internet va passer d’un lieu où les utilisateurs peuvent partager leurs créations et leurs idées à un lieu contraignant et contrôlé ». La Quadrature du Net, elle, avait dénoncé très tôt « l’automatisation de la censure au nom de la protection du droit d’auteur et, plus largement, contre la centralisation du Web » (8). Cette association de défense des droits et libertés numériques a pris acte des « garanties » présentées par l’eurodéputé rapporteur du texte, Axel Voss, à savoir contre des censures arbitraires ou abusives : la censure opérée par les plateformes ne doit pas conduire au filtrage de contenus qui ne contreviennent pas à un droit d’auteur, ni au déploiement d’une surveillance généralisée des contenus mis en ligne ; un mécanisme de contestation rapide auprès de la plateforme, ainsi que la possibilité de saisir un juge afin de faire valoir des exceptions au droit d’auteur qui rendraient le filtrage injustifié. Mais ce compromis n’avait pas convaincu La Quadrature du Net, ni même Wikipedia qui avait protesté le 4 juillet en se rendant inaccessible dans plusieurs pays européens. Surtout qu’un article 11 prévoit, lui, l’instauration d’un droit voisin pour les éditeurs de presse. Encore plus contesté que l’article 13, il fut adopté le 20 juin dernier de justesse (13 voix pour, 12 contre). Ce droit voisin va permettre aux journaux, magazines ou encore aux agences de presse de se faire rémunérer lors de la réutilisation en ligne de leurs contenus par les agrégateurs d’informations tels que Google News ou Yahoo News (9). Surnommée « taxe sur les liens » (link tax) pour les contenus d’actualité, cette mesure suppose aussi de surveiller et filtrer Internet pour la mettre en oeuvre. « Le filtrage automatique des téléchargements et les droits voisins vont entraîner une censure de la liberté d’expression en ligne et un délitement d’Internet tel que nous le connaissons », avait déclaré Siada El Ramly, directrice générale d’Edima (European Digital Media Association), organisation représentant les GAFA (10). Le 5 juillet, l’Edima a considéré le rejet du texte comme « une victoire pour la démocratie ». Quant à l’association CCIA (Computer & Communications Industry Association), basée aux Etats-Unis et porte-parole des mêmes géants américains du Net, elle avait fustigé aussi la réforme du droit d’auteur : « Les filtres de téléchargement présenteront une obligation générale de contrôler le contenu téléchargé par l’utilisateur, ce qui sera destructeur pour les droits fondamentaux des citoyens européens et pour responsabilité limité des plateformes – une pierre angulaire légale pour le secteur numérique européen ».
En France, l’Association des services Internet communautaires (Asic) – présidée par Giuseppe de Martino (11) – avait lancé un appel le 13 avril dernier, dans une tribune parue dans Le Monde et cosignée par le Syntec numérique, France Digitale, Tech in France et Renaissance numérique, en demandant « au gouvernement français de préserver l’Internet ouvert tel que nous le connaissons actuellement, en empêchant l’instauration d’un filtrage généralisé ». Ensemble, ils ont mis en garde : « Le développement d’Internet, la créativité, la diversité des contenus que l’on peut y trouver et qui font sa richesse s’en trouveraient gravement menacés ». Les eurodéputés les ont entendus.

« Outils automatiques » et contenus illicites
La Commission européenne, elle, incite fortement les plateformes à mettre en place des « outils automatiques » de détection pour lutter non seulement contre le piratage en ligne mais aussi les contenus à caractère terroriste, les incitations à la haine et à la violence, les contenus pédopornographiques, les produits de contrefaçon. C’est le sens de sa recommandation du 1er mars (12). Elle avait fixé l’échéance du mois de mai 2018 avant de décider s’il y a lieu ou pas de légiférer. @

Charles de Laubier

Contenus illicites et piratage en ligne : la Commission européenne menace de légiférer si…

Si les acteurs du Net n’appliquent pas ses recommandations pour lutter contre les contenus à caractère terroriste, les incitations à la haine et à la violence, les contenus pédopornographiques, les produits de contrefaçon et les violations du droit d’auteur, la Commission européenne se dit prête sévir.

Facebook, Twitter, YouTube, Google, Microsoft et bien d’autres plateformes numériques et réseaux sociaux sont plus que jamais mis sous surveillance par la Commission européenne, laquelle les incite fortement – voire les obligera à terme si cela s’avérait nécessaire – à suivre ses recommandations publiées le 1er mars pour lutter contre les contenus illicites (terrorisme, haine, violence, …) et le piratage en ligne d’œuvres protégées par le droit d’auteur (musique, films, jeux vidéo, ebooks, …).

« Outils automatiques » et « vérification humaines »
Il s’agit pour les GAFAM et tous les autres de retirer le plus rapidement possible
les contenus illicites de l’Internet. Les « mesures opérationnelles » que préconisent l’exécutif européen – dans sa recommandation du 1er mars 2018 « sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne » (1) –
ont pour but d’« accélérer la détection et la suppression du contenu illicites en ligne », tout en invitant les entreprises du Net à « appliquer le principe de proportionnalité lors de la suppression de contenu illicite » et « éviter la suppression – involontaire ou erronée – du contenu qui n’est pas illicite » (2) – notamment en prévoyant des procédures accélérées pour les « signaleurs de confiance ».
Il s’agit aussi de faire en sorte que les fournisseurs de contenus soient informés des suppressions de contenus illicites en ligne, afin qu’ils aient la possibilité de les contester par la voie d’un « contre-signalement ». En amont, les plateformes numériques et les réseaux sociaux sont tenus d’établir des règles simples et transparentes pour
« la notification du contenu illicite » ainsi que « des systèmes de notification clairs » pour les utilisateurs. Pour la suppression de ces contenus illicites, la Commission européenne demande à ce que, aux côtés des « outils proactifs » ou « outils automatiques » de détection et de suppression, les acteurs du Net aient aussi recours aussi à des « moyens de supervision et de vérification humaines ». Et ce, afin que les droits fondamentaux, la liberté d’expression et les règles en matière de protection des données soient respectés. Pour autant, dès qu’il existe des preuves d’une infraction pénale grave ou le soupçon qu’un contenu illicite représente une menace pour la vie d’autrui ou la sécurité, « les entreprises doivent informer sans délai les autorités répressives » – « les Etats membres [étant] encouragés à établir les obligations légales appropriées ». Quant aux contenus en ligne à caractère terroriste, ils font, eux, l’objet d’un traitement spécial et d’une « procédures accélérées » (voir encadré page suivante). Les Etats membres et les acteurs du numérique sont « invités » à présenter « dans un délai de six mois » des informations pertinentes sur tous les types de contenus illicites – exceptés les contenus à caractère terroriste où le délai du rapport est de trois mois.
Le vice-président pour le marché unique numérique, Andrus Ansip (photo), table sur l’autorégulation. Mais il menace de prendre des mesures législatives si cette autorégulation des plateformes ne donne pas des résultats efficaces. D’autant que le Parlement européen a déjà enjoint aux acteurs du Net, dans sa résolution du 15 juin 2017 sur les plateformes en ligne et le marché unique numérique (3), de « renforcer leurs mesures de lutte contre les contenus en ligne illégaux et dangereux », tout en invitant la Commission européenne à présenter des propositions pour traiter ces problèmes. Celle-ci va lancer « dans les semaines à venir » une consultation publique. « Ce qui est illicite hors ligne l’est aussi en ligne », prévient-elle. Il y a six mois, l’échéance du mois de mai 2018 avait été fixée pour aboutir sur le sujet et décider s’il y a lieu ou pas de légiférer.

Violations du droit d’auteur, fraudes, haines, …
Ainsi, cinq grandes catégories de contenus illicites en ligne sont susceptibles d’enfreindre des directives européennes déjà en vigueur :
• Violations des droits de propriété intellectuelle, au regard de la directive du 22 mai 2001 sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information – directive dite DADVSI (4).
• Escroqueries et fraudes commerciales, au regard de la directive du 11 mai 2005 sur les pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs dans le marché intérieur (5), ou la directive du 25 octobre 2011 relative aux droits des consommateurs (6).
• Discours de haine illégaux, au regard de la décision-cadre du 6 décembre 2008 sur la lutte contre certaines formes et manifestations de racisme et de xénophobie au moyen du droit pénal (7).
• Matériel pédopornographique, au regard de la directive du 13 décembre 2011 pour la lutte contre les abus sexuels et l’exploitation sexuelle des enfants, ainsi que la pédopornographie (8).
• Contenu à caractère terroriste, au regard de la directive du 15 mars 2017 pour la lutte contre le terrorisme (9).

Vers le filtrage automatisé de l’Internet
Cette recommandation « Contenus illicites en ligne » du 1er mars 2018 sera complémentaire de la révision en cours de la directive « Services de médias audiovisuels » (SMA) qui prévoit des mesures législatives spéciales pour protéger
les mineurs en ligne contre les contenus préjudiciables (10) et tous les citoyens contre les discours de haine (11). Et bien qu’elle n’ait pas de caractère contraignant comme une directive ou un règlement, la recommandation va plus loin que les orientations
pour lutter contre le contenu illicite en ligne présentées en septembre 2017 par la Commission européenne. Pour les plateformes du numérique, grandes ou petites (12), elle énonce les modalités détaillées du traitement des notifications de contenu illicite selon des procédures dites de « notification et action » (notice and action) et encourage les acteurs du Net à recourir à des « processus automatisés comme le filtrage » du contenu mis en ligne. Cependant, au regard du statut d’hébergeur des YouTube, Facebook et autre Twitter, la recommandation du 1er mars 2018 ne modifie pas la directive du 8 juin 2000 sur le commerce électronique, laquelle exonère les intermédiaires en ligne de la responsabilité du contenu qu’ils gèrent. « La recommandation est une mesure non contraignante et ne saurait modifier l’acquis
de l’UE », a justifié à ce propose la Commission européenne, qui s’était engagée en 2016 « à maintenir un régime de responsabilité équilibré et prévisible pour les plateformes en ligne, étant donné qu’un cadre réglementaire fondamental est essentiel pour préserver l’innovation numérique dans l’ensemble du marché unique numérique ». Néanmoins, la directive « Commerce électronique » laisse la place à l’autorégulation pour la suppression de contenu illicite en ligne. Quitte à ce que cette autorégulation
soit supervisée par la Commission européenne, comme avec le « Code de conduite » présenté en septembre 2017 – et convenu avec Facebook, Twitter, Google (YouTube et Google+), Microsoft ainsi que Instagram (propriété de Facebook) rallié plus récemment – pour combattre les discours de haine illégaux sur Internet.

Code de conduite contre « Far West numérique »
Les autres plateformes numériques sont appelées, par Vera Jourová, commissaire européenne à la Justice, aux Consommateurs et l’Egalité des genres, à rejoindre ce Code de conduite. « Nous ne pouvons accepter qu’il existe un Far West numérique
et nous devons agir. Le Code de conduite montre qu’une approche d’autorégulation peut servir d’exemple et produire des résultats », avait-elle prévenu il y a six mois. Récemment, dans une lettre ouverte publiée le 12 mars dernier (13) à l’occasion des
29 ans de l’invention du le World Wide Web dont il est à l’origine, Tim Berners-Lee
a appelé à réguler les grandes plateformes en prônant « un cadre légal ou réglementaire ». @

Charles de Laubier

ZOOM

Contenu à caractère terroriste : pas de temps à perdre
Pour endiguer le contenu terroriste en ligne, qu’il est interdit d’héberger, la Commission européenne joue la montre. Elle recommande la suppression de ce type de contenu
« dans l’heure ». Partant du constat que le contenu à caractère terroriste est le plus préjudiciable au cours des premières heures de sa parution en ligne, « toutes les entreprises doivent supprimer ce type de contenu dans le délai d’une heure à compter de son signalement en règle générale », préconise-t-elle.
Pour les repérer, les GAFAM seront destinataires de « signalements » émanant d’autorités telles que la police ou la gendarmerie, ainsi que ceux effectués par l’unité de signalement des contenus sur Internet (IRU) de l’Union européenne au sein d’Europol, ou par les unités de signalement des Etats membres. Les acteurs du Net auront aussi mis en oeuvre leurs « mesures proactives, notamment en matière de détection automatique, afin de retirer ou désactiver efficacement et promptement le contenu
à caractère terroriste et d’empêcher sa réapparition après qu’il a été supprimé ».
Le contenu terroriste en ligne doit en tout cas faire l’objet de « procédures accélérées » pour traiter les signalements aussi vite que possible. Les Etats membres, eux, sont appelés à s’assurer qu’ils disposent des capacités et des ressources nécessaires
pour « détecter, identifier et signaler » le contenu à caractère terroriste. Ils doivent en outre remettre à la Commission européenne un rapport – « de préférence tous les
trois mois » (six mois pour les contenus illicites non terroristes) – sur les signalements et leur suivi, ainsi que sur la coopération avec les entreprises du Net. Par ailleurs, la Commission européenne soutient ce qu’elle appelle « des voix crédibles pour diffuser en ligne des contre-récits positifs ou des contre-discours » dans le cadre du Forum de l’UE sur l’Internet via son « programme de renforcement des moyens d’action de la société civile » (14) . @

Piratage sur Internet : le filtrage obligatoire des contenus devant les eurodéputés

Le Parlement européen va bientôt se prononcer sur le projet de directive « Droit d’auteur dans le marché unique numérique », actuellement examiné par ses différentes commissions. C’est l’occasion de se pencher sur l’article 13 qui fait polémique en matière de lutte contre le piratage. Il pourrait être supprimé.

« L’article 13 prévoit l’obligation, pour les prestataires de services de la société de l’information qui stockent et donnent accès à un grand nombre d’œuvres et autres objets protégés, chargés par leurs utilisateurs, de prendre des mesures appropriées et proportionnées pour assurer le bon fonctionnement des accords conclus avec les titulaires de droits et pour empêcher la mise à disposition, par leurs services, de contenus identifiés par les titulaires de droits en coopération avec ces prestataires », avait expliqué la Commission européenne dans ses motifs lors de la présentation il y a six mois de son projet de réforme du droit d’auteur dans le marché unique numérique.

Atteintes aux droits fondamentaux ?
C’est cet article 13 sur l’utilisation de contenus protégés par le droit d’auteur qui fait l’objet d’un intense lobbying de dernière ligne droite au Parlement européen entre les ayants droits et les acteurs du Net. L’article 13 stipule en effet que « les prestataires
de services de la société de l’information (…) prennent des mesures [de lutte contre
le piratage sur Internet, ndlr]. Ces mesures, telles que le recours à des techniques efficaces de reconnaissance des contenus, doivent être appropriées et proportion-
nées ». L’eurodéputée Therese Comodini Cachia, au sein de la commission des Affaires juridiques du Parlement européen, a préconisé de supprimer cette disposition. La Quadrature du Net, association de défense des droits et libertés numériques, a pris aussi position contre cette mesure, en annonçant le 7 mars dernier avoir envoyé aux eurodéputés ses arguments pour faire avancer le débat sur la réforme du droit d’auteur. Selon elle, la détection automatique de contenus illicites est d’abord une lourde atteinte aux principes du droit. « Nous préconisons de refuser la systématisation de ce procédé de détection d’œuvres protégées sur les plateformes de contenu, sous peine d’alourdir considérablement le régime juridique de la publication sur Internet et de mettre en place une inflation des atteintes aux droits fondamentaux », a dit aux eurodéputés l’association des internautes présidée par Philippe Aigrain (photo). La raison en est que l’article 13 inverse la charge de la preuve.« Au lieu d’exiger de l’ayant droit qu’il prouve qu’il y a eu utilisation illicite de son oeuvre, il impose à l’internaute qui a mis en ligne un contenu de prouver, après suppression automatique, que son contenu ne violait pas les droits d’autrui. Ce mécanisme risque de porter gravement atteinte à la liberté d’expression et de création », déplore l’association. Pour La Quadrature du Net, le caractère automatique de la sanction décourage de tout recours et prive du droit au procès équitable qui soustend les principes du droit. L’article 13 prévoit bien que les acteurs du Net mettent en place des dispositifs de plainte et de recours à l’intention des utilisateurs pour les litiges suite à l’application des mesures prises pour lutter contre le piratage telles que le recours à des techniques efficaces de reconnaissance des contenus, mais l’association relève que « rien n’est indiqué dans la directive pour obliger les plateformes à tenir compte des réclamations faites ou mettre en place des procédures d’appel (mise à part une vague obligation “d’adéquation et de proportionnalité” et la mention d’un dispositif de plainte sans garantie) ». L’association dénonce en outre deux ruptures d’égalité devant la justice dans le sens où, d’une part,« les éditeurs dont les contenus ont été abusivement supprimés doivent, eux, supporter la charge d’une action judiciaire pour faire valoir leurs droits a posteriori », et, d’autre part, « si cette automatisation du retrait de contenu illicite devient la norme, alors seuls ceux capables de supporter le coût de cette automatisation pourront faire valoir leurs droits ». Quant aux outils de contrôle de détection de contenus illicites, ils seront laissés dans les mains des seuls acteurs du Net. Ce qui amène La Quadrature du Net à se poser des questions sur ces robots de filtrage. Qui les contrôlera et vérifiera leurs paramétrages ? (1) « Au vu du fonctionnement de ce type de robots pour des plateformes de vidéo (YouTube), il est d’ores et déjà prouvé que ces robots font de nombreuses erreurs. Parmi ces erreurs, il a par exemple déjà été constaté que les ayants droit qui posent des empreintes sur des œuvres peuvent se réapproprier eux-mêmes les œuvres d’autres auteurs, et priver ceux-ci du libre choix de publication de leur création », prévient l’association.

Une menace pour la création
Ensuite, La Quadrature du Net estime que cet article 13 sera contre-productif pour la création et les créateurs, voire une menace pour la création car il instaure une censure incapable de repérer les exceptions légitimes au droit d’auteur. « Les outils de censure automatique sont, par nature, incapables de discerner lors de la réutilisation d’une oeuvre, s’il s’agit d’une simple copie sans ajout, ou bien d’une parodie, d’une critique ou d’un remix (entre autres possibilités de reprise légitimes et légales d’un extrait d’oeuvre protégée). Toute la culture qui repose sur l’utilisation d’autres œuvres pour alimenter la création est donc niée et fortement mise en danger par ce type de mesure », met en garde l’association des internautes. Et d’ajouter : « Or, la culture transformative est extrêmement présente dans les nouveaux usages et services. Y porter atteinte de façon indifférenciée, c’est donc mettre en péril une part très importante de la création audio et vidéo actuelle ».

Directive e-commerce et statut d’hébergeur
L’association rappelle par exemple le rôle de vulgarisation scientifique et de partage
de culture générale exercé par de nombreux créateurs de vidéos, participant ainsi à la vitalité de la création culturelle et éducative – notamment auprès d’un public jeune qui s’informe et se cultive plus volontiers sur YouTube que via des relais traditionnels. La Quadrature du Net s’attend par ailleurs à des conflits entre titulaires de droits : « Cette disposition pourrait avoir des répercussions négatives pour les œuvres qui sont diffusées sous licence libre, ou qui sont entrées dans le domaine public. L’expérience du robot de détection d’œuvres protégées sur YouTube a fait apparaître de nombreux conflits entre titulaires de droits, qui promet un contentieux important, et par ricochet une modification des conditions de création, les créateurs ne pouvant être assurés de contrôler comme ils le souhaitent la diffusion de leurs œuvres » (2).
L’association des internautes dénonce dans la foulée « une négation flagrante du statut du créateur amateur, qui ne peut être reconnu et protégé que s’il est inscrit à une société de gestion collective de droits, en charge de fournir les empreintes d’œuvres à “protéger” sur les plateformes de partage ». Pour elle, le projet de directive crée une insécurité juridique permanente pour les créateurs et les utilisateurs. Cette disposition risque aussi de pousser à « la création d’une culture hors-la-loi ». Or les commissions Imco (3) et Cult (4) du Parlement européen ont proposé respectivement une exception de citation élargie aux œuvres audiovisuelles et une exception permettant les usages transformatifs. Pour La Quadrature du Net, « ce serait une avancée significative dans l’adaptation du droit d’auteur aux usages actuels ».
Enfin, toujours selon La Quadrature du Net, l’article 13 entre en conflit avec le statut de l’hébergeur. « En demandant aux plateformes de mettre en place des outils de détection automatique de contenus illicites, cet article (…) pose de nombreux problèmes de compatibilité avec la directive de 2000 sur le commerce électronique (5) qui régit la plus grande part des responsabilités respectives des acteurs de l’Internet », lesquels ne sont soumis à aucune obligation de surveillance préalable des contenus. Et ce, depuis plus de quinze ans maintenant. Le 19 septembre dernier, l’Association des services Internet communautaires (Asic) avait également dénoncé cet article 13 en ces termes : « Le diable étant dans les détails, le texte ne s’arrête pas à ce qui aujourd’hui a été mis en place volontairement depuis près de dix ans par les hébergeurs (…) comme Dailymotion et YouTube – à travers les contrats conclus en France avec la SACD (6),
la Sacem (7), la Scam (8) et l’Adagp (9)… et l’adoption de systèmes de reconnaissance de contenus type (Audible Magic, Signature ou Content ID…) – mais va plus loin et prévoit une obligation de “prévenir la disponibilité des contenus” sur ces plateformes. L’article 13 veut ainsi instaurer une obligation de monitoring et de filtrage pour ces plateformes en contradiction totale avec les principes de la directive ecommerce » (10). La Quadrature du Net, elle, poursuit en affirmant que le dispositif envisagé ne résout pas le problème de transfert de valeur (value gap), lequel est mis en avant par les industries culturelles (musique, cinéma, audiovisuel, …) qui s’en disent victimes au profit des GAFA et des plateformes de contenus en ligne. « En supprimant les contenus, la problématique du transfert de valeur n’est pas résolue puisque cela n’entraîne aucune rémunération du créateur. Pire, les créateurs sont privés de la visibilité qu’apporte l’exposition, y compris illégale, de leurs œuvres sur Internet », regrette l’association. Et d’ajouter : « La question du différentiel de revenus entre plateformes et créateurs ne peut être réglée qu’en traitant des problématiques de répartition, avec une vraie acceptation des nouvelles pratiques de partage par les sociétés de gestion collective de droits ». La Quadrature du Net fait en outre remarquer aux eurodéputés que l’obligation générale de mise en place d’outils de détection automatique de contenus illicites – outils réputés pour être coûteux à acquérir et à mettre en place – devrait générer une forte inégalité entre plateformes numériques.

Risque de favoriser les GAFA
Résultat : « Paradoxalement, cette mesure risque de favoriser le monopole des GAFA et de tuer l’émergence d’acteurs européens, en faisant monter de façon disproportionnée le coût d’accès au marché ou les risques financiers imprévisibles en cas de création d’un service de partage de contenu ». Reste à savoir si les eurodéputés seront sensibles à ces arguments en supprimant l’article 13 controversé. A suivre. @

Charles de Laubier

Piratage : les plateformes du Net évitent l’obligation de « surveillance généralisée » des contenus, quoique…

Elles ont eu chaud. Les plateformes YouTube, Dailymotion, Facebook et autres Yahoo ont failli perdre leur statut d’hébergeur à responsabilité limitée. La loi
« République numérique », si elle est promulguée en l’état, ne leur impose pas d’obligation de surveillance généralisée ni de filtrage automatique. Seulement une « censure préventive »…

Les députés avaient imposé aux plateformes numériques « la mise en oeuvre de dispositifs de reconnaissance automatisée » de contenus piratés tels que des musiques ou des films. C’était une obligation majeure adoptée en janvier dernier par l’Assemblée nationale en matière de « loyauté des plateformes », au grand dam des acteurs du Net tels que YouTube, Dailymotion, Facebook ou encore Yahoo (lire ci-dessous).

 

Censure préventive des contenus
« Ces opérateurs de plateforme en ligne dont l’intensité de l’activité est susceptible d’exposer un grand nombre de consommateurs français à des contenus illicites devront désigner (…) élaborer des bonnes pratiques afin de lutter contre la mise à disposition
de contenus illicites, notamment en mettant en oeuvre des dispositifs techniques de reconnaissance automatisée de contenus illicites », avaient plaidé des députés épaulés par le groupe socialiste dans leur amendement n°268 adopté en janvier. A l’instar des plateformes numériques, les sénateurs ne l’ont pas entendu de cette oreille. Ils ont donc supprimé cette disposition, la considérant « extrêmement large, puisqu’[elle] recouvre l’ensemble des contenus illicites » et contraire non seulement au droit européen tel que la directive « Commerce électronique » de 2000, et en se référant
à un arrêt de la CJUE (1), mais aussi à la loi pour la confiance dans l’économie numérique (LCEN) de 2004, qui prévoient le régime de responsabilité limitée de l’hébergeur. « Cette disposition revient à soumettre l’opérateur de plateforme à une obligation de surveillance généralisée [et] est de nature à conduire la plateforme à procéder un filtrage automatique et a priori des contenus, qui est préjudiciable à la liberté d’expression », ont contesté des sénateurs dans leur amendement n°157 adopté en avril. Le jour de l’adoption le 3 mai dernier de la loi « République numérique », le Conseil national du numérique (CNNum) – actuellement présidé par Mounir Mahjoubi (photo) – s’est « réjouit de l’abandon » par les sénateurs de la disposition de leurs collègues députés. Dans son rapport « Ambition numérique » publié en juin 2015,
cette instance – créée il y a cinq ans maintenant sous l’impulsion du l’ancien chef
d’Etat Nicolas Sarkozy pour « civiliser Internet » (2) – « invite à conserver ce régime [d’hébergeur à responsabilité limité, ndlr] afin de préserver la liberté de communication, dans la mesure où une responsabilité trop lourde pourrait les pousser à une censure préventive des contenus présents sur leurs sites, par crainte de voir leur responsabilité engagée ». Cette commission consultative indépendante basée à Bercy, dont les missions ont été redéfinies et étendues par un décret du président de la République
en 2012, milite en outre pour « l’obligation d’intervention humaine concernant le filtrage automatique a priori de contenus : imposer en ce sens une obligation de supervision humaine réelle (et non seulement formelle) et indiquer les critères d’appréciation » (3).

Bien que le statut d’hébergeur des plateformes numériques soit finalement épargné par le projet de loi portée par la secrétaire d’Etat au Numérique, Axelle Lemaire, le CNNum – dans son « bilan mitigé » sur ce texte – « s’inquiète de l’essor d’une forme de censure préventive des contenus, préjudiciable à l’exercice de la liberté d’expression et de création sur Internet, pour ce qui concerne par exemple les œuvres transformatrices (mashup, remix) ». Il regrette donc l’adoption fin avril de l’amendement n°307 par
les sénateurs qui prévoit : « A compter du 1er janvier 2018, (…), les opérateurs de plateformes en ligne sont tenus d’agir avec diligence en prenant toutes les mesures raisonnables, adéquates et proactives afin de protéger les consommateurs et les titulaires de droits de propriété intellectuelle (4) contre la promotion, la commercialisation et la diffusion de contenus et de produits contrefaisants ». Ce devoir de diligence s’inspire de celui existant en matière de lutte contre l’apologie d’actes de terrorisme, l’incitation à la haine raciale, la pédopornographie et les jeux d’argent illégaux. L’Asic a dénoncé, le 9 mai, dernier « une vision archaïque de l’économie numérique ». @

Charles de Laubier

ZOOM

Les acteurs du Net de l’Asic ruent dans les brancards
L’Association des services Internet communautaires (Asic), présidée par Giuseppe de Martino (photo), vice-président exécutif Europe (EMEA) de Dailymotion, dont il fut directeur juridique et réglementaire, n’a eu de cesse de mettre en garde
le législateur contre « la censure généralisée » sur Internet s’il supprimait le statut d’hébergeur technique. Regroupant une vingtaine de prestataires Internet (5), l’Asic conteste toutes mesures « liberticides et rétrogrades » qui ne manqueront pas, selon elle, « d’isoler la France sur le plan international » et « de fragiliser gravement l’esprit d’innovation en France », tout en créant « une grave insécurité juridique et fragilisant tout un écosystème ». @

Atteinte aux droits d’auteurs : un FAI peut bloquer un site web, comme bon lui semble

Dans un arrêt du 27 mars 2014, la Cour de justice de l’Union européenne (CJUE) donne aux juridictions nationales les moyens de mieux combattre les atteintes
en ligne aux droits d’auteurs et aux droits voisins. Mais elle a dû trouver un compromis avec les libertés d’entreprendre et d’information.

Par Rémy Fekete, avocat associé, Gide Loyrette Nouel

Rémy FeketePour la première fois, la CJUE autorise les injonctions adressées aux fournisseurs d’accès à Internet (FAI) leur ordonnant de bloquer l’accès aux sites proposant des contenus illicites, tout en rappelant les limites posées par le principe du « juste équilibre » entre les différents droits de l’Union européenne (UE).
Le principe ne peut qu’être salué même si sa mise en oeuvre est lourde de préoccupations.

Interprétation de la directive « DADVSI »
Dans cette affaire, deux entreprises, l’une allemande (1), l’autre autrichienne (2), titulaires de droits sur des films comme « Vic le Viking » ou « Le ruban blanc », après avoir constaté que leurs films étaient illégalement visionnés en streaming ou téléchargés depuis un site Internet, ont saisi les juridictions autrichiennes pour que ces dernières ordonnent au FAI établi en Autriche, UPC Telekabel, de bloquer l’accès au site web litigieux.
Les tribunaux autrichiens ont prononcé des injonctions dans ce sens en précisant les mesures à prendre, à savoir : bloquer le nom de domaine et l’adresse IP du site litigieux. Ce jugement est vivement contesté par le FAI qui interjette appel. L’Oberlandesgericht Wien, en tant que juridiction d’appel, conservant l’essence du jugement, laisse au FAI la liberté de choix concernant les mesures à prendre pour parvenir au blocage du site web. L’Oberster Gerichtshof, la Cour suprême d’Autriche, saisie du litige, pose alors des questions préjudicielles à la CJUE afin d’interpréter la directive européenne « DADVSI » (3) ci-après et de clarifier la nécessaire mise en balance des droits de l’UE. La question préjudicielle posée par la Cour suprême autrichienne porte sur la qualification d’intermédiaire du FAI et sur les conditions dans lesquelles un FAI peut se voir ordonner de bloquer l’accès à un site web. Aux termes du considérant 59 de la directive, est qualifié d’intermédiaire « toute personne qui transmet dans un réseau une contrefaçon commise par un tiers d’une oeuvre protégée ou d’un autre objet protégé » (4). Constatant qu’une personne mettant à la disposition du public des oeuvres protégées sans l’accord du titulaire des droits utilise obligatoirement les services d’un FAI, sans lequel il serait impossible de consulter son site donc les objets exposés de manière illicite, la CJUE
a retenu la qualification d’intermédiaire pour les FAI.
Cette position adoptée par la CJUE permet de conserver la lettre de l’article 8.3 de la directive qui dispose que les titulaires de droits d’auteur ou voisins doivent pouvoir
« demander qu’une ordonnance sur requête soit rendue à l’encontre des intermédiaires dont les services sont utilisés par un tiers pour porter atteinte à un droit d’auteur ou à un droit voisin », puisque « ces intermédiaires sont les mieux à même de mettre fin à ces atteintes ». Pour échapper à la notion d’intermédiaire, UPC Telekabel invoquait l’absence de lien contractuel liant le site web et son entreprise. Le FAI espérait démontrer qu’il ne pouvait être considéré comme un intermédiaire n’ayant aucun lien avec le site litigieux – contrairement aux hébergeurs.
Déjà en 2005, les FAI français arguaient que les hébergeurs devaient être mis en cause préalablement aux FAI. Le TGI de Paris a retenu à plusieurs reprises (5) que la mise en cause des hébergeurs n’est pas une exigence de l’article 6-I-8 de la loi « Confiance dans l’économie numérique » (LCEN) de 2004 puisque la procédure permettant d’ordonner
« toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne », a pour objectif la rapidité et doit pallier l’inertie des hébergeurs étrangers.

Hébergeurs et FAI : cas en France
Ce qui a été confirmé pour bloquer l’accès à un site révisionniste par la Cour de cassation en 2008 (6). Cette solution n’a pas évolué, même si le TGI de Paris a estimé en 2011 qu’il était possible de déclarer une action irrecevable si le demandeur n’effectuait pas quelques diligences auprès de l’hébergeur avant de mettre en cause un FAI.
Rejoignant la position de la Cour de cassation et infirmant celle du TGI de Paris de 2011, la CJUE retient qu’il est inutile de mettre en avant une relation particulière entre l’intermédiaire et la personne qui porte atteinte aux droits d’auteurs, comme il n’est pas nécessaire de rapporter la preuve de l’utilisation du site litigieux par les clients du FAI puisque l’objectif de la directive consiste à faire cesser les atteintes au droit d’auteur
ou aux droits voisins mais également à les prévenir.

Droits d’auteurs et libertés : risques
En novembre 2011, dans l’arrêt « Scarlett » (7), la CJUE s’opposait à la mise en place d’un système généralisé de filtrage des communications électroniques aux moyens d’injonctions. Elle laissait entendre que de telles injonctions n’étaient toutefois pas exclues si elles respectaient certaines conditions, notamment celle du « juste équilibre » entre tous les droits de l’UE. La CJUE réitéra quelques semaines plus tard, dans l’arrêt « Sabam » (8), sa position, cette fois-ci à l’égard des hébergeurs. Dans son arrêt de 2014, la CJUE estime que le cas d’espèce respecte le nécessaire équilibre entre, d’une part, le droit d’auteur protégé au titre de l’article 17.2 de la Charte des droits fondamentaux de l’UE, et, d’autre part, la liberté d’entreprendre et la liberté d’information protégées respectivement par l’article 16 et l’article 11 de la Charte. La CJUE retient ainsi qu’une injonction de blocage d’un site n’est pas contraire à la liberté d’entreprendre des opérateurs économiques tant que l’ordonnance ne prescrit pas de mesures spécifiques aux intermédiaires mais une obligation de résultat. Cette logique rappelle celle retenue en France par la Cour de cassation (9) dès 2008, puis par le TGI de Paris en 2011 dans deux ordonnances de référés (10) concernant les jeux en ligne. Les juges français ont imposé aux FAI de « faire toutes diligences utiles » pour permettre l’arrêt de l’accès au service en cause sans apporter de précision. La CJUE souligne en revanche que cette obligation de résultat n’est pas absolue puisque l’intermédiaire doit rendre au minimum difficile, mais non impossible, la consultation non autorisée des objets protégés par le droit d’auteur. Le FAI ne peut pas être tenu pour responsable, s’il rapporte la preuve qu’il a raisonnablement tout mis en oeuvre pour bloquer l’accès au site. La CJUE décide que les FAI doivent prendre toutes « mesures raisonnables », cela sans aucune précision ni sur le contenu de telles mesures ni sur la façon dont la preuve peut être rapportée. Le FAI a donc le choix des mesures à prendre et de la manière d’en rapporter la preuve, ce qui lui permettra de choisir entre des procédés plus ou moins coûteux sans véritablement se soucier de leur efficacité. En souhaitant respecter la liberté d’entreprendre des FAI, la CJUE prend le risque de limiter l’efficacité de sa décision. La CJUE reste également vague sur le sujet
du paiement des mesures. Les FAI pourraient, à juste titre, exiger que le demandeur prenne à sa charge les mesures de blocages.Les FAI ne sont, comme le précise l’arrêt, que des intermédiaires qui ne devraient par conséquent aucunement supporter les atteintes aux droits d’auteurs effectuées par d’autres. En France, le TGI de Paris (11)
a déjà décidé en 2011 que les mesures devaient être à la charge du demandeur – en l’espèce le ministre de l’Intérieur –, puisque les FAI n’étaient pour rien dans les contenus illicites. Cette position adoptée par la CJUE laisse donc les FAI dans l’incertitude car les juges nationaux auront à trancher ces questions, sans qu’aucune indication ne leur soit donnée.
Cette liberté consentie aux FAI risque d’engager leurs responsabilités s’ils décident de prendre une mesure portant atteinte aux droits de leurs clients (12). C’est pourquoi la CJUE autorise les injonctions de blocage seulement si ces dernières sont ciblées, c’est-à-dire uniquement si elles servent à mettre fin à l’atteinte au droit d’auteur ou aux droits voisins évoquée dans l’ordonnance, afin de ne pas priver les internautes d’accéder aux informations licites. Le juste équilibre est respecté mais, une fois encore, la pratique semble difficile.
Un site possédant des contenus illicites propose généralement aussi des contenus licites. Comment un FAI va-t-il faire concrètement pour bloquer les seuls contenus illicites ?
La liberté des internautes parait ici en partie sacrifiée au profit du droit d’auteur. Reste que la CJUE a pris soin d’imposer aux juridictions nationales de prévoir la possibilité pour les internautes d’attaquer l’injonction de blocage réduisant ainsi le risque d’atteinte à leur droit.

Un équilibre difficile à concilier
Reste que l’équilibre est difficile à trouver entre le principe de neutralité du Net et la protection de droits sur internet. La commissaire européenne chargée de l’Agenda numérique, Neelie Kroes, qualifiait, le 21 mars dernier, de « lâche » et d’« inutile » la décision des juridictions turques de bloquer l’accès à Twitter pour empêcher la diffusion d’une vidéo impliquant le Premier ministre dans un scandale lié à la corruption. Ce n’est qu’une semaine plus tard que la CJUE autorise le blocage de sites Internet mais, cette fois-ci, sur le terrain des droits d’auteurs et des droits voisins… @

Filtrage par Free de la e-pub de Google : coup d’éclat ou d’épée dans l’eau ?

A la demande du gouvernement français, Free a renoncé à la mise en place du filtrage par défaut des publicités sur Internet, celles de Google en tête. Mais l’option demeure. Cette affaire préfigure une évolution des rapports de force entre les différents acteurs de la société numérique.

Par Rémy Fekete (photo), avocat associé, et Thomas Boutan, stagiaire, Gide Loyrette Nouel

Nul ne sait précisément quelles sont les raisons intrinsèques ayant conduit le groupe Iliad au filtrage publicitaire par défaut. Coup de pub maîtrisé ? Volonté de faire pression sur le géant américain Google dans des négociations sur le peering ? Désir de prouver à qui veut bien l’entendre qu’un fournisseur d’accès à Internet (FAI) peut garder un tant soit peu de contrôle sur ses abonnés ?

 

Free porte atteinte à la neutralité du Net
L’« AdGate » est-il le dernier coup d’éclat des « tuyaux » ou annonce-t-il une rebattue des cartes ? De prime abord, les raisons ne manquent pas pour essayer de justifier ce qui a poussé Free à décider du filtrage publicitaire de Google.
Mais aux dires de Xavier Niel, fondateur de Free (1), cette tentative de filtrage par défaut n’avait pas vocation à perdurer. Connue pour l’efficacité de sa communication et pour son agressivité commerciale – qui ont notamment poussé ses concurrents à s’adapter aux prix discount de ses offres mobiles –, Free a donc réalisé un nouveau coup d’éclat en tentant de faire plier Google. Or l’objet principal de la discorde est sans doute à trouver ailleurs. En effet, le bras de fer engagé par Free semble principalement lié au fait que Google refuse de participer aux frais liés à l’interconnexion entre opérateurs et fournisseurs de contenus. Plus concrètement, Free souhaite que Google (entre autres) finance une partie de la modernisation de ses infrastructures, car la société française considère que les services de la multinationale (en particulier YouTube) sont particulièrement lourds en bande passante, nécessitant ainsi d’importants investissements pour pouvoir acheminer ces contenus de manière fluide. Nouvelle pression ou pure coïncidence, les abonnés Free se plaignaient dernièrement d’un net ralentissement du débit lors de la visualisation de vidéos sur YouTube. Le 3 janvier 2013, les abonnés Free disposant de la dernière génération de la Freebox – baptisée Révolution – ont pu accéder à une mise à jour logicielle dotée d’une option de filtrage publicitaire par défaut visant tout particulièrement les AdServers (logiciels de gestion de campagnes publicitaires sur Internet) dépendant de Google, faisant ainsi disparaître les bannières publicitaires, les liens commerciaux sponsorisés ou les publicités figurant sur les vidéos YouTube (2). La méthode employée par Free a aussitôt suscité la polémique.
D’abord, il peut être reproché à Free une atteinte à la neutralité du Net, qui selon l’Arcep est « un principe selon lequel les réseaux de communications électroniques doivent transporter tous les flux d’information de manière neutre, c’est-à-dire indépendamment de leur nature, de leur contenu, de leur expéditeur ou de leur destinataire » (3). La vocation même de ce principe est de permettre à tous les internautes de disposer du même Internet libre et ouvert, et d’éviter la censure des canaux de communication au public en ligne. En qualité de prestataire technique, Free n’est pas habilité à trier les contenus à la source. Il doit y avoir une absence de contrôle intellectuel sur les contenus. Le directeur général de l’Arcep, Philippe Distler, a adressé le 4 janvier dernier une lettre au FAI incriminé en le mettant en garde : « Sans préjuger aux manquements éventuels aux dispositions du CPCE [Code des postes et communications électroniques], (…) si les opérateurs offrent la possibilité à leurs clients de filtrer certains contenus (par exemple dans le cadre d’un système de contrôle parental), les utilisateurs seuls doivent pouvoir actionner le dispositif, en étant informés de son fonctionnement et avec la possibilité de l’interrompre s’ils le souhaitent » (4).

Une atteinte aux libertés fondamentales
Mais un problème demeure : ce principe cardinal organisant l’éthique de l’Internet n’a pas encore reçu de consécration législative en France. Ce filtrage par défaut pourrait aussi être attentatoire à toute une série de libertés fondamentales, parmi lesquelles la liberté d’expression, protégée par l’article 10 de la Convention européenne de sauvegarde des droits de l’Homme et des libertés fondamentales. En effet, le fait pour un FAI de filtrer par défaut la publicité en ligne pourrait s’analyser en une atteinte à la liberté d’expression et
de communication au public par voie électronique des annonceurs et éditeurs de presse en ligne.

Un coup porté à la liberté d’entreprendre
Alors que le Berec (5), le régulateur européen des communications électroniques, considère que « les opérateurs européens peuvent biaiser la neutralité d’Internet » (6),
on rappellera que l’Arcep avait conclu son analyse en affirmant que « si le Parlement estime utile de transcrire dans la loi les principes directeurs de la neutralité d’Internet
de manière plus complète ou plus stricte, il conviendrait toutefois de ne pas figer leur application par des dispositions trop détaillées qui pourraient s’avérer délicates, voire impossibles à mettre en oeuvre ».
De même, cette pratique pourrait être considérée comme attentatoire à la liberté d’entreprendre des annonceurs et éditeurs, au libéralisme économique de manière générale, ainsi qu’à la viabilité du modèle économique des entreprises en question – comme le rappelle le Syndicat de la presse indépendante d’information en ligne (Spiil). La ministre de l’Economie numérique, Fleur Pellerin, a d’ailleurs rappelé que « la publicité est un élément central de l’économie numérique ». En mettant en place un système de filtrage publicitaire par défaut, Free (7) pourrait donc déstabiliser ce pan du marché sur Internet. En effet, les revenus publicitaires chutant, de nombreux sites web disparaîtraient alors (8). Une manière de préserver cet écosystème du Net pourrait alors être d’instaurer une sorte de redevance du Web.
La mise en place d’un filtrage de la publicité par défaut nuirait également à la liberté d’information des internautes et au pluralisme de l’information qui aurait été préalablement sélectionnée par le FAI pour autoriser les internautes à avoir accès uniquement aux contenus ayant reçu une sorte de « label Free ». Or, il ressort des dispositions de la LCEN (9) qu’un prestataire technique tel que Free ne doit pas s’immiscer dans l’orientation du choix de navigation et d’information des internautes, ne devant être qu’un transporteur neutre des contenus.
Enfin, s’il s’avérait exact que seuls les services liés à Google (Google AdSense et Google Analytics notamment) étaient visés par ce filtrage publicitaire par défaut, cela poserait alors la question d’une entrave à la concurrence libre et non-faussée, voire celle d’une discrimination sélective.
Cette polémique suscitée par Free aura eu le mérite de recentrer le débat sur la légalité
du filtrage publicitaire en ligne. Sur Internet, le recours aux AdBlockers est une pratique des internautes qui n’est pas nouvelle. En décidant d’installer ces plug-in, les internautes peuvent soit décider de bloquer systématiquement toutes les publicités qu’ils considèrent comme intrusives, soit décider de ne bloquer que certaines d’entre elles qu’ils feraient figurer sur des listes noires en paramétrant l’outil. Autrement dit, la volonté de blocage doit émaner uniquement de l’internaute qui doit être le seul à faire la démarche d’activer ledit blocage (opt-in). Il est donc reproché à Free d’avoir eu recours à un blocage sous la forme d’un optout par défaut, sans possibilité de paramétrage et semble-t-il sans information à l’égard de ses abonnés. Un défaut de transparence pourrait ainsi être reproché à Free
vis-à-vis de ses abonnés. Ces derniers naviguaient donc sur Internet sans se douter que le contrat de fourniture de services Internet, auquel ils avaient souscrit, avait en réalité été modifié unilatéralement par le FAI.

Le filtrage par les internautes est légal
Le filtrage publicitaire par les internautes demeure légal, pourvu qu’il fonctionne sur
le modèle de l’opt-in (comme l’a rappelé le Syndicat des régies Internet (SRI)). Et les nombreux outils et modules permettant d’y recourir sont bien souvent mis en avant par
les navigateurs (tels Chrome ou Firefox) quand leur installation n’est pas recommandée par la Cnil (10) pour inciter les internautes à protéger leur vie privée et à limiter leurs traces et habitudes de consommation sur la Toile. C’est la raison pour laquelle Free a semble-t-il souhaité remettre cette fonctionnalité sous forme d’opt-in, même si cela n’a
pas été affirmé très clairement par Xavier Niel qui a dit vouloir interroger ses abonnés
en leur laissant le choix d’avoir ou non de la publicité lorsqu’ils naviguent sur le Web. @