Désinformations, rumeurs infondées, ragots, … A quand de vraies nouvelles sur les fake news ?

Lutter contre la désinformation suppose de responsabiliser les acteurs impliqués dans sa propagation, depuis la source d’une fake news, en passant par les algorithmes sacralisant la popularité des contenus, jusqu’à l’internaute qui la relaie – sciemment ou non. Et il faut adapter le cadre juridique.

(Cet article juridique est paru le 18 décembre 2017 dans le n°180 de Edition Multimédi@. Le 3 janvier 2018, lors de ses vœux à la presse, Emmanuel Macron a annoncé un futur projet de loi contre les « fausses informations ».)

Par Alexandre Euverte et Etienne Drouard (photo), cabinet K&L Gates

« Johnny Hallyday a trouvé la mort aujourd’hui à l’âge de 74 ans ». Cette affirmation ne correspond pas à la triste nouvelle qui a endeuillé la France à l’aube du 6 décembre 2017. C’est la réponse que donnait l’application Siri d’Apple le 30 novembre 2017 si vous lui demandiez : « Comment va Johnny ? ». Cette information fausse, relayée par Siri, faisait suite à une modification trompeuse de la page Wikipedia du légendaire chanteur, mise en ligne par un individu anonyme annonçant son décès de façon prématurée.
Si Internet forme aujourd’hui un forum d’échanges global favorisant l’expansion de la liberté d’expression, il est impossible d’ignorer les dérives induites par la vitesse et l’effervescence des contenus. C’est le cas des fake news, ces actualités créées intentionnellement pour tromper le public et lui fournir une représentation erronée de la réalité ou une dénaturation des faits, souvent utilisées à des fins malveillantes.

Loi de 1881 et fake news du XXIe siècle
Au-delà de la désinformation de masse, les fake news nourrissent des théories conspirationnistes, en augmentation en France, ainsi que les propagandes les plus nauséabondes. L’impulsion des réseaux sociaux permet de donner une ampleur inédite aux fake news, parfois relayées par des médias institutionnels ou historiques, voire par des responsables politiques. Lutter efficacement contre ce « cancer » de la désinformation exige de responsabiliser tous les acteurs impliqués dans sa propagation, depuis la source d’une fake news, en passant par les algorithmes de classement basés sur la popularité des contenus, jusqu’à l’internaute qui relaie la désinformation – sciemment ou à son insu – à travers l’audience de masse des réseaux sociaux. Il est nécessaire d’adapter notre cadre juridique et d’inciter les acteurs les plus impliqués à privilégier la vérité par rapport à la popularité. Or notre arsenal législatif Lire la suite

Très haut débit : une séparation structurelle pour faire émerger un champion européen ?

L’effondrement récent de l’action Altice en Bourse semble illustrer la difficulté de mise en oeuvre de la convergence contenus-réseaux, chère à M. Messier. De quoi relancer les débats sur la concentration des opérateurs télécoms en Europe et sur la séparation structurelle des « telcos » historiques.

Par Rémy Fekete, associé Jones Day

Le sujet de la séparation structurelle nous semble présenter une nouvelle pertinence en n’étant plus opposé mais plutôt associé à la nécessaire concentration du secteur et aux efforts nécessaires de déploiement de fibre : il est acté depuis plusieurs années, tant au niveau européen qu’au niveau national, que le besoin d’investissements en déploiement de fibre optique ne pourra s’affranchir d’une contribution des finances publiques. […]
En France, le 8 mars 2011, l’Autorité de la concurrence française a émis une recommandation pour séparer le réseau de l’opérateur France Télécom de ses activités de service : elle a préconisé que l’Arcep exerce son pouvoir pour imposer une séparation fonctionnelle entre les réseaux de France Télécom – détenant le monopole jusque dans les années 1990 – et son activité de services.
L’Autorité de la concurrence s’est inquiétée de la future situation concurrentielle dans le très haut débit (fibre optique). L’objectif, selon elle, était de redynamiser les offres des opérateurs télécoms. Plus précisément, la scission consisterait en une séparation fonctionnelle entre les activités qui resteront durablement en monopole et celles qui relèvent du champ concurrentiel. Concrètement, cela reviendrait à séparer l’exploitation des infrastructures de réseaux des activités de services, les deux entités pouvant demeurer au sein du même groupe. L’Arcep a répondu le 9 mars 2011 que la scission n’était qu’ « un outil de dernier recours (…) envisageable, à titre exceptionnel, qu’en cas d’échec de remèdes plus proportionnés ».

Société de patrimoine publique-privé
A ce jour, la France n’a pas pratiqué de séparation structurelle. A l’inverse, en novembre 2016, l’ « Arcep » britannique a exigé de BT Group qu’il se sépare de sa division Openreach, laquelle fournit notamment le réseau fixe haut débit également utilisé par Sky, TalkTalk ou encore Vodafone. BT et le régulateur ont par la suite trouvé un accord en mars 2017 qui aboutira non pas à une véritable scission de l’opérateur historique et d’Openreach mais à une gestion indépendante d’Openreach par BT. Openreach se charge de la maintenance des réseaux cuivre et fibre permettant le transfert des données télécoms et de contenus des opérateurs. Openreach est amené à devenir une entreprise indépendante évoluant sous sa propre marque et qui recevra les 32.000 salariés transférés de BT à Openreach (1).
Le 29 novembre 2016, l’Ofcom a exigé la séparation structurelle avant l’accord du 10 mars 2017. En Italie, depuis 2006, le transfert du réseau fixe de TIM (nouveau nom de Telecom Italia depuis 2015) vers une entité contrôlée par l’Etat est souhaité par le gouvernement italien. L’Etat affirme qu’il s’agit d’« un actif stratégique » appelé à devenir un acteur « neutre » du marché ouvert à tous les opérateurs télécoms. La récente montée au capital de TIM du français Vivendi, lequel en détient désormais 24 % du capital, a relancé le débat sur la scission de l’opérateur historique italien : le ministre Lire la suite

Agence européenne des télécoms : une idée déjà vue, à nouveau rejetée par les Etats membres

La Commission européenne est revenue à la charge en proposant de transformer l’actuel forum des régulateurs des télécoms nationaux – l’Orece – en une véritable agence de l’Union européenne. Mais ce projet est vivement combattu par les Etats-membres, comme ce fut déjà le cas par le passé.

Par Katia Duhamel, experte en droit et régulation des TIC, K. Duhamel Consulting

Rappelons que lors des discussions qui ont précédé la révision du « Paquet Télécoms » en 2009, la Commission européenne avait initialement proposé de créer une autorité supranationale permanente des télécoms dotée d’un statut d’agence communautaire. A cette époque, cette Autorité européenne du marché des communications électroniques (AEMCE) aurait eu vocation à remplacer le GRE (Groupe des régulateurs européens) et l’Enisa (Agence européenne chargée de la sécurité des réseaux et de l’information), tout en renforçant le pouvoir de veto de la Commission européenne.

Principe de subsidiarité et obstacles
Sous le feu des critiques, notamment celles du GRE, des Etats membres et de leurs représentants au Parlement européens, la Commission européenne avait dû abandonner ses prétentions au profit de la création de l’Orece (Organe des régulateurs européens des communications électroniques), dont les compétences furent significativement réduites par rapport à la proposition initiale de l’exécutif européen. Aujourd’hui, comme hier, le débat sur la création d’une hypothétique Agence de régulation européenne des télécoms ravive les tensions au regard de l’application
du principe de subsidiarité dans la politique de réalisation du marché intérieur des communications électroniques. Pour mémoire, le principe de subsidiarité, complété
par les principes d’attribution et de proportionnalité, est au cœur du dispositif européen. Le Traité de Lisbonne, modifiant le Traité sur l’Union européenne (UE), et le Traité instituant la Communauté européenne (1) les mentionnent dès l’énoncé des dispositions communes : « Le principe d’attribution régit la délimitation des compétences de l’Union. Les principes de subsidiarité et de proportionnalité régissent l’exercice de ces compétences » (art. 5-1). Ce premier alinéa est complété par trois autres qui précisent respectivement ces trois principes (voir encadré page suivante).
Or, pour le secteur des communications électroniques, les choses sont moins simples qu’il n’y parait dans la mesure où le numérique se trouve au carrefour des compétences exclusives (règles de concurrence nécessaires au fonctionnement du marché intérieur (2)) et des compétences partagées avec les Etats membres (marché intérieur, protection des consommateurs, réseaux transeuropéens des télécommunications, espace de liberté, de sécurité et de justice, … (3)).
Quoi qu’il en soit, et sans être dupe du jeu des acteurs institutionnels et des enjeux
de souveraineté nationale, il est assez clair que la finalisation du grand marché intérieur peine à se concrétiser. A ce titre, la volumineuse étude d’évaluation de l’impact de la réforme du cadre réglementaire européen des communications électronique – menée
et publiée en 2016 par la Commission européenne (4) – souligne trois séries de problèmes, à savoir : des obstacles à une connectivité illimitée au moyen d’infrastructures fixes et mobiles omniprésentes, à très haute capacité ; de l’inadaptation du cadre pour faire face aux évolutions rapides du marché et des technologies ; des aspects redondants et inefficaces, ainsi que du manque de cohérence, de la réglementation et de la régulation.
Plus particulièrement sur ce « manque de cohérence de la réglementation et de la régulation », cette étude affirme trois choses : d’abord que la cohérence des cadres réglementaires applicables dans chacun des Etats-membres reste limitée, affectant les projets des opérateurs internationaux et réduisant la visibilité des acteurs du marché et de leurs investisseurs ; ensuite que les solutions réglementaires optimales ne sont pas toujours mises en oeuvre, les pouvoirs de la Commission n’étant pas suffisants par exemple pour assurer la cohérence des remèdes adoptées par les autorités nationales en matière d’accès ; enfin que le manque de cohérence dans la gestion du spectre a contribué à retarder le déploiement de la 4G.

Revoir l’équilibre institutionnel ?
De facto, ces constats sont assez partagés par les parties prenantes et seuls les moyens d’y remédier font débat. En effet, nombre d’Etat comme la France le Royaume Uni ou le Portugal défendent « l’équilibre institutionnel qui a fait ses preuves », même
si certains comme l’Irlande, soulignent qu’il serait utile que les travaux soient plus transparents. A contrario, force aussi est d’observer la divergence – en fonction des pays – des remèdes imposés sur l’accès aux réseaux, notamment de fibre optique,
et par ricochet sur la diversité des offres de gros d’accès comme celle des conditions d’accès aux fréquences, ou bien encore le niveau de mise en oeuvre variable des règles de protection des consommateurs. Il est du reste probable que la source de
ces divergences se trouve en partie dans l’approche peut-être « trop » consensuelle
de l’Orece* qui consiste à octroyer de la flexibilité aux Etats membres ou à se fonder sur le plus petit dénominateur commun dans sa prise de décision.

Approche médiane et pragmatique
Il est également relativement certain que les incohérences relevées dans l’application des règles européennes persisteront voire s’aggraveront avec l’émergence de nouvelles technologies et de nouveaux usages. Toutefois, est-il pour autant nécessaire d’engager un combat institutionnel pour la création d’un super régulateur européen, combat qui a beaucoup de chance d’être perdu, surtout dans l’actuel climat de défiance des institutions européennes ?
La réponse à cette question n’est pas obligatoirement positive. De ce point de vue,
les conclusions de l’avis de l’Orece (5) vont dans le sens des autorités de régulation nationales telles que l’Arcep en France, qui veulent conserver leur indépendance.
Par ailleurs, la réduction des lourdeurs administratives comme des divergences d’application pourrait passer par l’amélioration de la gouvernance de l’Orece plutôt
que par la création d’une nouvelle agence décentralisée de l’UE. En revanche, contrairement à la position de l’Orece, l’introduction du pouvoir de la Commission européenne d’opposer son veto aux remèdes proposés les « Arcep » nationales, subordonné à l’avis préalable Orece, pourrait être utile et ne constitue pas forcément une infraction au principe de subsidiarité – eu égard aux compétences de l’UE relatives aux règles de concurrence nécessaires au fonctionnement du marché intérieur. Le retard pris dans certains des Etats membres dans le déploiement du très haut débit résulte en effet en partie, à notre sens, d’une régulation incohérente ou insuffisante
de la boucle locale : accès au génie civil et aux fibres optiques, migration du cuivre
vers la fibre, etc.
Enfin quelle que soit l’option qui sera in fine retenue pour la politique européenne commune de gestion du spectre (6), cette option est relativement indépendante de la création d’une autorité supranationale de régulation. Car cette option requerra avant tout la modification des dispositions communautaires actuelles relatives à cette question et du degré de contrainte que celles-ci imposent aux Etats. @

* A noter que l’Orece est présidé durant toute l’année 2017
par le président de l’Arcep, Sébastien Soriano, qui fut en
2016 vice-président de cet organisme,
lequel fut créé en décembre 2009 sous la houlette de la
Commission européenne pour remplacer le GRE (Groupe des
régulateurs européens). Celui-ci avait été installé
en 2002 à la place du GRI (Groupe des régulateurs
indépendants) créé en 1997 – sous l’impulsion de l’ancien
président de l’Arcep (ex-ART), Jean-Michel Hubert – mais
jugé par Bruxelles trop indépendant.

ZOOM

Les trois principes de l’Union européenne dans le texte : subsidiarité, attribution et proportionnalité
• En vertu du principe d’attribution, l’Union européenne (UE) n’agit que dans les limites des compétences que les Etats membres lui ont attribuées dans les traités pour atteindre les objectifs que ces traités établissent. Toute compétence non attribuée à l’UE dans les traités appartient aux Etats membres.

• En vertu du principe de subsidiarité, dans les domaines qui ne relèvent pas de sa compétence exclusive, l’UE intervient seulement si, et dans la mesure où, les objectifs de l’action envisagée ne peuvent pas être atteints de manière suffisante par les Etats membres, tant au niveau central qu’au niveau régional et local, mais peuvent l’être mieux, en raison des dimensions ou des effets de l’action envisagée, au niveau de l’UE. Les institutions de l’Union européenne appliquent le principe de subsidiarité conformément au protocole sur l’application des principes de subsidiarité et de proportionnalité (7). Les parlements nationaux veillent au respect du principe de subsidiarité conformément à la procédure prévue dans ce protocole.

• En vertu du principe de proportionnalité, le contenu et la forme de l’action de l’UE n’excèdent pas ce qui est nécessaire pour atteindre les objectifs des traités. Les institutions de l’UE appliquent le principe de proportionnalité conformément au protocole sur l’application des principes de subsidiarité et de proportionnalité. @

Dégrouper la « box » des opérateurs aux Etats-Unis : idée transposable aux objets connectés en Europe

Le régulateur américain des communications, la FCC, s’apprête à changer
de président pour être « Trump » compatible. Du coup, ses propositions de dégrouper les set-top-boxes des câblo-opérateurs risquent d’être enterrées
avant d’avoir existé. Pourtant, elles méritent réflexion – y compris en Europe.

Par Winston Maxwell*, avocat associé, Hogan Lovells

La prise de fonctions le 20 janvier 2017 du nouveau président des Etats-Unis, Donald Trump, sera suivie de la démission du président actuel de la FCC (1), Tom Wheeler. Le successeur
de ce dernier, issu du Parti républicain, sera nommé pour le remplacer. Le départ de Tom Wheeler (2) signifie l’abandon probable de l’idée de dégrouper le décodeur des câblo-opérateurs américains. Cette idée, qui a fait l’objet d’une proposition adoptée par la FCC le 28 février dernier, mérite néanmoins notre attention car elle illustre les enjeux liés à la télévision connectée et plus généralement au partage de données collectées dans le cadre des objets connectés.

Des set-top-boxes peu performantes
D’abord examinons la notion de « dégroupage » d’un décodeur, appelé aux Etats-Unis set-top-box. Les services de transmission d’un câblo-opérateur se divisent en deux
« tuyaux » logiquement distincts. Le premier tuyau consiste en la transmission de programmes utilisant de la bande passante réservée à cet effet. Il s’agit de services de transmission gérés de bout en bout par le câblo-opérateur. Le deuxième tuyau consiste en la fourniture d’un service d’accès à Internet. Cette deuxième partie du service est ouverte et soumise aux règles sur la neutralité de l’Internet. Pour accéder à l’offre télévisuelle sur la partie gérée du service, le téléspectateur doit utiliser un décodeur fourni par le câblo-opérateur. Aux États-Unis, la fourniture de cette « box » est payante, le téléspectateur s’acquittant d’un loyer mensuel. Selon la FCC, ce décodeur est non seulement cher, mais il est aussi peu performant, la technologie ayant peu évolué depuis une décennie. Les téléspectateurs américains semblent donc prisonniers d’une situation où le câblo-opérateur leur impose la location d’un décodeur peu performant. En 2015, la FCC, a lancé une première consultation publique pour mettre fin au monopole de fait qui existe en faveur des câblo-opérateurs pour la fourniture de leurs décodeurs. L’idée était de créer un marché dynamique où les développeurs indépendants pourraient proposer des fonctions qui aujourd’hui sont regroupées au sein du décodeur. Car cette « box » agrège plusieurs fonctions distinctes. La fonction
la plus basique consiste à transformer les signaux vidéo en images et sons lisibles par le téléviseur. Mais elle gère également l’accès aux programmes payants. Pour ce faire, elle a une fonction d’authentification et de gestion des conditions d’accès. Ces systèmes font régulièrement l’objet d’attaques par des pirates qui essayent de contourner le système afin d’organiser un marché noir d’accès aux programmes payants. C’est pour cette raison que les câblo-opérateurs et les ayant droits ne souhaitent pas que cette fonction soit séparée du décodeur, car l’existence d’un décodeur physique permet d’augmenter les mesures d’anti-piratage. Une autre fonction de la « box » est de fournir le guide électronique de programmes – Electronic Program Guide (EPG) – et de gérer les fonctions de recherches de programmes et de navigation. Les décodeurs actuels semblent archaïques comparé à l’interface d’une tablette ou d’un smartphone. C’est pour cette raison que la FCC a souhaité envisager de dégrouper les différentes fonctions du décodeur afin de permettre plus d’innovation et de choix au bénéfice du téléspectateur. La première proposition de la FCC aurait contraint les câblo-opérateurs à fournir des flux de données selon un standard ouvert, de manière à permettre à n’importe quel développeur d’intégrer ces fonctions dans différents types de terminaux. Ces fonctions pourraient être intégrées par exemple
dans le logiciel de navigation d’une tablette, ou d’une télévision connectée. La FCC
a rencontré une forte résistance de la part des câblo-opérateurs et des ayant droits. Dégrouper la fonction d’authentification et de gestion des conditions d’accès augmenterait le risque de piratage. La FCC a ainsi fait marche arrière et a proposé
une solution de compromis par laquelle le câblo-opérateur fournirait une application téléchargeable sur une tablette ou télévision connectée. Cette application resterait
sous le contrôle du câblo-opérateur permettant un niveau plus élevé de sécurité que
s’il s’agissait d’une application tierce.

Les enjeux de l’interface et des données
Mais la sécurité n’est pas le seul enjeu. La FCC souhaitait également ouvrir à la concurrence les fonctions du décodeur liées à l’interface avec les utilisateurs.
Cette proposition s’est également heurtée à une opposition des câblo-opérateurs
qui craignaient la perte de leurs relations commerciales avec leurs abonnés. L’enjeu était ici commercial. La maîtrise de l’interface de navigation permettrait à un prestataire tiers d’organiser la page d’accueil, d’apposer ses propres marques, et surtout de collecter des données sur les habitudes des téléspectateurs. Aux yeux des câblo-opérateurs, le décodeur reste un rempart contre la captation de la valeur des données par les grands prestataires d’Internet.

Dégroupage des objets connectés ?
A première vue, le dégroupage des « box » semble similaire à l’ouverture à la concurrence des téléphones dans les années 1990. Le dégroupage des téléphones a conduit à une vague d’innovation sans précédent, aux extrémités des réseaux. Cette innovation se perpétue encore aujourd’hui sur l’Internet, où il est possible d’« innover sans permission » – pour emprunter les termes de Yochai Benkler (3) – aux extrémités du réseau. Le droit d’innover aux extrémités du réseau est aujourd’hui garantie par la régulation sur la neutralité de l’Internet. Mais les règles sur la « Net Neutrality » ne s’appliquent pas aux services « gérés », comme la télévision accessible sur les « box ». S’agissant d’un opérateur de télécommunications bénéficiant d’un monopole juridique, imposer le dégroupage des terminaux en 1990 semblait logique. La question devient plus complexe lorsque l’opérateur en cause évolue dans un marché concurrentiel.
La proposition de la FCC fournit un exemple des complexités qui se transposent facilement à l’Internet des objets, où l’accès aux données est devenu un enjeu clé
pour l’innovation : compteurs électriques intelligents, maisons connectées, ou encore véhicules connectés. Obliger une entreprise privée à ouvrir à des tiers l’accès aux données de ses clients peut sembler à première vue attrayant pour encourager l’innovation. Mais vue de plus près, la question est complexe (4) et la notion
d’« innovation » incertaine (voir encadré ci-dessous), sans même parler de la protection des données à caractère personnel, un enjeu crucial. L’étude de l’Autorité de la concurrence (France) et de la Competition and Markets Authority (Grande-Bretagne) sur les écosystèmes et leurs effets sur la concurrence – analyse conjointe publiée en décembre 2014 (5) – montre que l’existence d’un écosystème fermé ne se traduit pas forcément par une diminution de la concurrence et de l’innovation. Chaque situation doit être examinée séparément. La même conclusion découle de l’étude récente conduite par la même Autorité de la concurrence avec cette fois la Bundeskartellamt (Allemagne) sur la collecte de données par les plateformes – analyse conjointe publiée en mai 2016 (6). Cette collecte de données ne conduit pas forcément à une diminution de l’innovation et de la concurrence.
La Commission européenne s’est exprimée le 10 janvier dernier sur le partage de données collectées dans le contexte des terminaux, compteurs ou encore véhicules connectés. Selon sa communication intitulée « Construire une économie européenne de la donnée » [« Building a European Data Economy », lire l’article pages 6 et 7, ndlr], la Commission européenne souligne la nécessité d’encourager le partage tout en respectant les négociations commerciales, la sécurité des systèmes, et l’investissement des entreprises ayant permis la production des données. Le débat sur le dégroupage des « box » et autres plateformes d’objets connectés promet de rester vif. @

* Winston Maxwell a eu l’occasion d’exposer la question du
dégroupage des « box » aux Etats-Unis au CSA Lab lancé
14 juin 2016, dont il est l’un des neuf membres experts,
ainsi qu’au Conseil d’Etat lors du colloque « Concurrence et
innovation à l’ère du numérique » le 9 décembre 2016.

ZOOM

Encourager l’innovation par la régulation, mais quelle « innovation » ?
Pour élaborer un système réglementaire qui favorise l’innovation, encore faut-il pouvoir la mesurer. Or, mesurer le niveau d’innovation est compliqué. Dans les années 1990, des recherches ont été faites aux Etats-Unis sur le lien entre la régulation sur la protection de l’environnement et l’innovation. A l’époque, certains disaient que la régulation favorisait l’innovation : cela s’appelait « l’hypothèse de Porter ». Valider cette hypothèse nécessite de se mettre d’accord sur ce que l’on entend par « innovation ».
Si l’on mesure l’innovation par les dépenses de recherches dédiées aux problèmes
de conformité (on parle de compliance innovation), alors, oui, la régulation conduit généralement à une augmentation de l’innovation. En revanche, si l’on mesure l’innovation par d’autres critères, par exemple le nombre de brevets déposés ou le nombre de start-up levant des fonds de capital risque, la réponse sera différente. Sans pouvoir mesurer l’innovation, on navigue à l’aveugle. La régulation peut elle-même innover. Certains auteurs prônent une régulation « adaptative » et « expérimentale »
qui s’adapterait en fonction des résultats observés. Préconisée dans la dernière étude annuelle du Conseil d’Etat, la réglementation expérimentale serait particulièrement bien adaptée aux marchés numériques, où le risque d’erreur est élevé. Mais cette forme de régulation nécessiterait des mécanismes de suivi sur l’efficacité de la régulation, et ces mécanismes sont rares. @

Liens hypertextes « pirates » : la jurisprudence « GS Media » menace-t-elle la liberté d’informer ?

Le 13 octobre 2016, le tribunal d’Attunda (Suède) a fait application pour la première fois en droit national des critères énoncés par la CJUE dans l’arrêt
« GS Media », et vient ainsi préciser les contours du régime s’appliquant au
droit de communication au public pour les liens hypertextes.

Par Etienne Drouard (photo), avocat associé, et Antoine Boullet, juriste, cabinet K&L Gates

L’intérêt de cette décision réside dès lors dans l’application concrète des critères abstraitement énoncés par la CJUE. Pour rappel, la Cour de justice de l’Union européenne (CJUE) a décidé – dans l’ arrêt « GS Media » rendu le 8 septembre dernier (1) – que pour juger du caractère licite ou illicite d’un acte de communication au public au sens de la directive européenne de 2001 sur le droit d’auteur (dite « DADVSI »), il fallait non seulement démontrer l’existence d’un acte de communication et l’existence d’un public, mais également « tenir compte de plusieurs critères complémentaires, de nature non autonome et interdépendants les uns par rapport aux autres » (2).

Le cas d’une vidéo d’accident
La CJUE a ainsi précisé le régime des liens hypertextes qui renvoient vers des œuvres protégées, librement disponibles sur un autre site Internet et sans l’autorisation du titulaire du droit d’auteur. Pour déterminer si de tels liens constituent des actes de communication illicites au public, il convient, selon l’arrêt européen, de « déterminer si ces liens sont fournis sans but lucratif par une personne qui ne connaissait pas ou ne pouvait raisonnablement pas connaître le caractère illégal de la publication de ces œuvres sur cet autre site Internet ou si, au contraire, lesdits liens sont fournis dans un tel but, hypothèse dans laquelle cette connaissance doit être présumée ». L’application concrète de ces critères par les juridictions nationales était attendue pour envisager leur pleine portée. Dans l’arrêt « Rebecka Jonsson c/ Les Editions de L’Avenir », le juge suédois est le premier à se prononcer dans le sillage de la CJUE.
Deux critères essentiels de la décision européenne méritent en effet d’être clarifiés. Tout d’abord, comment définir le but lucratif ? Ensuite, comment prouver la connaissance, ou au contraire l’absence de connaissance, du caractère illégal d’une publication qui rendrait un lien vers celle-ci lui-même licite ou illicite ? En l’espèce,
la plaignante Rebecka Jonsson a filmé en 2012 un accident de saut à l’élastique en Afrique. La vidéo a ensuite été mise en ligne sans son autorisation sur YouTube.
Le 9 juin 2012, le journal belge L’Avenir a publié cette vidéo sur son site Internet pour illustrer un article. La spécificité du litige résidait dans le fait que la plaignante n’avait ni autorisé la mise en ligne de la vidéo sur YouTube, ni sa publication par Les Éditions de l’Avenir. La plaignante reprochait au journal d’avoir porté atteinte à ses droits d’auteur en publiant la vidéo sur son site Internet, ainsi qu’une capture d’écran de la vidéo de celle-ci, et en ne reconnaissant pas à Rebecka Jonsson la qualité d’auteure de la vidéo. Les faits en cause se rapprochaient ainsi de ceux l’arrêt européen « GS Media » puisqu’ils portaient sur la publication d’un lien hypertexte vers une oeuvre publiée sans le consentement de son auteur. La juridiction suédoise a donc opportunément appliqué les critères développés par les juges européens.
Dans son jugement, le tribunal d’Attunda répond aux demandes de la plaignante en trois points, dont seul le premier retiendra particulièrement notre attention, les deux autres portant respectivement sur la publication d’une capture d’écran de la vidéo et
sur la qualité d’auteure de la plaignante. La juridiction suédoise commence par énoncer que la notion de « communication au public » doit être interprétée au regard de la directive « DADVSI » et de son analyse par le juge communautaire.
Le journal L’Avenir a, en l’espèce, publié le lien hypertexte litigieux sur son site Internet ; cette forme de mise à disposition du public constitue donc une « communication au public ». Cette communication s’adresse bien à un public distinct (les visiteurs du site web de L’Avenir ) du public visé par l’acte de communication originaire de l’oeuvre, c’est-à-dire un public nouveau. Les deux premiers critères permettant de caractériser un acte de communication au public sont donc satisfaits.

La jurisprudence « GS Media »
La juridiction suédoise s’appuie ensuite sur l’arrêt « GS Media » qui a confirmé que la publication d’un lien hypertexte vers une oeuvre protégée sans le consentement de son auteur constituait bien une communication au public. Dans la même affaire, la CJUE
a décidé que lorsque le fournisseur de lien hypertexte poursuit un but lucratif, sa connaissance de l’illicéité de la source doit être présumée. En l’espèce, Rebecka Jonsson nie avoir consenti à la publication de son film sur YouTube.
Par ailleurs, le journal L’Avenir ayant publié le lien litigieux sur une page d’actualité de son propre site, il poursuit ainsi un but lucratif. Selon le juge suédois, la connaissance du caractère illicite de la publication par le journal L’Avenir doit dès lors être présumée.

La notion de but lucratif
La décision suédoise fait pour la première fois application du critère du but lucratif mis en avant par la CJUE dans l’arrêt « GS Media ». La connaissance de l’illicéité de la publication vers laquelle renvoie le lien hypertexte est ainsi présumée et peut conduire à engager la responsabilité de la personne publiant le lien dans un contexte à but lucratif.
Le critère du but lucratif avait soulevé de nombreuses interrogations, en raison de son imprécision. En effet, comment déterminer si un site Internet – et encore moins un lien – poursuit un but lucratif ? La réponse à cette question doit être apportée par les juges nationaux, la CJUE ayant explicitement décidé que cette appréciation devait être
« individualisée ». Nous pouvons toutefois émettre l’hypothèse que le caractère lucratif d’une publication doit être déterminé selon qu’elle est le fait d’un professionnel ou d’un non-professionnel (3). La juridiction suédoise dessine une première interprétation de l’intention lucrative.
On regrettera toutefois l’absence de justification claire en l’espèce. En effet, le tribunal d’Attunda se contente d’affirmer qu’il apparaissait « évident » que le journal L’Avenir avait publié le lien hypertexte litigieux dans l’intention de réaliser un profit. La juridiction n’explique toutefois pas quels éléments lui ont permis de conclure que le défendeur poursuivait un but lucratif. En application du critère imprécis énoncé par la CJUE, la juridiction suédoise conclut donc à l’existence d’une intention lucrative de manière tout aussi obscure. Il sera donc aisé pour les demandeurs de démontrer l’intention lucrative du fournisseur de lien, et ainsi présumer sa connaissance du caractère illicite de la source vers laquelle pointe le lien hypertexte. Si la CJUE a formulé une présomption
de connaissance du caractère illicite de la source, une présomption simple implicite d’intention lucrative semble également peser sur le fournisseur de lien professionnel.
La présomption de responsabilité serait donc acquise s’agissant de la publication à but lucratif de lien hypertextes renvoyant vers une source illicite.

Les conséquences de la jurisprudence « GS Media » pourraient donc s’avérer plus redoutables qu’imaginées de prime abord, et éventuellement avoir « des conséquences fortement restrictives pour la liberté d’expression et d’information », comme le craignait la Commission européenne.
La présomption d’intention lucrative doublée d’une présomption de connaissance du caractère illicite de la source fait donc peser une présomption de responsabilité extrêmement lourd e s u r les professionnels fournissant des liens hypertextes. Selon les critères énoncés par la CJUE dans l’arrêt « GS Media », après avoir démontré l’existence d’un but lucratif, les personnes publiant des liens hypertextes peuvent encore s’exonérer de leur responsabilité en démontrant avoir accompli « les vérifications nécessaires pour s’assurer que l’oeuvre concernée n’est pas illégalement publiée sur le site auquel mènent lesdits liens hypertexte ».
Une nouvelle fois, la juridiction européenne se garde bien d’expliquer quelles diligences doivent être effectuées par les fournisseurs de liens pour s’assurer de la licéité de la source. Nous pouvons présumer qu’il s’agira de contacter l’éditeur du site web vers lequel le lien renvoi, voire de contacter directement l’auteur ou les ayants droit. La fiabilité du site-source pourrait également être un indice.
La juridiction suédoise réserve un traitement doublement exigeant à l’égard des fournisseurs de liens. Non seulement leur intention lucrative devient très facile à caractériser, mais en plus les titulaires de droits d’auteur bénéficient d’un traitement favorable. En effet, dans cette affaire « Rebecka Jonsson c/ Les Editions de L’Avenir », aucun devoir de vigilance n’était imposé à l’auteure de la vidéo.
Cette dernière a été admise à rechercher la responsabilité du journal, sans avoir à l’informer du caractère illicite de sa publication initiale sur la plateforme YouTube, ni même avoir à démontrer avoir accompli des diligences pour faire retirer le contenu illicite originairement publié sur YouTube.

Obligation lourde de vérification
Cette décision suédoise démontre que, contrairement au droit des marques, aucun devoir de surveillance ne pèse les titulaires de droits d’auteur dans l’utilisation de leurs œuvres. S’agissant des éditeurs de liens, ces derniers sont soumis à une obligation de vérification extrêmement lourde. Dès lors qu’ils fournissent un lien vers une vidéo YouTube ou vers un autre site en ligne, ils devront ainsi s’assurer au préalable que le titulaire initial de droits a autorisé ce site-là à publier l’oeuvre protégée. @

Libre circulation des données et souveraineté numérique dans le nuage : le prochain rendez-vous

La Commission européenne prône la libre circulation des données dans le nuage informatique par suppression des restrictions injustifiées de localisation nationale, lesquelles morcèlent le marché unique numérique. Mais cette politique favorise-t-elle vraiment l’émergence d’un « cloud européen » ?

Par Christophe Clarenc (photo) et Martin Drago, cabinet Dunaud Clarenc Combles & Associés

Dans le cadre de sa stratégie de marché unique du numérique (1), la Commission européenne a annoncé le 19 avril dernier un plan de mesures en vue du passage au numérique de l’industrie européenne (2) comportant en particulier une « initiative pour la libre circulation des données » visant à éliminer les restrictions nationales injustifiées et à harmoniser la libre circulation des données européennes – autres que les données personnelles
(3) – dans le nuage informatique.

Nuage européen sous pavillon américain
Attendue pour début 2017 sous la forme d’une proposition législative, cette initiative de la Commission européenne s’inscrit dans sa politique de construction d’un « cadre favorable à un marché unique des données massives et de l’informatique en nuage » répondant aux enjeux et conditions précédemment identifiés dans ses communications du 29 septembre 2012 (« Exploiter le potentiel de l’informatique en nuage ») et du 2 juillet 2014 (« Vers une économie de la donnée prospère ») et dans le rapport intermédiaire « Trusted Cloud Europe » (TCE) remis le 18 mars 2014 (4). Trois grands enjeux combinés étaient identifiés : le positionnement européen dans les infrastructures et l’offre de services en nuage ; les normes de confiance, les certifications de conformité et les conditions contractuelles applicables aux services en nuage ; et les exigences réglementaires ou contraintes prudentielles de localisation nationale des données restreignant la libre circulation de ces dernières dans le nuage.
Dans sa communication de 2012 sur le cloud, la Commission européenne soulignait tout d’abord l’enjeu des capacités et services de l’informatique en nuage dans le développement de l’économie du traitement massif des données et l’intérêt stratégique de positionner l’Europe à l’avant-garde et en acteur mondial du côté de l’offre de capacités et de services en nuage. Dans sa communication de 2014 sur la data, elle qualifiait l’informatique en nuage d’« infrastructure essentielle pour une économie de
la donnée » (voir encadré page suivante) et relevait le retard et le défi capacitaires de l’Europe, par rapport aux Etats- Unis, dans la concurrence mondiale. Elle évoquait également la question de « la souveraineté des données européenne dans le nuage » devant les possibilités « de surveillance par des acteurs publics ou privés » (référence implicite à la soumission et à la participation des grands fournisseurs de services numériques américains aux programmes extraterritoriaux de surveillance et de renseignement des autorités américaines autorisés par le FISA (5)). Ainsi que le montrent les dernières études du marché (6), le nuage européen est plus que jamais sous exploitation américaine – et ainsi sous juridiction extraterritoriale américaine : Amazon Web Services, Microsoft, Google et IBM (les « Big Four » du cloud), dominent largement les capacités européennes (avec des centres de données principalement installés au Royaume- Uni, en Allemagne, aux Pays-Bas et en Irlande), transatlantiques et mondiales d’hébergement distant et chacun des types et modèles de services en nuage. Dans sa communication de 2012, la Commission européenne soulignait ensuite l’enjeu et les conditions de la confiance dans les services en nuage au regard de la responsabilité des fournisseurs, de la jungle des normes et du déséquilibre des contrats dans le nuage, ainsi que du morcellement du marché unique. Ces difficultés tiennent à la diversité des cadres juridiques nationaux et aux incertitudes concernant en particulier la localisation, la propriété et la sécurité des données dans le nuage. La Commission européenne relevait « l’incidence majeure » de la localisation des données sur le cadre juridique applicable et la forte préoccupation de transparence et de conformité des utilisateurs à cet égard à l’endroit de leurs données sensibles. Elle identifiait – dans la confusion des normes et le déséquilibre des contrats – le risque de nuages ne garantissant pas aux utilisateurs la responsabilité, la sécurité, la réversibilité et la portabilité des données hébergées.

Confiance dans le nuage
La communication de 2012 appelait à l’élaboration, pour les services en nuage, de règles de conformité et de dispositifs de certification permettant aux utilisateurs d’utiliser et de choisir en confiance ces services au regard de leurs propres exigences. Dans sa communication de 2014, la Commission européenne annonçait des « actions concernant la transparence des normes, la certification volontaire à l’échelle de l’UE
et des conditions contractuelles sûres et justes pour les utilisateurs » sur la base des recommandations du rapport TCE. Dans ses mesures présentées en avril dernier, elle annonce une « accélération » de l’élaboration de normes communes pour l’informatique en nuage.

Barrières dans le nuage
Enfin, c’est dans sa communication de 2014 que la Commission européenne a abordé et orienté l’enjeu de la circulation des données européennes dans le nuage, sur la base également des recommandations du rapport TCE. Le rapport TCE a dressé une typologie des exigences de localisation des données au sein des Etats membres, présentées comme des barrières réglementaires au développement des services en nuage, en appelant à une élimination des exigences injustifiées et à une harmonisation fondée sur un principe de libre circulation des données dans le nuage à l’intérieur et l’extérieur des frontières de l’UE. Cette typologie est classée par types d’organes prescripteurs (pouvoirs législatifs et réglementaires, autorités de régulation et de supervision, associations professionnelles), par types d’exigences (protection des données personnelles, protection des droits de propriété intellectuelle, confidentialité des données, sécurité des systèmes d’information, exercice des pouvoirs de supervision et de contrôle, souveraineté nationale, sécurité nationale, prévention contre les lois et juridictions étrangères, règles des marchés publics), et par grands secteurs concernés (secteur public, fiscalité, santé, médias, services bancaires et financiers, archives, industrie et consommation).
Dans sa communication de 2014, la Commission européenne a relevé que « dans plusieurs secteurs, les exigences applicables à la localisation des données limitent le flux transfrontière des informations et font obstacle à un marché unique de l’informatique en nuage et des données massives ». Sa communication de 2015 de stratégie de marché unique du numérique (7) a pointé comme restrictives ces exigences des Etats membres de localisation et de conservation des données sur leur territoire, notamment en ce qu’elles « contraignent les prestataires de services en nuage à construire de coûteuses infrastructures locales dans chaque région ou pays », et annoncé son initiative à l’encontre de ces restrictions et pour une libre circulation des données européennes dans le nuage. La Commission européenne a également affiché son intention d’utiliser les négociations commerciales internationales en cours pour éliminer et prévenir ces « nouvelles formes de protectionnisme numérique » (un rapport remis au gouvernement français en avril 2016 par l’IGF et le CGI (8) démontre tout le déséquilibre et le risque d’une telle démarche). On peut ainsi anticiper que son initiative attendue – d’élimination des exigences injustifiées d’hébergement localisé des données pratiquées au sein des Etats membres pour une libre circulation intraeuropéenne et transatlantique de ces données dans le nuage – sera à tout le moins conforme aux attentes et intérêts du « nuage américain » (clairement exprimés dans les positions publiées par l’US Chamber of Commerce et par DigitalEurope).
La France et l’Allemagne ont engagé de leur côté une politique d’offre et de certification de services en nuage souverains (9) La France a lancé une offre de services souverains à travers le projet « Andromède », dont sont issues les offres actuelles de Cloudwatt (Orange) et Numergy (SFR). OVH propose également aujourd’hui une telle offre sur la base de ses capacités installées et administrées en France. L’Allemagne revendique également un « Bundes Cloud » organisé notamment à partir d’une offre
« Cloud Germany » de Microsoft appuyée sur deux centres de données de Microsoft
en Allemagne, avec garantie d’hébergement localisé et sécurisé des données sensibles et administration sous le contrôle d’un tiers de confiance (en l’espèce T-Systems International).

Nuage « souverain »
La France (ANSSI (10)) et l’Allemagne (BSI (11)) collaborent par ailleurs à la mise en place d’un référentiel de sécurité élevé et d’une certification de confiance pour les services en nuage (Cloud Secure) qui pourraient exiger une localisation nationale et/ou européenne des données sensibles et de leurs centres d’hébergement (12). Les débats dans le nuage ne sont pas clos. @

ZOOM

Portée de la directive européenne « SRSI » de juillet 2016
L’informatique en nuage a également été regardée comme une infrastructure critique par la directive européenne sur la sécurité des réseaux et des systèmes d’information (« SRSI ») dans l’Union européenne (UE), adoptée le 6 juillet dernier (13) et applicable
à certains fournisseurs de services numériques, dont les fournisseurs de services d’informatique en nuage, et aux relations entre ces fournisseurs et les opérateurs de services essentiels au fonctionnement de l’économie et de la société (les « opérateurs d’importance vitale » au sens du droit français). Cette directive « SRSI », dont l’ANSSI portera la transposition en France d’ici mai 2018 (14), prescrit aux Etats membres de se doter d’une stratégie et de moyens en vue de garantir un niveau élevé de sécurité (16) sur leur territoire. @

 

Devant l’urgence du tout connecté à très haut débit, la Commission européenne change de paradigme

Le retard de la France dans le déploiement du très haut débit fixe et mobile
est emblématique d’une Europe qui se rend compte du relativement faible investissement de ses opérateurs télécoms. La faute à une réglementation
trop « consumériste » ? Jean-Claude Juncker veut corriger le tir.

Rémy Fekete, associé Jones Day

L’Europe n’est pas prête. Elle n’est pas prête à s’inscrire dans une économie numérique où le très haut débit est la règle et la condition du fonctionnement des nouveaux outils, des services, des contenus, bre f , d e l’activité des entreprises et de la vie
des citoyens.
« France Numérique 2012 », « Plan de relance numérique »,
« Plan national très haut débit » (PNTHD), « Plan France très haut débit » (France THD) : depuis six ans, les politiques n’ont
eu de cesse d’annoncer pour l’Hexagone des jours meilleurs et, en particulier, l’accession de la totalité de la population au très haut débit.

Hors des villes, mornes plaines
Mais ces projets gouvernementaux se sont toujours inscrits dans un horizon calendaire dépassant – estce intentionnel ? – le terme de leur mandat électoral. Entre fibre optique jusqu’à l’abonné (FTTH) en zone dense et très haut débit sur lignes de cuivre (VDSL2) autorisé depuis fin 2013 par l’Arcep, afin d’offrir une solution d’attente à la fibre, les zones d’habitat dense ont certes vu les zones de foyers éligibles au très haut débit atteindre les 15,1 millions – dont seulement 4,8 millions son abonnés (derniers chiffres en date au 30 juin 2016). Mais dans un pays de 66 millions d’habitants, dont 43 % résident en zone peu dense, il y a loin de la coupe aux lèvres . Le niveau
de subventionnement ne cesse d’augmenter (1) et, malgré les mécanismes de financement exceptionnels (2), il faut que l’environnement soit décidemment peu porteur pour constater cinq années plus tard que pour sa grande majorité le budget alloué n’a pas été consommé. Et le très haut débit mobile ?
Là encore, hors des centres villes des principales agglomérations, en dehors des heures creuses, la qualité de service reste très aléatoire. Les engagements de couverture territoriale, y compris en 2G, ont pris un retard considérable. Celles de la 3G et de la 4G ont fait l’objet de nouveaux accords avec les opérateurs mobile et le régime des sanctions utilisables par l’Arcep a été renforcé. Reste que les zones blanches et les zones grises peinent, encore et toujours, à recevoir les investissements nécessaires au déploiement ou à la densification de réseaux mobile sur leurs territoires. Alors comment expliquer ces retards persistants dans l’équipement du pays – de l’ensemble du pays – en réseaux de télécommunications dignes de ce nom ? Le cas français, à vrai dire, est loin d’être le pire au sein de l’Union Européenne. De fait, entre 2006 et 2013, lorsque les quatre principaux opérateurs américains (3) ont augmenté leurs investissements
de près de 40 %, les sept principaux opérateurs européens (4) ont diminué les leurs de 5 % (ces pourcentages intègrent les montants dédiés aux redevances d’attributions de fréquences mais demeurent pertinents s’agissant du déploiement d’infrastructures).

L’ investissement dans le réseau 4G a été particulièrement intensif aux Etats-Unis depuis 2009, avec une croissance de 118 % des investissements dans le mobile.
Si le niveau d’investissement est significativement plus faible sur le continent européen, c’est que le marché lui-même – en particulier sous l’effet d’une régulation
à visée essentiellement consumériste – a laminé les capacités d’investissement des opérateurs télécoms : entre 2006 et 2013, les revenus des quatre opérateurs américains ont augmenté de 51 %, pendant que ceux des sept européens baissaient
de 7 %.
Le revenu moyen par abonné (ARPU) était, sur la période, resté stable aux Etats-Unis quand il chutait de 35 % en France : c’est l’effet d’une régulation ayant incité à augmenter le nombre d’opérateurs dans chacun des pays membres de l’Union européenne ; ce qui n’a pas facilité (un euphémisme) la concentration des opérateurs télécoms, ni au sein de chaque Etat membre ni au niveau paneuropéen.

Vidéo, Internet des objets, cloud, …
Certes, le consommateur a vu le prix de la minute baisser, qu’il s’agisse de voix ou
de données, mais malgré des investissements qui restent significatifs, le déploiement des infrastructures coûteuses d’avenir prend du retard. C’est notamment le cas du LTE, norme proche de la 4G (5). Résultat, l’on peut surtout craindre que ce retard s’amplifie alors que les enjeux de l’économie numérique à très haut débit accélèrent
– avec la multiplication de l’usage de la vidéo notamment – des prévisions du trafic considérable lié à l’Internet des objets et à l’ensemble des applications liées à l’usage du cloud.

Un enjeu « effroyable » (Arcep) ?
L’enjeu, selon les termes mêmes du directeur général de l’Arcep (Benoît Loutrel) à une table ronde en 2015, est « effroyable ». Le terme n’est pas exagéré si l’on réalise que
la disponibilité d’infrastructures très haut débit n’est plus seulement un facteur d’attractivité des entreprises, mais est devenue très simplement une des conditions de leurs maintiens et de leurs capacités à concurrencer efficacement leurs compétiteurs internationaux.
Une étude du Forum économique mondial (6) rappelle de nombreuses études (McKinsey Global Institute, Unesco, UIT, OCDE, Arthur D. Little et Regeneris Consulting) aux termes desquelles un investissement d’une livre anglaise en réseau
de fibre optique en zone rurale crée de l’ordre de 15 livres de valeur ajoutée supplémentaire en Grande-Bretagne. L’investissement dans les réseaux très haut débit est donc non seulement une condition de survie pour les opérateurs télécoms (7), mais le salut viendra de la capacité à fournir aux services à valeur ajoutée, gourmands en bande passante, des capacités de transmission dans des conditions de facilités d’usage et de rapidité à la hauteur des attentes des consommateurs. C’est la condition pour permettre aux opérateurs de réseaux de justifier enfin une augmentation des ARPU.
Dire que dans ce contexte le financement du déploiement de l’Internet très haut débit en France obéit à un régime juridique complexe encadré à la fois par les textes nationaux et par le contrôle de la Commission européenne, en particulier des modalités de subventionnements publiques et des aides d’Etat, est une manière positive de présenter la situation. Des réseaux d’initiatives publiques (RIP) ont connu des conditions de mises en oeuvre difficiles et restent complexes à utiliser, ce qui explique la lenteur du déploiement de réseaux sous ce régime.
Il a fallu plusieurs jurisprudences européennes (8) pour affiner les modalités de financements publiques dans le cadre des services d’intérêt économique général (SIEG). Retard significatif dans le déploiement de réseaux très haut débit, insuffisance des investissements, et régulation complexe et peu stable visant en priorité la satisfaction du consommateur plutôt que l’incitation à l’investissement dans les réseaux, tel semble être le constat partagé par le président de la Commission européenne Jean-Claude Juncker : le 14 septembre dernier, dans son discours sur l’état de l’Union en 2016, il a indiqué l’ouverture du chantier de la refonte significative du cadre européen applica b le au secteur des télécommunications. Il ne s’agit pas seulement d’intégrer
les directives du « Paquet télécom » dans un seul code européen des communications électroniques ou de réviser les pouvoirs de l’Organe des régulateurs européens des communications électroniques (Orece) (9). Mais il s’agit surtout d’engager les réformes nécessaires à l’accélération des investissements dans les réseaux de haut et de très haut débit, et notamment la 5G et la fibre optique. Et ce, afin de rendre le très haut débit mobile disponible dans toutes les zones urbaines avant 2025 (le 10 novembre dernier, le Parlement européen a voté en faveur de la bande des 700 Mhz pour le mobile 4G
et 5G) et permettre à l’ensemble des foyers européens de disposer d’une vitesse de téléchargement d’au moins 100 Mbits/s.
Jean-Claude Juncker y associe un projet intéressant de déploiement de Wifi gratuit au travers des collectivités locales (10). « L’Union européenne vous apporte du Wifi au cœur des villages et des villes, des parcs, des bibliothèques, des bâtiments publics », promet la Commission européenne, qui vise au moins 6.000 à 8.000 hotspots dans
les Vingt-sept (11). Espérons qu’il ne s’agisse pas d’une énième déclaration visant simplement à annoncer le déploiement de réseaux de backbones nationaux, transnationaux, en vue d’un déploiement de fibre en mode FTTH. Si l’on veut atteindre les objectifs annoncé s p a r l’Union européenne, à savo i r d’augmenter avant 2025 le PIB européen de 910 milliards d’euros et créer 1,3 million d’emplois, c’est un véritable changement de paradigme qu’il faut appeler de nos vœux.

Fin du « consumérisme »
Le président de la Commission européenne s’inscrit dans cette perspective lorsqu’il souhaite déplacer le point d’équilibre de la régulation européenne en fixant comme premier objectif l’investissement et non plus uniquement la visée « consumériste » de baisse des prix à courts termes. Il reste à attendre les textes d’application qui mettront en oeuvre les déclarations de Jean-Claude Juncker, et surtout à souhaiter que le processus de rédaction et d’adoption de ces textes aboutisse suffisamment rapidement pour ne pas rendre une nouvelle fois vains les objectifs ambitieux fixés à l’horizon 2025. @