Très haut débit : l’Arcep va enfin autoriser « à l’automne » le VDSL2 sur la boucle locale de cuivre

Le président de l’Arcep, Jean-Ludovic Silicani, a indiqué à Edition Multimédi@ que le Comité d’experts pour les boucles locales cuivre et fibre optique va donner « à l’automne » son feu vert à l’introduction du VDSL2. Les lignes de cuivre vont pourvoir atteindre de 50 à 150 Mbits/s.

Par Charles de Laubier

Catherine Mancini, présidente du Comité d’experts de l’Arcep

Dernière ligne droite avant le lancement en France du VDSL2 (1), qui va offrir 50 à 100 Mbits/s sur la paire de cuivre téléphonique, soit des débits descendants bien plus élevés que les 20 Mbits/s au maximum de l’actuel ADSL2+. Sauf imprévu – ce que le président de l’Arcep, Jean-Ludovic Silicani, estime « peu probable » – « le Comité d’experts [pour les boucles locales cuivre et fibre optique] doit rendre un avis favorable à l’automne », a-t-il indiqué à Edition Multimédi@ en marge des 6es Assises du Très haut débit, organisées le 9 juillet par Aromates et l’Idate (2). « Ce Comité d’experts est indépendant de l’Arcep », nous précise Jean-Ludovic Silicani. Il n’en est pas moins placé sous l’autorité du régulateur, qui nomme ses membres, depuis qu’il a été créé en son sein il y aura dix ans le 19 septembre prochain (3). Il est présidé depuis lors par Catherine Mancini (notre photo). Aussitôt que cet avis favorable sera rendu, fin septembre au plus tôt,
le VDSL2 pourra sans autre formalité être introduit et déployé au niveau des sous-répartiteurs de France Télécom. Catherine Mancini nous le confirme : « Ce sont ces avis qui prononcent officiellement les autorisations d’emploi de telle ou telle technique, rien d’autre n’est nécessaire. Les déploiements de cette technique peuvent démarrer immédiatement après, à condition de respecter les modalités d’emploi préconisées ».

Neutralité technologique dans le très haut débit ?
Est-ce à dire que le VDSL2 pourra concurrencer le FTTH dans le très haut débit, selon le principe de neutralité technologique ? Lors de son audition par la Commission des affaires économiques de l’Assemblée nationale le 11 juillet, le président de l’Arcep a déjà prévenu : « Le VDSL2 sera déployé, mais pas partout, pour que la fibre puisse se développer sur tout le territoire ». En d’autres termes, priorité est donnée aux lourds investissements pour amener, d’ici à 2025, la fibre optique jusqu’au domicile des Français. Et ce, moyennant un coût très élevé de 25 milliards d’euros. Beaucoup moins coûteux, le VDSL2 pourrait contrarier cette volonté politique de déployer coûte que coûte le FTTH. Cela pourrait expliquer l’autorisation tardive de cette nouvelle technologie sur les lignes téléphoniques. D’autant que le coup d’envoi du VDSL2 devait être donné initialement « avant la fin 2011 » par le Comité d’experts (4), lequel a mis plus d’un an à faire des mois de tests de non-perturbation de l’ADSL en place.

Le VDSL2 à l’étude depuis sept ans
En fait, cela fait plus de sept ans que sa présidente Catherine Mancini, par ailleurs directrice chez Alcatel- Lucent, étudie le VDSL2. Cette norme a en effet été adoptée par l’Union international des télécommunications (UIT) en février 2006. Elle a depuis été suivie en mai 2010 par la norme vectorielle « G.Vector » (5) numérotée G.993.5, appelée aussi « VDSL3 », qui permet d’atteindre les 150 Mbits/s sur cuivre ! En attendant les 500 Mbits/s grâce au bonding (6)… Aujourd’hui, déjà plus de 10 millions de lignes téléphoniques dans le monde offrent du très haut débit sur fils de cuivre et leur nombre progresse de 10 % à 15 % par an.
Mais au-delà du principe de précaution technologique dont fait preuve le Comité d’experts pour les boucles locales cuivre et fibre optique, d’aucuns se demandent si cette instance tenue au secret n’est pas le théâtre d’intérêts antagonistes. France Télécom, concerné au premier chef, est membre de ce Comité d’experts aux côtés
des opérateurs du dégroupage (SFR, Free, Bouygues Telecom, …) et des principaux équipementiers télécoms (Alcatel-Lucent, Ericsson, Huawei, …). Mais l’opérateur historique est réticent à laisser la concurrence bénéficier d’un dégroupage total en VDSL2 qui permettrait aux autres opérateurs télécoms de monter en débit avec leur propre équipements. Et ce, au moment où les pouvoirs publics demandent à Orange d’accélérer le coûteux déploiement du FTTH à la rentabilité incertaine. Pourtant, en Pologne via sa filiale TPSA, Orange propose déjà du VDSL2. En France, les 100.000 sous-répartiteurs de la boucle locale de cuivre historique offrent une capillarité et un potentiel de déploiement pour le VDSL2 bien plus importants que les 12.300 répartiteurs utilisés pour l’ADSL. Plus le noeud de raccordement d’abonné (NRA) sera près du domicile de l’abonné, plus le très haut débit sur cuivre n’aura rien à envier à la très chère fibre optique. SFR est dans les starting-blocks depuis l’an dernier pour du VDSL2 à 150 Mbits/s, grâce à une gestion dynamique de la paire de cuivre dite DSM – Dynamic Spectrum Management – que lui fournit la société américaine Assia dirigée par l’inventeur du DSL, John Cioffi (7) (*) (**). Les box de Free et de Bouygues Telecom sont également prêtes. En juin dernier, France Télécom a informé certains de ses clients du lancement d’ici septembre d’un test grandeur nature du VDSL2 à Paris et Marseille, ce qui annoncerait l’arrivée de la Livebox 3 compatible VDSL2 dans les prochains mois (8). C’est dire que le cuivre est encore loin d’être « déterré pour être vendu sur les places de marchés [sic] », contrairement à ce qu’a affirmé Viktor Arvidsson, directeur stratégie et marketing d’Ericsson France, lors des 6e Assises du Très haut débit. La France reste la championne du monde de l’ADSL avec 21,2 millions d’abonnés – en progression de 5 % sur un an – et un taux de pénétration de 75 % des foyers. Et la combinaison FTTB+VDSL2 pourrait augmenter l’espérance de vie de la paire de cuivre au détriment du FTTH. Chez Alcatel-Lucent, Marc Charrière, vice-président des affaires publiques, parle plus volontiers de « complémentarité des technologies », mais avec un « objectif final : la fibre ». Présenté par le régulateur et par le gouvernement comme « une étape intermédiaire vers le déploiement du FTTH » (9), le VDSL2 pourrait devenir un « provisoire qui dure » pour les Français qui ne se précipitent pas pour s’abonner à la fibre : sur les 1.580.000 foyers éligibles au FTTH au premier trimestre 2012, seulement 220.000 se sont abonnés. Et au niveau des Vingt-sept, l’Idate a recensé 4,6 millions d’abonnés FTTH sur les 27,8 millions de foyers raccordables. Les sénateurs Philippe Leroy, président de ces 6e Assises du Très haut débit, et Hervé Maurey, auteur en octobre 2010 d’un rapport sur le sujet, préparent pour l’automne une proposition d’aménagement numérique des territoires qui fixe une date butoir pour l’extinction du fil de cuivre. Objectif : obliger les opérateurs à faire basculer leurs abonnés vers la fibre. Autre solution radicale pour tuer dans l’oeuf le VDSL2 serait d’augmenter le tarif du dégroupage ADSL pour inciter les opérateurs télécoms à investir dans la fibre optique. « La hausse du prix du dégroupage pourrait être de 1 euro par an sur trois ans », a même avancé Jérôme Yomtov, directeur général délégué de Numericable. Cela remettrait en cause, selon lui, « la rente » dont bénéficierait France Télécom sur le cuivre et l’avantage tarifaire que cela procure aux SFR, Free et autres concurrents dissuadés d’investir dans la fibre.

Déshabiller Pierre pour habiller Paul ?
En s’apprêtant cependant à autoriser le VDSL2, l’Arcep démontre qu’elle croit encore en l’avenir du cuivre. « Le dégroupage est un marché très dynamique et qui va le rester. Nous poursuivons nos efforts pour faciliter l’accès aux très petits NRA », a assuré Jean-Ludovic Silicani, lors de son intervention aux 6e Assises. Mais la pression monte en Europe, la commissaire Neelie Kroes ayant indiqué le 12 juillet qu’elle allait d’ici la fin de l’année prendre « des mesures pour favoriser l’investissement dans la fibre optique ». Le bras de fer entre le cuivre et la fibre ne fait que commercer… @

Les opérateurs télécoms veulent prendre le contrôle de l’Internet et de la diffusion de contenus

A défaut d’avoir été des Internet natives, le monde sous IP leur ayant été imposé par l’industrie informatique dans les années 90, les opérateurs télécoms veulent aujourd’hui reprendre la main sur le réseau des réseaux et devenir diffuseurs de contenus (vidéo en tête).

Par Charles de laubier

C’est un tournant historique qui est en train de s’opérer dans le monde de l’Internet, quarante ans après la création du réseau des réseaux. Les opérateurs télécoms, qui ont dû devenir à partir des années 1990 fournisseurs d’accès à Internet (FAI) dans un univers ouvert, veulent rajouter une corde à leur arc : la diffusion de contenus sur Internet.

Orange, SFR, Bouygues Telecom, TDF…
Pour cela, France Télécom-Orange, SFR, Bouygues Telecom, mais aussi BT, Deutsche Telekom, Telefonica ou encore AT&T, se diversifient progressivement dans le métier de CDN (Content Delivery Network). Le principe de ce maillon devenu essentiel dans la chaîne de valeur d’Internet est de stocker les contenus du Web ou des applications sur des serveurs locaux situés à proximité des internautes et des mobinautes pour mieux les distribuer (1). Les paquets IP ont ainsi moins de temps à parcourir sur le réseau, surtout si un même contenu est demandé par le plus grand nombre. « Les FAI cherchent à construire eux aussi leur propre CDN, ce qui peut fortement modifier le paysage de l’interconnexion », prévient l’Idate dans une étude (2) réalisée pour le Centre national du cinéma et de l’image animée (CNC). Les CDN se sont imposés dans le paysage du Net en permettant aux fournisseurs de contenus d’optimiser la distribution de leur trafic Internet : réduction des coûts de bande passante, qualité de service, rapidité d’affichage et protection des contenus. Akamai, Limelight, Level 3, Cedexis et des dizaines d’autres CDN ont ainsi pu s’imposer entre les opérateurs de réseaux et FAI, d’un côté, et les fournisseurs de contenus et les médias audiovisuels, de l’autre. Avec l’explosion de la vidéo, ces aiguilleurs du Net deviennent stratégiques et s’approprient une part de plus en plus importante de la création de valeur. Les opérateurs télécoms l’ont compris et se lancent à leur tour dans cette nouvelle activité. « En France, Orange et SFR sont particulièrement actifs sur ce sujet, sur lequel intervient aussi depuis peu TDF, en partenariat avec quelques opérateurs. SFR disposerait désormais d’une offre commerciale, même si le déploiement reste encore modeste. Orange a surtout réalisé des déploiements en Europe à but interne et réfléchit à des ouvertures aux tiers de son CDN. Enfin, TDF via sa filiale SmartJog (3) a été le premier acteur français à lancer en juillet 2011 MediaConnect, une plateforme de distribution de contenus sur Internet dédiée », constate l’étude de l’Idate. Bouygues Telecom s’y répare activement. En remontant ainsi dans la chaîne de valeur de l’Internet, les opérateurs de réseau affirment encore plus leur volonté de ne pas être réduits à de simples dump pipes – autrement dit des réseaux passifs – mais d’accroître l’intelligence de leurs infrastructures, quitte à apporter eux-mêmes les contenus aux internautes et mobinautes. Orange, par exemple, est particulièrement motivé avant de prendre le contrôle total de Dailymotion en janvier 2013. En devenant « Telco CDN », les opérateurs de réseaux tentent ainsi de prendre la main sur Internet face à l’offensive des géants du Net sur ce créneau tels Amazon, Microsoft ou Google/YouTube. Amazon, qui est considéré comme le pionnier du « in-the-cloud », a été le premier d’entre eux à avoir lancé dès 2006 – en s’appuyant sur ses propres infrastructures – une offre de CDN (4) proposée aux autres acteurs du Web. « Il n’est pas impossible que nous investissions un jour dans des data centers ailleurs et, pourquoi pas, en France », a d’ailleurs indiqué en juin Andy Jassy (5), vice-président d’Amazon Web Services (AWS). Mais d’autres nouveaux entrants sur le marché des CDN pourraient passer à l’offensive comme Yahoo, eBay ou même Facebook qui gèrent déjà euxmêmes non seulement leur hébergement de « Big Data » mais aussi leur infrastructure d’équipements de raccordement réseau. Si les opérateurs télécoms ne veulent pas se faire doubler là aussi par les OTT (Over-The-Top) sur ce marché prometteur. C’est aussi un moyen pour les opérateurs de réseau de reprendre le contrôle de la diffusion de contenus jusqu’au plus près des abonnés, afin de leur offrir une qualité de service accrue provenant de l’Internet ouvert (best effort), à défaut de pouvoir en faire un réseau managé de bout-en-bout comme pour l’IPTV (6).

Un “Telco CDN” : mieux qu’un CDN ?
C’est à se demander si un opérateur de réseaux n’aurait pas intérêt à acquérir Akamai ou un autre CDN, avant qu’un Google ou un Apple ne s’en emparent (7)… Quoi qu’il en soit, un CDN d’opérateur télécom a des atouts. « L’opérateur peut en effet “descendre” dans le réseau, à la limite du réseau de collecte voire à celle du réseau d’accès. (…) En étant plus proche de l’usager final (…), le telco CDN peut théoriquement offrir une meilleure qualité de service que le CDN, en particulier pour les fichiers de grosse taille », explique l’Idate dans son étude. @

Information, prévention et qualité minimale : les nouveaux visages de la neutralité du Net

Près de deux ans après les 10 propositions formulées en 2010 par l’Arcep en
vue de garantir la neutralité de l’Internet (1), ces recommandations semblent
se concrétiser (informations sur l’interconnexion, qualité de service, …). Est-ce
le début de la régulation d’Internet ?

Par Katia Duhamel, avocate, cabinet Bird & Bird

L’Arcep poursuit son action en faveur de la neutralité d’Internet. Par une décision du 29 mars dernier, elle a contraint tous les opérateurs Internet proposant des services en France à fournir des informations détaillées sur les conditions de leur offre de peering (2). Plus récemment, le régulateur des communications électroniques a mis en consultation publique jusqu’au 3 juillet, un projet de décision en vue de mettre en place un dispositif de mesure de la qualité du service d’accès à Internet. Nous assistons donc aux prémisses d’une régulation du monde de l’Internet.

Peering et qualité d’accès sous surveillance
La décision du mois de mars sur la collecte d’informations – des conditions techniques et tarifaires de l’interconnexion et de l’acheminement de données – exige que les fournisseurs d’accès à Internet (FAI), les opérateurs de transit ou les fournisseur
de services de communication au public en ligne (3)) « transmettent à [l’Arcep] les informations relatives à leurs conditions techniques et tarifaires d’interconnexion et d’acheminement de données ». Le principe d’une telle collecte d’informations avait été préalablement annoncé par le régulateur dans sa proposition n°8 pour la neutralité d’Internet et des réseaux. Plus particulièrement, il souhaite récolter les informations
sur les réseaux IP portant sur les relations d’interconnexion ou d’acheminement de données significatives, à savoir celles sur les « 20 principaux partenaires en termes de capacité globale d’interconnexion ou d’acheminement de données (tous points et sites confondus) » et sur « des partenaires, au-delà du 20e, partageant une capacité globale d’interconnexion ou d’acheminement de données supérieure ou égale à 1 [Gbits/s] » (4). Les opérateurs sont tenus de transmettre ces informations au plus tard deux mois après la fin de chaque semestre à compter du premier semestre 2012. Toutefois, par dérogation, la première collecte d’informations, qui doit être fournie avant le 31 août 2012, peut porter uniquement sur le second trimestre 2012.

Le projet de décision de l’Arcep sur la mesure et la publication d’indicateurs de la qualité du service d’accès à l’Internet sur les réseaux fixes s’inscrit, dans la même logique, en faveur du respect du principe de la neutralité de l’Internet (proposition n°7). Il fixe les indicateurs de qualité de service d’accès à l’Internet qui seront mesurés et rendus publics par chaque opérateur concerné. Ainsi, trois types d’indicateurs à mesurer sont distingués : la capacité (ou débit) montante et descendante, des indicateurs orientés vers l’usage (usage web, usage vidéo en ligne), des indicateurs
de performances techniques (latence, pertes de paquet).
Quant aux mesures, elle devront être réalisées :
• A partir de points de mesure clairement identifiés (5) et dont les caractéristiques techniques et géographiques n’introduisent pas de biais entre opérateurs. A ce titre, pour chaque catégorie d’accès concernée, l’opérateur devra choisir l’une de ses offres commerciales grand public les plus performantes. Cependant, ces mesures ne peuvent pas concerner les offres premium des FAI car elles visent les offres représentant 20 % des ventes réalisées sur les derniers mois pour les services concernés (6).
• En distinguant les configurations et catégories d’accès homogènes : la boucle locale de cuivre, le câble coaxial, la fibre optique jusqu’à l’abonné (FTTH), la boucle locale radioélectrique, l’accès satellitaire ;
• Selon les modalités techniques spécifiques, définies dans un référentiel commun (7), comme les horaires et la périodicité. Ainsi, les mesures devront être réalisées chaque semestre, de manière continue ; toutefois, au regard des différences de performances en heures chargées et en journée, ces périodes devront être identifiées (8) ;
• Selon les modalités techniques de traitement des données définies dans le même référentiel commun.

Améliorer l’information des utilisateurs
Les mesures réalisées devront être certifiées par un tiers indépendant afin d’attester de leur conformité aux objectifs, conditions, modalités et spécifications définis. La décision ne s’appliquerait pas aux « petits opérateurs » ayant moins de 100.000 abonnés sur une configuration spécifique d’accès au réseau : boucle locale de cuivre, câble coaxial, fibre optique jusqu’à l’abonné (9). Par ailleurs, le régulateur prévoit de mettre en place et de financer un dispositif de mesure complémentaire et indépendant de celui des opérateurs. Selon l’Arcep, la collecte d’informations sur le peering ainsi que sur la qualité de l’accès à Internet ont pour objectif d’améliorer l’information des utilisateurs finals et du régulateur via des dispositifs qui «mettent l’accent sur l’information et la prévention ».

Des opérateurs télécoms contestent déjà
Néanmoins, certains doutent, voire s’inquiètent, des véritables intentions du régulateur et des conséquences de ses nouvelles décisions sur le secteur. Ainsi, s’agissant de
la communication d’informations sur le peering, les opérateurs craignent d’éventuelles retombées fiscales : le peering étant un échange non-marchand, il ne contribue pas
au calcul du chiffre d’affaire sur lequel sont appliqués de nombreux impôts et taxes. Ils craignent également de voir le dispositif se durcir et aboutir à la mise en oeuvre d’obligations d’interconnexion spécifiques à Internet, comme par exemple l’instauration d’une « terminaison data IP » régulée, à l’instar de la terminaison d’appel voix et SMS. Bien que l’Arcep reconnaisse que les marchés de l’interconnexion et de l’acheminement de données ne nécessitent pas, « à ce stade » (sic !), la mise en place d’une régulation ex ante, elle n’exclut pas une telle possibilité (10). Quant au marché de l’accès à l’Internet, le régulateur admet clairement que le suivi de qualité lui permettra de « s’assurer que le développement des services spécialisés ne se fait pas aux dépens du service d’accès à l’Internet [autrement dit, ceux qui sont offerts à Monsieur Tout le Monde sans avoir à payer un surtaxe pour une qualité premium] ». Le régulateur pourra à ce moment faire usage de ses pouvoirs qui lui ont été attribués par la transposition
de la directive service universel et fixer des exigences minimales de qualité de service (11). Et ce, « afin de prévenir la dégradation du service et l’obstruction ou le ralentissement du trafic sur les réseaux ». C’est pourquoi les opérateurs contestent les nouvelles mesures de collecte d’information instaurées par l’Arcep, les trouvant non conformes dans leur finalité aux objectifs de la directive « service universel », modifiée en 2009, limités à l’information des utilisateurs. Indépendamment des ces objections, les opérateurs dénoncent le coût de l’application du nouveau dispositif. Reste à savoir si le régulateur prendra en compte ces arguments à l’issue de la consultation publique. Les dernières initiatives des autorités publiques françaises en matière de neutralité d’Internet n’ont pas l’air de contenter le secteur. D’ailleurs, ce sujet attire également attention des pouvoirs européens qui comptent y mettre leur grain de sel (voir ci-dessous). Avec la collecte d’informations sur le peering et la surveillance des conditions de l’accès sur l’Internet, la porte à une régulation économique de l’Internet semble ouverte. Les réactions des opérateurs ne se sont pas fait attendre. AT&T et Verizon ont déposé, selon Les Echos (12), un recours devant le Conseil d’Etat contre la décision de l’Arcep sur la collecte d’informations sur le peering. Affaire à suivre ! @

FOCUS

L’ORECE invite les régulateurs nationaux à intervenir au plus vite

Selon une enquête sur les pratiques de gestion du trafic (13) menée par l’Organe des régulateurs européens des communications (ORECE), au moins 21 % des utilisateurs mobiles à large bande sont touchés par différentes formes de restriction dans l’accès aux services de la voix sur IP (blocage, ralentissement de la bande passante, …). Pour y remédier, l’ORECE a opté pour la transparence et, si besoin est, une intervention proportionnée à la situation du marché. Dans son projet de lignes directrices sur « la qualité de service dans le champ d’application de la neutralité d’Internet » (14), il recommande aux régulateurs nationaux de mettre à disposition des utilisateurs des outils gratuits de mesure de la qualité (15). Si l’intervention est jugée nécessaire en raison de la dégradation du service d’accès à Internet, les régulateurs devraient envisager différentes formes d’intervention. Si des offres alternatives existent, des actions favorisant la concurrence et visant à faciliter la possibilité de changer de fournisseur devraient être suffisantes. Si des offres d’une qualité suffisante ne sont pas disponibles, il conviendra d’imposer des exigences minimales en la matière. @

Neutralité : YouTube et Cogent, premières victimes ?

Le 23 décembre 2011, l’Arcep a lancé deux consultations publiques – jusqu’au
17 février – sur la neutralité des réseaux : l’une sur le suivi de la qualité du service d’accès à Internet et son information ; l’autre sur la collecte trimestrielle d’informations sur les conditions d’acheminement des données.

Les internautes ayant des difficultés à accéder à Megavideo et Megaupload via le CDN (1) américain Cogent ou les internautes trouvant leur accès à YouTube ralenti auront-ils un jour une explication ? « Oui, Christophe Muller [directeur chez YouTube, ndlr] a bien entendu que des abonnés rencontraient des difficultés d’accès. Mais nous n’avons pas
de commentaire à apporter », a répondu à Edition Multimédi@ une porte-parole de Google France. Pour l’heure, seul un litige lié à la neutralité du Net est dans les mains de l’Autorité de la concurrence qui l’a confirmé le 29 août dernier après une information de La Tribune : Cogent l’a saisie d’une plainte contre France Télécom pour abus de position dominante et discrimination dans l’acheminement de son flux. L’Arcep devrait être saisie pour avis, mais cette dernière nous a indiqué ne pas vouloir s’exprimer. « L’accès à certains contenus, services ou applications spécifiques (…) seraient susceptibles de faire l’objet de restrictions ou blocages ciblés », prévient néanmoins l’Arcep dans le premier texte soumis à consultation. Le régulateur, qui doit se doter d’outils de suivi de la qualité de service, va remettre d’ici le 23 mars prochain – soit au plus tard un an après la promulgation de la loi du 22 mars 2011 (2) – un rapport au Parlement sur ses travaux en matière de neutralité de l’Internet et des réseaux. Les contributions des deux consultations aideront donc à finaliser ce rapport sur : les instruments et les procédures de suivi de la qualité de service de l’accès à l’Internet ; la situation et les perspectives des marchés de l’interconnexion de données ; les pratiques de gestion de trafic des opérateurs télécoms. « Notre approche est essentiellement préventive, l’objectif n’étant pas de définir des exigences minimales de qualité de service », prévient le régulateur dans le premier texte soumis à consultation. « Cette approche s’inscrit dans un contexte de crainte de sous-investissement des opérateurs, lequel pourrait conduire à une pénurie artificielle de ressources », s’inquiète-t-il.
Quoi qu’il en soit, l’Arcep explique plus loin qu’il s’agit aussi d’ »évaluer l’opportunité de fixer des exigences minimales de qualité du service d’accès à l’Internet ». D’autant que le nouveau cadre réglementaire (3) lui a donné le pouvoir de fixer ces exigences minimales de qualité du service. @

Neutralité du Net : beaucoup de bruit pourquoi ?

Après les Etats-Unis, la France cherche fébrilement un sens à la notion de Net neutralité et des arbitrages aux débats. Rapports, auditions, consultations
et déclarations – publics ou privés – se multiplient et brouillent plus qu’il ne
le faudrait les vrais enjeux.

Par Katia Duhamel, avocat, cabinet Bird & Bird.

En mars dernier, le Conseil général de l’industrie, de l’énergie et des technologies (CGIET), rattaché à Bercy, a remis un rapport sur « La neutralité dans le réseau Internet ». Ce rapport sera suivi en avril par le colloque « Neutralité des réseaux » de l’Autorité de régulation des communications électroniques et
des postes (Arcep) puis, en mai, par la consultation publique
de cette dernière qui a donné lieu à des propositions publiées
le 30 septembre dernier. Parallèlement, en mars, le ministère de la Culture et de la Communication – via la Direction générale des médias et des industries culturelles (DGMIC) – a lancé un appel à proposition pour une étude sur le sujet (non publiée à ce jour).

La confusion des intérêts et des non-dits
Alors que de son côté, la secrétaire d’État à l’Economie numérique, Nathalie Kosciusko-Morizet, s’est entourée d’un « panel d’experts » et a ouvert une consultation dont
les résultats ont été publiés en juin dernier pour alimenter un rapport demandé par le Parlement, voire un amendement à la loi sur la fracture numérique de novembre 2009.
Ce projet d’amendement et/ou de transposition en droit national du « Paquet télécom » adopté par le Parlement européen en novembre 2009 ne suffisent pas pour autant à justifier une telle agitation.
Brouillée par la multiplicité des définitions et des enjeux, la question de la neutralité du
Net apparaît comme horriblement complexe. En réalité, les choses sont plus simples
qu’il n’y paraît car la neutralité est consubstantielle aux réseaux et aux services de communications électroniques. Elle n’est pas une notion nouvelle en droit français dans lequel elle est inscrite depuis des décennies. Par exemple, l’article 32-1-II-5 du code
des postes et communications électroniques parle du « respect par les opérateurs de communications électroniques du secret des correspondances et du principe de neutralité au regard du contenu des messages transmis ». Le secret des correspondances est plus ancien encore si on se réfère à l’arrêté du 5 décembre 1789 selon lequel « le secret des lettres doit être constamment respecté ». Aujourd’hui, ce droit et ses exceptions sont encadrés par un certain nombre de textes (articles 226-15 et 432-9 du Code pénal, article L 33-1 du code des Postes et des Communications électroniques, etc.). Ces derniers mois cependant, l’antique neutralité des réseaux se présente sous des jours différents selon le point de vue et les intérêts des acteurs concernés :
• La neutralité selon Orange : « Il faut remplacer la notion de neutralité de l’Internet
par celle de l’Internet ouvert [CAD] la façon de laisser Internet comme un espace ouvert totalement ouvert (…), libre d’accès, pas de forme de censure, de sélection par rapport
à l’accès à l’information, à la capacité d’expression et de création (…) Si on prend un exemple tout simple c’est le secret des correspondances … » (1)
• La neutralité selon Google : « C’est une non-discrimination sur les réseaux entre contenus services et applications en fonction de leurs sources. » (2) Le premier se place sur le terrain de la liberté d’expression et d’accès à l’information, terrain
« neutre » pour un opérateur exonéré de responsabilité en matière de contenus ;
le second sur celui de l’absence de discrimination à l’encontre de la source des informations, services et/ou applications circulant sur des réseaux qu’il ne maîtrise pas. Que les deux se consolent car la neutralité de l’Internet, c’est-à-dire celle d’un service de communications électroniques, c’est bien à la fois la non discrimination des flux quel que soit l’auteur du flux et l’absence de censure sur les contenus transportés sur ces flux.

Mais la vérité (du débat) est ailleurs
Les enjeux réels sous-jacents au débat actuel sont certes liés au respect du principe de neutralité de l’Internet, mais ils en sont surtout distincts. La question de la « neutralité de l’Internet » est devenue avant tout un sujet économique car il s’agit de trouver des moyens de financer de façon équitable les investissements de réseaux nécessaires pour répondre au développement exponentiel des usages numériques. Autrement dit aussi de façon très pragmatique, comme l’indique Jean-Ludovic Silicani, le Président
de l’Arcep, « il s’agit d’assurer un fonctionnement efficace des réseaux, en prenant en compte à la fois le principe de la neutralité mais aussi les différentes contraintes qui s’exercent sur les acteurs » et « de permettre le développement à long terme des réseaux et des services, grâce à l’innovation et au développement des modèles techniques et économiques les plus efficaces ». Ainsi le régulateur français vient de publier 10 propositions qui permettent de garantir le respect du principe de neutralité de l’Internet et de conserver aux acteurs une liberté suffisante pour développer et proposer des « services gérés », en complément de l’accès à l’Internet, aussi bien vis-à-vis des utilisateurs finaux que des prestataires de services de la société de l’information (PSI), favorisant ainsi la capacité d’innovation de l’ensemble des acteurs. En résumé, l’Arcep formule nombre de recommandations visant
à favoriser :
• la liberté et la qualité dans l’accès à l’internet
• la non-discrimination des flux
• l’encadrement des mécanismes de gestion de trafic
• la possibilité pour les opérateurs de proposer, en complément de l’accès à l’internet,
des « services gérés », aussi bien vis-à-vis des utilisateurs finaux que des prestataires de services de la société de l’information (PSI), sous réserve que ces services gérés
ne dégradent pas la qualité de l’accès à l’internet en deçà d’un niveau suffisant, ainsi
que dans le respect du droit de la concurrence et des règles sectorielles.
• une transparence accrue vis-àvis des utilisateurs finals
• le suivi des pratiques de gestion de trafic
• le suivi de la qualité de service d’Internet
• le suivi du marché de l’interconnexion de données
• la prise en compte du rôle des PSI dans la neutralité d’Internet
• le renforcement de la neutralité des terminaux.

Les principes de la FCC aux Etats-Unis
Ces solutions ne sont pas très éloignées des principes que la Federal Communications Commission (FCC) souhaite appliquer à tous les fournisseurs d’accès à Internet (FAI)
sur toutes les plates-formes haut débit en vue de :

• assurer le respect des principes de non-discrimination selon lequel les contenus licites, les applications et les services ne peuvent pas être traités d’une manière distinctive (comme la hiérarchisation du trafic), de transparence telle que l’obligation
de divulguer les informations concernant la gestion du réseau et d’autres pratiques) ;

• Garantir une gestion raisonnable du réseau, étant entendu que la gestion raisonnable
du réseau se traduit notamment par des pratiques raisonnables employées par un FAI
afin de réduire ou d’atténuer les effets de la cogestion sur le réseau, ou pour répondre
aux préoccupations de qualité de service, diriger le trafic non désiré par les utilisateurs,
ou nuisible, empêcher le transfert de contenus illicites, empêcher le transfert illégal de contenus.

Force cependant est de constater qu’il manque encore, pour rendre ces propositions tout à fait effectives, l’émergence de modèles économiques qui permettront aux acteurs de se mettre d’accord sur une répartition équitable des investissements nécessaires sur les réseaux. @

ZOOM

Le deal Google/Verizon : pour l’autorégulation du Net ?
En août dernier, Google et Verizon ont surpris le marché en publiant une déclaration commune, proche des objectifs et des principes affichés par la Federal Communications Commission (FCC) notamment en matière de protection des utilisateurs, de non discrimination, de transparence et de gestion de réseau. Seule divergence, les deux protagonistes souhaitent une application différenciée des règles qui seraient retenues en fonction des technologies. Ce qui aurait pour effet de dispenser le haut débit sans fil de l’ensemble de ces obligations à l’exception du respect du principe de transparence. Surtout, se déclarant en faveur d’un modèle d’autorégulation du secteur, Google et Verizon refusent à la FFC une compétence réglementaire ex ante sur ces sujets. En pratique, ils souhaitent voir la Commission américaine se confiner aux règlements de différends au cas par cas, réaffirmant ici
le credo d’une gestion décentralisée et d’une régulation minimale d’Internet. @