Internet ouvert : les trois « no » d’Obama, et après ?

En fait. Le 26 février, la majorité des membres – trois des cinq – du régulateur
des télécoms américain, la FCC, a voté pour de nouvelles règles plus strictes
en faveur de la neutralité de l’Internet aux Etats- Unis. Barack Obama s’est dit satisfait. Mais cela suppose de légiférer devant un Congrès hostile.

En clair. Comme les trois membres de la FCC (Federal Communications Commission) sont démocrates comme le président Obama, lequel avait pris position le 10 novembre 2014 en faveur d’une « stricte » neutralité du Net dans un « President’s Statement » (1), c’est à la majorité qu’ont été adoptées les nouvelles règles « Open Internet ».
Deux membres de la FCC, républicains, ont voté contre. Ces nouvelles règles, qui doivent encore être examinées par le Congrès américain dominé par les républicains, se résument en trois « no » : « no blocking, no throttling, no paid prioritization » (aucun blocage, aucun étranglement, aucune priorisation payée). Autrement dit : pas d’Internet à deux vitesses aux Etats- Unis. Cela veut dire que si un internaute ou un mobinaute – car cette neutralité stricte s’applique au fixe et au mobile – demandent l’accès à un site Web ou à un service dont le contenu est a priori légal : le fournisseur d’accès à Internet (FAI) ne pourra bloquer cet accès ; les contenus ne pourront être discriminés au profit d’autres ; les sites web n’auront pas besoin d’acheter des lignes prioritaires ou les FAI le leur proposer. En désignant le haut débit fixe et mobile « services publics » (lire EM@117, p. 4), la FCC se donne le pouvoir d’imposer la neutralité du Net. Cette
« stricte » neutralité du Net – exigée par Barack Obama (2), moins de deux ans avant son départ en janvier 2017 – provoque l’ire des opérateurs télécoms américains : AT&T vient de suspendre le déploiement de son réseau de fibre optique ; Verizon, Comcast et d’autres FAI sont aussi vent debout contre « Open Internet ». En revanche, les géants du Web – ayant le soutien des démocrates et du président des Etats-Unis – applaudissent des deux mains et demandent à ce que la stricte neutralité d’Internet entre maintenant en vigueur. Amazon, eBay, Facebook, Google, Microsoft, Yahoo
ou encore Samsung, tous réunis au sein de la CCIA (Computer & Communications Industry Association), ainsi que Netflix, Apple et les autres OTT (Over-The-Top), y
sont favorables. Les nouvelles règles « Open Internet » pourraient s’appliquer dans quelques semaines ou mois, selon les recours devant la justice de la part des opérateurs télécoms ou les tentatives législatives des républicains pour invalider
ces règles. Mais Barack Obama détient une arme devant le Congrès américain :
son droit de veto. @

Neutralité du Net ou régulation de la bande passante ?

En fait. Le 10 novembre, le président des Etats-Unis, Barack Obama, a demandé au régulateur américain des télécoms – la FCC – « des règles les plus strictes possibles pour protéger la neutralité du Net » et « une interdiction explicite de
la priorisation payée », mobiles compris. L’Europe suivra-t-elle ?

En clair. La date de la publication, par la Maison Blanche, de ce « President’s Statement » (1) sur la neutralité de l’Internet est à marquer d’une pierre blanche ! Reste à savoir si la Federal Communications Commission (FCC) renforcera les règles. Reste à savoir aussi si l’Europe lui emboîtera le pas. Car, pour l’heure, le principe de neutralité du Net est – comme aux Etats- Unis – remis en question par les opérateurs télécoms (historiques en tête) et fournisseurs d’accès à Internet (FAI). Si certains veulent pouvoir moduler les tarifs d’accès des consommateurs en fonction de la qualité de service proposée, d’autres souhaitent plutôt facturer en amont les grands générateurs de trafic (notamment vidéo). « Je ne suis pas en train de remettre en cause la neutralité du Net en disant que l’on va discriminer – il y aura une égalité de traitement absolue [pour les internautes] – mais il faut que l’on ait une capacité, autant que possible régulée, de facturer de la bande passante aux plateformes de services qui sont de très gros consommateurs asymétriques, afin qu’elles contribuent au financement des réseaux
et des box », a par exemple expliqué Maxime Lombardini, DG du groupe Iliad, maison mère de Free, le 17 octobre dernier aux Rencontres cinématographiques de Dijon (2) . « L’enjeu le plus important est que, sous l’ombrelle de “neutralité du Net”, nous voyons le modèle assez bien évoluer : aujourd’hui, on est dans des modèles de partage de revenus ou de commissions dans notre rémunération lorsque l’on distribue des œuvres [des films ou des séries en TV ou VOD, ndlr] ; avec les OTT (3), on va être naturellement être de plus en plus “désintermédiés”. Il faut donc que l’on retrouve un modèle à travers la bande passante », a-t-il encore plaidé.

Des chaînes de télévision françaises voient aussi dans « la régulation de la bande passante » (dixit Olivier Schrameck, président du CSA) le moyen de taxer les géants
de la vidéo sur le Net (YouTube, iTunes, Netflix, …) pour les amener, cette fois, à contribuer au financement du cinéma français. « Netflix et YouTube n’arrivent pas
en France par l’opération du Saint-Esprit ! Ces gens ont construit une “tête de réseau”
à Paris. Donc, ils sont saisissables. Il suffit que l’installation ne soit pas définie par l’adresse postale mais par la tête de réseau », a abondé Rodolphe Belmer, intervenant aux côtés de Maxime Lombardini. @

Brainstorming avant le projet de loi sur le numérique

En fait. Le 16 juin, se sont tenues les 1ères Assises de la Confiance numérique, parrainées par Axelle Lemaire, secrétaire d’Etat au Numérique, en vue de « garantir la protection des données personnelles et l’identité des internautes ». Le 13 juin,
le CNNum a remis son rapport « Neutralité des plateformes ».

En clair. La préparation du projet de loi sur le numérique entre dans sa phase active. Près de trois mois après avoir été nommée secrétaire d’Etat en charge du Numérique, Axelle Lemaire entre dans le vif du sujet.
C’est elle qui va élaborer le futur texte de loi sur les droits et les libertés numériques.
Le « habeas corpus numérique », qu’avait appelé de ses vœux le président de la République, devra y trouver sa place. « J’instituerai un habeas corpus numérique qui garantira les droits et les libertés de chacun face à l’entrée dans nos vies des nouvelles technologies », avait en effet promis le candidat François Hollande lors de son discours sur la justice le 6 février 2012.
Le décret du 29 avril dernier, précisant les attributions d’Axelle Lemaire, a élargi son champ d’action par rapport à celui de sa prédécesseur Fleur Pellerin. Elle ne s’occupe pas seulement d’« économie numérique » mais plus généralement de « numérique »,
et, selon le décret, elle traite notamment « les questions relatives à la promotion et à la diffusion du numérique, aux contenus numériques, à la politique de données numériques et d’inclusion numérique ainsi que celles relatives aux droits et libertés fondamentaux dans le monde numérique et à la sécurité des échanges, des réseaux et des systèmes d’information ».

Dix ans après la loi « Confiance dans l’économie numérique », promulguée le 21 juin 2004, trouver un compromis entre liberté et sécurité sur Internet reste d’actualité. Le Conseil national du numérique (CNNum), qui vient de remettre son rapport sur « la neutralité des plateformes », va lancer dans les prochains jours une concertation publique qui portera justement sur la question des données des internautes et mobinautes. Ses résultats contribueront à la préparation du projet de loi sur le numérique et de la stratégie numérique française en Europe.
Le rapport du CNNum, qui ouvre la voie à des atteintes « légitimes » à la neutralité du Net (1), fera aussi l’objet d’une consultation pour « pour identifier et définir ce que pourraient être les indicateurs objectifs de neutralité des plateformes ». De son côté, l’Assemblée nationale a installé le 11 juin sa « commission sur le droit et les libertés à l’âge du numérique » à laquelle prennent part notamment les avocats Christiane Féral-Schuhl
et Winston Maxwell, ainsi que le journaliste Edwy Plenel. @

Les opérateurs télécoms veulent une meilleure rémunération pour le trafic Internet

Les opérateurs historiques, font du lobbying au niveau mondial – via leur association ETNO – pour que les échanges de trafic Internet soient mieux rémunérés. Mais une « terminaison data » semble impossible, tant qu’il n’existe
pas de levier réglementaire au niveau européen.

Avertissement : cet article est paru dans EM@ n°64 daté du 17 septembre, soit quatre jours avant la décision « Cogent contre Orange »de l’Autorité de la concurrence datée du 20 septembre.

Par Winston Maxwell, avocat associé Hogan Lovells LLP

Cet été la ministre déléguée en charge de l’Economie numérique, Fleur Pellerin, a mis en garde contre une interprétation de la neutralité du Net qui favoriserait trop les acteurs américains de l’Internet, au détriment des opérateurs télécoms français. Implicitement, elle soutient l’idée d’une rémunération équitable pour les opérateurs français dans le cadre de leurs relations avec des acteurs de l’Internet. Ce commentaire « ministériel » fait écho de la proposition de l’association ETNO (1), laquelle souhaite voir inclure dans le traité de l’Union internationale des télécommunications (UIT) un principe de rémunération raisonnable en faveur des opérateurs de réseaux qui acheminent du trafic en provenance du Net. Il s’agit d’un tarif de « terminaison data » similaire au tarif de terminaison pour les appels téléphoniques.

Vers une régulation des contenus ?
La proposition de l’ETNO, qui réunit depuis 20 ans la plupart des opérateurs télécoms historiques européens, a déclenché de vives réactions. Les opérateurs américains, et même le gouvernement américain, s’opposent à toute modification du traité de l’UIT qui légitimerait l’idée d’une régulation de l’Internet. Ils craignent en effet la généralisation d’une régulation économique de l’Internet – notamment par l’instauration d’un régime de « terminaison data » dans certains pays – et encore plus l’idée d’une régulation fondée sur les contenus pouvant conduire à de la censure.

L’idée d’une régulation de l’Internet fondée sur les contenus n’est pas totalement exclue en France. Le CSA (2) examine des moyens pour appliquer à certains acteurs de l’Internet la réglementation de l’audiovisuel en vigueur dans l’Hexagone. La Commission européenne conduit, elle aussi, une étude sur la télévision connectée (3). L’idée d’une régulation économique de l’Internet est également à l’étude. L’Arcep (4), l’ORECE (5) et la Commission européenne examinent les pratiques de différenciation du trafic mises en oeuvre par les opérateurs de réseaux, ainsi que les mesures de transparence pouvant aider le consommateur à mieux comprendre ces pratiques.
En exposant les pratiques au grand jour, les régulateurs espèrent que la pression du marché sera suffisante pour empêcher l’émergence de pratiques abusives, évitant ainsi une régulation plus contraignante. La Commission européenne étudie également les problèmes des barrières au changement d’opérateur (switching costs). Les offres composites, de type « multi play » incluant la télévision, rendent le changement parfois difficile (6). Les régulateurs étudient également les conditions d’échange de trafic entre opérateurs pour savoir s’il faut réguler l’accès aux grands « tuyaux » du réseau des réseaux. C’est le cas en France de l’Arcep, dont la démarche est contestée par deux opérateurs – AT&T et Verizon – qui estiment que cette collecte d’informations dépassent la compétence de l’Arcep et qu’elle est disproportionnée compte tenu de l’absence de problèmes, et de l’absence de régulation, dans ce secteur. Il est vrai que très peu de problèmes se sont manifestés.
En France, la société Cogent a saisi l’Autorité de la concurrence concernant un différend dans la négociation de son accord « peering » avec France Télécom. Mais France Télécom s’est engagé à rendre les relations avec son activité « Open Transit » plus transparentes (7). Hormis cet incident, les conditions d’échange de trafic Internet en amont n’ont jamais fait l’objet de procédures ou de régulation en France.

Deux voies possibles en Europe
En Europe, le régulateur polonais a tenté de réguler les conditions d’échange de trafic Internet, mais il a aussitôt essuyé un refus de la part de la Commission européenne qui lui a opposé son veto. Aux Etats- Unis, la Federal Communications Commission (FCC) n’a jamais tenté de réguler ces échanges, lesquels s’effectuent dans la grande majorité de cas sans contrat écrit, sur la base d’une « poignée de main ». Est-ce que ces échanges peuvent faire l’objet d’une régulation ? En Europe, il n’existe que deux voies pour une régulation de l’interconnexion de trafic Internet, et aucune de ces deux voies n’est ouverte : • La première voie exige de démontrer l’existence d’un opérateur « puissant sur le marché ». La puissance signifie que l’opérateur est incontournable. Or, dans le cadre d’accords d’échange de trafic Internet, personne n’est incontournable (8). Dans l’affaire Cogent, France Télécom a refusé d’augmenter la capacité d’un lien de peering avec Cogent sans contrepartie financière. Que s’est-il passé ? Le trafic excédentaire a emprunté d’autres chemins pour entrer dans le réseau de France Télécom. Le service n’a été que peu impacté.
En théorie, un opérateur de boucle local comme France Télécom pourrait fermer toutes les portes et exiger un paiement de tous les prestataires en amont. S’il s’agissait de France Télécom, les abonnés Orange ne pourraient plus accéder aux sites web de leurs choix. Ce serait impensable commercialement pour France Télécom. En d’autres termes, aucun acteur – même l’opérateur en bout de chaîne qui contrôle l’accès à l’abonné final – ne semble remplir les critères d’ »opérateur puissant ».
La seconde voie de régulation nécessite la présence, non pas d’un opérateur puissant, mais d’un problème de connectivité de bout en bout. Si la connectivité est menacée, l’Arcep et d’autres régulateurs peuvent intervenir au titre d’une régulation dite « symétrique » (9). Mais dans le contexte de l’échange de trafic Internet, la connectivité ne semble jamais menacée en raison des milliers de noeuds d’interconnexions qui permettent au trafic et aux paquets de données de contourner tous les obstacles. La mise en place d’un tarif réglementé pour une « terminaison data » semble donc impossible car il n’existe pas de levier réglementaire dans le cadre européen.

Les opérateurs deviennent des CDN
Mais les opérateurs télécoms ne semblent pas démunis pour autant. Dans le monde Internet, le nerf de la guerre est le temps d’affichage d’une page web, et les opérateurs télécoms commencent à faire concurrence aux CDN (10) globaux tels que Akamai (11), Edgecast ou Highwinds pour offrir des services de stockage de contenus en local, dans des « points bas » du réseau, proche de l’abonné (12). L’Arcep fait état de ce développement dans son rapport au parlement sur la neutralité de l’Internet (p. 43).
La Commission européenne touche à ces questions dans son questionnaire de juillet portant sur le même thème (p. 12), dans le cadre de sa consultation publique jusqu’au 15 octobre 2012. C’est peut-être là la rémunération raisonnable souhaitée par l’ETNO, et indirectement par la ministre française en charge de l’Economie numérique.
Faut-il s’en inquiéter sur le plan réglementaire ? Les principes de Net neutralité exigent un traitement nondiscriminatoire des contenus, du moins pour la prestation de l’accès à l’Internet. Un accord exclusif entre un opérateur de réseau et un fournisseur de contenus pour stocker le contenu de ce fournisseur en des « points bas » du réseau serait problématique car éventuellement contraire au principe de nondiscrimination. Mais si l’opérateur offrait cette prestation à l’ensemble des fournisseurs de contenus sur une base non-discriminatoire, la situation ne serait pas différente de celle d’aujourd’hui.
Un fournisseur de contenu peut en effet aujourd’hui améliorer le temps d’affichage en s’adressant à de nombreux prestataires. Il existe même une start-up française, Cedexis, dont le métier est d’aiguiller en temps réel le trafic des fournisseurs de contenus entre les différents prestataires selon leur performance à un instant T. Il existe déjà un écosystème de CDN, dont l’objectif est de réduire le temps d’affichage des pages web de leurs clients, et il paraît normal qu’un opérateur télécoms puisse également devenir acteur dans cet écosystème. A moins que l’opérateur local, en offrant un stockage en « points bas » du réseau, n’offre une prestation que personne d’autre ne peut répliquer.

La question de l’ « opérateur puissant »
Cet opérateur deviendrait dès lors « puissant » pour cette prestation, et une régulation pourrait se justifier (13). Le remède réglementaire serait alors classique : obliger l’opérateur puissant à offrir à ses concurrents une prestation de gros permettant aux concurrents de répliquer sur le plan technique et tarifaire la prestation de détail offerte par cet opérateur puissant aux fournisseurs de contenus (14).
Il est trop tôt pour juger si une telle réglementation sera souhaitable, ou même possible compte tenu des difficultés de définition du marché. Il faudrait démontrer que la prestation en « points bas » du réseau n’est pas substituable à une prestation CDN classique. Si du point de vue des fournisseurs de contenus les prestations sont substituables, les prestations appartiennent au même marché, et l’opérateur local ne sera plus considéré comme étant seul sur le marché. Il ne sera pas « puissant » et la régulation sera impossible. @

Neutralité du Net : le plus dur sera de « fixer les exigences minimales de qualité »

Afin de « prévenir la dégradation du service, le blocage des accès et le ralentissement du trafic sur les réseaux », la directive européenne « Service universel et droits des utilisateurs » prévoit que les régulateurs nationaux fixent une « qualité de service minimale ». Mais quand ?

Par Winston Maxwell*, avocat associé, Hogan Lovells

Il n’existe pas de qualité de service garantie de bout en bout sur l’Internet. Le « réseau des réseaux » fonctionne selon un mode de
« meilleurs efforts », best effort disent les Anglo-saxons. Si un point d’interconnexion est saturé, des paquets peuvent être ralentis voire supprimés. Cette perte de paquets n’est pas problématique car les paquets trouvent un autre chemin pour arriver à destination. Ce mode « meilleurs efforts » fonctionne plutôt bien dans la plupart des situations, mais la qualité de service peut cependant souffrir en cas de forte demande pour un contenu en ligne spécifique telle qu’une vidéo très populaire.

Qui est responsable de la qualité ?
Le problème inhérent de qualité de service sur l’Internet a trouvé une réponse à travers les réseaux de distribution de contenus, ce que les professionnels appellent les « Content Distribution Networks » ou CDN. Ces derniers ont été conçus pour contourner l’ensemble des maillons faibles de l’Internet public et pour insérer le contenu dans le réseau à un point proche de l’abonné. Ces accès de proximité offrent une qualité de service supérieure, moyennant rémunération par les fournisseurs de contenus. Ainsi, une entreprise comme TF1 rémunèrera un CDN (1) pour augmenter la qualité de service, et notamment la vitesse de réponse d’un site tel que tf1.fr. Il s’agit parfois de solutions de distribution de contenus à usage strictement interne, comme le réseau du groupe Google qui améliore la qualité de son propre site de partage vidéo YouTube.
En résumé, l’Internet public souffre de problèmes inhérents de qualité de service et ces problèmes sont résolus en partie par des services commerciaux proposés par les CDN, lesquels apportent les flux jusqu’à un point d’interconnexion le plus proche de l’internaute. Cependant, c’est toujours le fournisseur d’accès à Internet (FAI) local qui transporte le flux jusqu’à l’abonné final. En matière de neutralité du Net, l’enjeu de la qualité de service se situe au niveau de ce FAI, qui livre le contenu à sa destination finale. Car les CDN ne peuvent rien faire en cas de saturation du réseau local (les derniers kilomètres jusqu’à l’internaute). C’est comme si un transporteur (le CDN) livrait des marchandises à Roissy mais que l’autoroute entre Roissy et Paris (le réseau du FAI local) était bouchée. Des bouchons sont rares sur le réseau de télécommunications fixe en France. Des problèmes de débit sur le réseau fixe sont généralement dus à des limitations inhérentes à la technologie DSL (Digital Subscriber Line) utilisée sur les lignes téléphoniques à base de paire de cuivre pour les services triple play (téléphone- Internet-télévision). Si l’abonné est trop loin du noeud de raccordement, ou NRA (2), le débit sera faible par rapport à un autre abonné qui habite près du nœud. La situation est plus délicate pour les réseaux mobiles, car le réseau d’accès cellulaire est partagé en temps réel entre de très nombreux utilisateurs. S’il y a un seul utilisateur à un instant « T », celui-ci bénéficiera d’une qualité de service excellente, mais en cas d’affluence, la qualité baissera. Dans le débat sur la Net Neutralité, le choix a été fait en Europe et aux Etats-Unis de permettre aux opérateurs de proposer des services gérés en plus des services d’accès à l’Internet. La voix sur IP et l’IPTV (3) proposés aux abonnés disposant d’une « box » sont des exemples de services gérés en France. Ces services, qui utilisent le protocole Internet (IP) pour fonctionner, ne doivent pourtant pas être confondus avec l’Internet.

Prévenir ou guérir la dégradation ?
En matière de services gérés, la liberté contractuelle est la règle, sous réserve bien entendu de respecter le droit de la concurrence. A l’avenir, les services gérés permettront d’offrir aux abonnés de multiples services ayant une qualité de service garantie de bout en bout, ce qui n’est pas possible sur l’Internet public. La crainte des régulateurs est que ces services gérés, plus intéressants financièrement pour les opérateurs que l’Internet, se développent au détriment de ce dernier. Ainsi, la directive européenne « Service universel et droits des utilisateurs » (4) a prévu la possibilité pour les autorités de régulation nationales d’intervenir en cas de besoin pour imposer une qualité de service minimum pour l’accès à l’Internet.

Définir la qualité de service ?
L’article 22 de cette directive, qui doit être transposée dans chacun des vingt-sept
pays de l’Union européenne d’ici à fin mai 2011, précise en effet qu’« afin de prévenir
la dégradation du service et l’obstruction ou le ralentissement du trafic sur les réseaux,
les États membres veillent à ce que les autorités réglementaires nationales soient en mesure de fixer les exigences minimales en matière de qualité de service imposées à une entreprise ou à des entreprises fournissant des réseaux de communications publics ». L’Organe des régulateurs européens des communications électronique (ORECE) a rappelé en septembre dernier (5) que le jeu de la concurrence est la meilleure garantie d’une qualité de service satisfaisante. En cas de dégradation du service par un opérateur A, le premier réflexe du client sera d’abandonner cet opérateur A en faveur d’un opérateur B. C’est uniquement dans le cas où ce jeu concurrentiel ne fonctionnerait plus que le régulateur pourra, après avoir consulté la Commission européenne et l’ORECE, imposer une obligation de qualité de service minimal pour l’accès à l’Internet. Il n’en reste pas moins que la qualité de service est elle-même difficile à définir. La qualité du service est ce que ressent le client final lorsqu’il utilise un service donné. La qualité de service n’est pas synonyme de performance du réseau qui peut être définie de manière précise (temps de latence, phénomène de « gigue » ou variation des délais, etc.). La qualité de service dépend certes de la performance du réseau mais aussi d’autres facteurs, tels que l’équipement de l’utilisateur, son logiciel de navigation et le serveur distant qui héberge le contenu. Dans son programme de travail de 2011 l’ORECE essayera d’élaborer des paramètres pour mesurer la qualité de service et, ainsi, aider les régulateurs européens à définir des paramètres qui pourraient le cas échéant être imposés aux FAI. En France, par exemple, l’imposition par l’Arcep (6) d’une qualité de service minimale ne peut être envisagée dans l’immédiat. D’une part, il faut définir – en coopération avec les autres régulateurs en Europe – ce que l’on entend par qualité de service en matière d’accès à l’Internet. Deuxièmement, l’intervention du régulateur ne peut s’envisager, selon l’ORECE, qu’en cas de défaillance du marché concurrentiel conduisant à une dégradation de la qualité de service par l’ensemble des acteurs. Dans ses dix propositions de septembre 2010
(7) , l’Arcep reconnaît que cette forme d’intervention est plutôt une solution à
« long terme » et que la première priorité est de réunir les différents acteurs pour définir ensemble un moyen de définir et mesurer la qualité de service. En février 2011 le régulateur explique de nouveau que « Sans préjudice des travaux déjà en cours en matière de qualité de service fixe et mobile, la priorité de l’Arcep porte à ce stade sur
le lancement des travaux de qualification des paramètres principaux de la qualité de service de l’accès à l’internet et sur l’élaboration des indicateurs adaptés » (8). S’il existe des moyens de mesurer la qualité de service, ce sera déjà une incitation forte pour les opérateurs du réseau des reseaux de respecter leurs engagements à l’égard de leurs clients. Définir des paramètres de qualité de service en matière d’Internet fixe
est compliqué.

Les réseaux mobiles à part ?
Pour l’Internet mobile, la tache devient quasi impossible en raison des nombreux paramètres qui peuvent affecter le débit sur un réseau mobile. Et pourtant, ce sont les réseaux mobiles qui vont être particulièrement sollicités dans les prochains mois avec l’émergence des tablettes et des smartphones de plus en plus puissants. En cas de succès des tablettes en France, les abonnés mobiles risquent de constater des problèmes de qualité de service en raison de saturations ponctuelles du réseau.
Mais ces problèmes ne sont pas critiquables au regard de la neutralité du Net s’ils
sont traités par des mesures de gestion de réseau saines et transparentes. @

* Winston Maxwell et Nicolas Curien (membre de l’Arcep)
sont coauteurs de « La neutralité d’Internet »,
livre paru en février 2011
aux éditions de La Découverte (collection Repères).
Pour en savoir plus : www.collectionreperes.com
et lire « Oui à la discrimination efficace et
transparente ! », dans Edition Multimédi@ n°28, p. 7.