Brainstorming avant le projet de loi sur le numérique

En fait. Le 16 juin, se sont tenues les 1ères Assises de la Confiance numérique, parrainées par Axelle Lemaire, secrétaire d’Etat au Numérique, en vue de « garantir la protection des données personnelles et l’identité des internautes ». Le 13 juin,
le CNNum a remis son rapport « Neutralité des plateformes ».

En clair. La préparation du projet de loi sur le numérique entre dans sa phase active. Près de trois mois après avoir été nommée secrétaire d’Etat en charge du Numérique, Axelle Lemaire entre dans le vif du sujet.
C’est elle qui va élaborer le futur texte de loi sur les droits et les libertés numériques.
Le « habeas corpus numérique », qu’avait appelé de ses vœux le président de la République, devra y trouver sa place. « J’instituerai un habeas corpus numérique qui garantira les droits et les libertés de chacun face à l’entrée dans nos vies des nouvelles technologies », avait en effet promis le candidat François Hollande lors de son discours sur la justice le 6 février 2012.
Le décret du 29 avril dernier, précisant les attributions d’Axelle Lemaire, a élargi son champ d’action par rapport à celui de sa prédécesseur Fleur Pellerin. Elle ne s’occupe pas seulement d’« économie numérique » mais plus généralement de « numérique »,
et, selon le décret, elle traite notamment « les questions relatives à la promotion et à la diffusion du numérique, aux contenus numériques, à la politique de données numériques et d’inclusion numérique ainsi que celles relatives aux droits et libertés fondamentaux dans le monde numérique et à la sécurité des échanges, des réseaux et des systèmes d’information ».

Dix ans après la loi « Confiance dans l’économie numérique », promulguée le 21 juin 2004, trouver un compromis entre liberté et sécurité sur Internet reste d’actualité. Le Conseil national du numérique (CNNum), qui vient de remettre son rapport sur « la neutralité des plateformes », va lancer dans les prochains jours une concertation publique qui portera justement sur la question des données des internautes et mobinautes. Ses résultats contribueront à la préparation du projet de loi sur le numérique et de la stratégie numérique française en Europe.
Le rapport du CNNum, qui ouvre la voie à des atteintes « légitimes » à la neutralité du Net (1), fera aussi l’objet d’une consultation pour « pour identifier et définir ce que pourraient être les indicateurs objectifs de neutralité des plateformes ». De son côté, l’Assemblée nationale a installé le 11 juin sa « commission sur le droit et les libertés à l’âge du numérique » à laquelle prennent part notamment les avocats Christiane Féral-Schuhl
et Winston Maxwell, ainsi que le journaliste Edwy Plenel. @

Les opérateurs télécoms veulent une meilleure rémunération pour le trafic Internet

Les opérateurs historiques, font du lobbying au niveau mondial – via leur association ETNO – pour que les échanges de trafic Internet soient mieux rémunérés. Mais une « terminaison data » semble impossible, tant qu’il n’existe
pas de levier réglementaire au niveau européen.

Avertissement : cet article est paru dans EM@ n°64 daté du 17 septembre, soit quatre jours avant la décision « Cogent contre Orange »de l’Autorité de la concurrence datée du 20 septembre.

Par Winston Maxwell, avocat associé Hogan Lovells LLP

Cet été la ministre déléguée en charge de l’Economie numérique, Fleur Pellerin, a mis en garde contre une interprétation de la neutralité du Net qui favoriserait trop les acteurs américains de l’Internet, au détriment des opérateurs télécoms français. Implicitement, elle soutient l’idée d’une rémunération équitable pour les opérateurs français dans le cadre de leurs relations avec des acteurs de l’Internet. Ce commentaire « ministériel » fait écho de la proposition de l’association ETNO (1), laquelle souhaite voir inclure dans le traité de l’Union internationale des télécommunications (UIT) un principe de rémunération raisonnable en faveur des opérateurs de réseaux qui acheminent du trafic en provenance du Net. Il s’agit d’un tarif de « terminaison data » similaire au tarif de terminaison pour les appels téléphoniques.

Vers une régulation des contenus ?
La proposition de l’ETNO, qui réunit depuis 20 ans la plupart des opérateurs télécoms historiques européens, a déclenché de vives réactions. Les opérateurs américains, et même le gouvernement américain, s’opposent à toute modification du traité de l’UIT qui légitimerait l’idée d’une régulation de l’Internet. Ils craignent en effet la généralisation d’une régulation économique de l’Internet – notamment par l’instauration d’un régime de « terminaison data » dans certains pays – et encore plus l’idée d’une régulation fondée sur les contenus pouvant conduire à de la censure.

L’idée d’une régulation de l’Internet fondée sur les contenus n’est pas totalement exclue en France. Le CSA (2) examine des moyens pour appliquer à certains acteurs de l’Internet la réglementation de l’audiovisuel en vigueur dans l’Hexagone. La Commission européenne conduit, elle aussi, une étude sur la télévision connectée (3). L’idée d’une régulation économique de l’Internet est également à l’étude. L’Arcep (4), l’ORECE (5) et la Commission européenne examinent les pratiques de différenciation du trafic mises en oeuvre par les opérateurs de réseaux, ainsi que les mesures de transparence pouvant aider le consommateur à mieux comprendre ces pratiques.
En exposant les pratiques au grand jour, les régulateurs espèrent que la pression du marché sera suffisante pour empêcher l’émergence de pratiques abusives, évitant ainsi une régulation plus contraignante. La Commission européenne étudie également les problèmes des barrières au changement d’opérateur (switching costs). Les offres composites, de type « multi play » incluant la télévision, rendent le changement parfois difficile (6). Les régulateurs étudient également les conditions d’échange de trafic entre opérateurs pour savoir s’il faut réguler l’accès aux grands « tuyaux » du réseau des réseaux. C’est le cas en France de l’Arcep, dont la démarche est contestée par deux opérateurs – AT&T et Verizon – qui estiment que cette collecte d’informations dépassent la compétence de l’Arcep et qu’elle est disproportionnée compte tenu de l’absence de problèmes, et de l’absence de régulation, dans ce secteur. Il est vrai que très peu de problèmes se sont manifestés.
En France, la société Cogent a saisi l’Autorité de la concurrence concernant un différend dans la négociation de son accord « peering » avec France Télécom. Mais France Télécom s’est engagé à rendre les relations avec son activité « Open Transit » plus transparentes (7). Hormis cet incident, les conditions d’échange de trafic Internet en amont n’ont jamais fait l’objet de procédures ou de régulation en France.

Deux voies possibles en Europe
En Europe, le régulateur polonais a tenté de réguler les conditions d’échange de trafic Internet, mais il a aussitôt essuyé un refus de la part de la Commission européenne qui lui a opposé son veto. Aux Etats- Unis, la Federal Communications Commission (FCC) n’a jamais tenté de réguler ces échanges, lesquels s’effectuent dans la grande majorité de cas sans contrat écrit, sur la base d’une « poignée de main ». Est-ce que ces échanges peuvent faire l’objet d’une régulation ? En Europe, il n’existe que deux voies pour une régulation de l’interconnexion de trafic Internet, et aucune de ces deux voies n’est ouverte : • La première voie exige de démontrer l’existence d’un opérateur « puissant sur le marché ». La puissance signifie que l’opérateur est incontournable. Or, dans le cadre d’accords d’échange de trafic Internet, personne n’est incontournable (8). Dans l’affaire Cogent, France Télécom a refusé d’augmenter la capacité d’un lien de peering avec Cogent sans contrepartie financière. Que s’est-il passé ? Le trafic excédentaire a emprunté d’autres chemins pour entrer dans le réseau de France Télécom. Le service n’a été que peu impacté.
En théorie, un opérateur de boucle local comme France Télécom pourrait fermer toutes les portes et exiger un paiement de tous les prestataires en amont. S’il s’agissait de France Télécom, les abonnés Orange ne pourraient plus accéder aux sites web de leurs choix. Ce serait impensable commercialement pour France Télécom. En d’autres termes, aucun acteur – même l’opérateur en bout de chaîne qui contrôle l’accès à l’abonné final – ne semble remplir les critères d’ »opérateur puissant ».
La seconde voie de régulation nécessite la présence, non pas d’un opérateur puissant, mais d’un problème de connectivité de bout en bout. Si la connectivité est menacée, l’Arcep et d’autres régulateurs peuvent intervenir au titre d’une régulation dite « symétrique » (9). Mais dans le contexte de l’échange de trafic Internet, la connectivité ne semble jamais menacée en raison des milliers de noeuds d’interconnexions qui permettent au trafic et aux paquets de données de contourner tous les obstacles. La mise en place d’un tarif réglementé pour une « terminaison data » semble donc impossible car il n’existe pas de levier réglementaire dans le cadre européen.

Les opérateurs deviennent des CDN
Mais les opérateurs télécoms ne semblent pas démunis pour autant. Dans le monde Internet, le nerf de la guerre est le temps d’affichage d’une page web, et les opérateurs télécoms commencent à faire concurrence aux CDN (10) globaux tels que Akamai (11), Edgecast ou Highwinds pour offrir des services de stockage de contenus en local, dans des « points bas » du réseau, proche de l’abonné (12). L’Arcep fait état de ce développement dans son rapport au parlement sur la neutralité de l’Internet (p. 43).
La Commission européenne touche à ces questions dans son questionnaire de juillet portant sur le même thème (p. 12), dans le cadre de sa consultation publique jusqu’au 15 octobre 2012. C’est peut-être là la rémunération raisonnable souhaitée par l’ETNO, et indirectement par la ministre française en charge de l’Economie numérique.
Faut-il s’en inquiéter sur le plan réglementaire ? Les principes de Net neutralité exigent un traitement nondiscriminatoire des contenus, du moins pour la prestation de l’accès à l’Internet. Un accord exclusif entre un opérateur de réseau et un fournisseur de contenus pour stocker le contenu de ce fournisseur en des « points bas » du réseau serait problématique car éventuellement contraire au principe de nondiscrimination. Mais si l’opérateur offrait cette prestation à l’ensemble des fournisseurs de contenus sur une base non-discriminatoire, la situation ne serait pas différente de celle d’aujourd’hui.
Un fournisseur de contenu peut en effet aujourd’hui améliorer le temps d’affichage en s’adressant à de nombreux prestataires. Il existe même une start-up française, Cedexis, dont le métier est d’aiguiller en temps réel le trafic des fournisseurs de contenus entre les différents prestataires selon leur performance à un instant T. Il existe déjà un écosystème de CDN, dont l’objectif est de réduire le temps d’affichage des pages web de leurs clients, et il paraît normal qu’un opérateur télécoms puisse également devenir acteur dans cet écosystème. A moins que l’opérateur local, en offrant un stockage en « points bas » du réseau, n’offre une prestation que personne d’autre ne peut répliquer.

La question de l’ « opérateur puissant »
Cet opérateur deviendrait dès lors « puissant » pour cette prestation, et une régulation pourrait se justifier (13). Le remède réglementaire serait alors classique : obliger l’opérateur puissant à offrir à ses concurrents une prestation de gros permettant aux concurrents de répliquer sur le plan technique et tarifaire la prestation de détail offerte par cet opérateur puissant aux fournisseurs de contenus (14).
Il est trop tôt pour juger si une telle réglementation sera souhaitable, ou même possible compte tenu des difficultés de définition du marché. Il faudrait démontrer que la prestation en « points bas » du réseau n’est pas substituable à une prestation CDN classique. Si du point de vue des fournisseurs de contenus les prestations sont substituables, les prestations appartiennent au même marché, et l’opérateur local ne sera plus considéré comme étant seul sur le marché. Il ne sera pas « puissant » et la régulation sera impossible. @

Neutralité du Net : le plus dur sera de « fixer les exigences minimales de qualité »

Afin de « prévenir la dégradation du service, le blocage des accès et le ralentissement du trafic sur les réseaux », la directive européenne « Service universel et droits des utilisateurs » prévoit que les régulateurs nationaux fixent une « qualité de service minimale ». Mais quand ?

Par Winston Maxwell*, avocat associé, Hogan Lovells

Il n’existe pas de qualité de service garantie de bout en bout sur l’Internet. Le « réseau des réseaux » fonctionne selon un mode de
« meilleurs efforts », best effort disent les Anglo-saxons. Si un point d’interconnexion est saturé, des paquets peuvent être ralentis voire supprimés. Cette perte de paquets n’est pas problématique car les paquets trouvent un autre chemin pour arriver à destination. Ce mode « meilleurs efforts » fonctionne plutôt bien dans la plupart des situations, mais la qualité de service peut cependant souffrir en cas de forte demande pour un contenu en ligne spécifique telle qu’une vidéo très populaire.

Qui est responsable de la qualité ?
Le problème inhérent de qualité de service sur l’Internet a trouvé une réponse à travers les réseaux de distribution de contenus, ce que les professionnels appellent les « Content Distribution Networks » ou CDN. Ces derniers ont été conçus pour contourner l’ensemble des maillons faibles de l’Internet public et pour insérer le contenu dans le réseau à un point proche de l’abonné. Ces accès de proximité offrent une qualité de service supérieure, moyennant rémunération par les fournisseurs de contenus. Ainsi, une entreprise comme TF1 rémunèrera un CDN (1) pour augmenter la qualité de service, et notamment la vitesse de réponse d’un site tel que tf1.fr. Il s’agit parfois de solutions de distribution de contenus à usage strictement interne, comme le réseau du groupe Google qui améliore la qualité de son propre site de partage vidéo YouTube.
En résumé, l’Internet public souffre de problèmes inhérents de qualité de service et ces problèmes sont résolus en partie par des services commerciaux proposés par les CDN, lesquels apportent les flux jusqu’à un point d’interconnexion le plus proche de l’internaute. Cependant, c’est toujours le fournisseur d’accès à Internet (FAI) local qui transporte le flux jusqu’à l’abonné final. En matière de neutralité du Net, l’enjeu de la qualité de service se situe au niveau de ce FAI, qui livre le contenu à sa destination finale. Car les CDN ne peuvent rien faire en cas de saturation du réseau local (les derniers kilomètres jusqu’à l’internaute). C’est comme si un transporteur (le CDN) livrait des marchandises à Roissy mais que l’autoroute entre Roissy et Paris (le réseau du FAI local) était bouchée. Des bouchons sont rares sur le réseau de télécommunications fixe en France. Des problèmes de débit sur le réseau fixe sont généralement dus à des limitations inhérentes à la technologie DSL (Digital Subscriber Line) utilisée sur les lignes téléphoniques à base de paire de cuivre pour les services triple play (téléphone- Internet-télévision). Si l’abonné est trop loin du noeud de raccordement, ou NRA (2), le débit sera faible par rapport à un autre abonné qui habite près du nœud. La situation est plus délicate pour les réseaux mobiles, car le réseau d’accès cellulaire est partagé en temps réel entre de très nombreux utilisateurs. S’il y a un seul utilisateur à un instant « T », celui-ci bénéficiera d’une qualité de service excellente, mais en cas d’affluence, la qualité baissera. Dans le débat sur la Net Neutralité, le choix a été fait en Europe et aux Etats-Unis de permettre aux opérateurs de proposer des services gérés en plus des services d’accès à l’Internet. La voix sur IP et l’IPTV (3) proposés aux abonnés disposant d’une « box » sont des exemples de services gérés en France. Ces services, qui utilisent le protocole Internet (IP) pour fonctionner, ne doivent pourtant pas être confondus avec l’Internet.

Prévenir ou guérir la dégradation ?
En matière de services gérés, la liberté contractuelle est la règle, sous réserve bien entendu de respecter le droit de la concurrence. A l’avenir, les services gérés permettront d’offrir aux abonnés de multiples services ayant une qualité de service garantie de bout en bout, ce qui n’est pas possible sur l’Internet public. La crainte des régulateurs est que ces services gérés, plus intéressants financièrement pour les opérateurs que l’Internet, se développent au détriment de ce dernier. Ainsi, la directive européenne « Service universel et droits des utilisateurs » (4) a prévu la possibilité pour les autorités de régulation nationales d’intervenir en cas de besoin pour imposer une qualité de service minimum pour l’accès à l’Internet.

Définir la qualité de service ?
L’article 22 de cette directive, qui doit être transposée dans chacun des vingt-sept
pays de l’Union européenne d’ici à fin mai 2011, précise en effet qu’« afin de prévenir
la dégradation du service et l’obstruction ou le ralentissement du trafic sur les réseaux,
les États membres veillent à ce que les autorités réglementaires nationales soient en mesure de fixer les exigences minimales en matière de qualité de service imposées à une entreprise ou à des entreprises fournissant des réseaux de communications publics ». L’Organe des régulateurs européens des communications électronique (ORECE) a rappelé en septembre dernier (5) que le jeu de la concurrence est la meilleure garantie d’une qualité de service satisfaisante. En cas de dégradation du service par un opérateur A, le premier réflexe du client sera d’abandonner cet opérateur A en faveur d’un opérateur B. C’est uniquement dans le cas où ce jeu concurrentiel ne fonctionnerait plus que le régulateur pourra, après avoir consulté la Commission européenne et l’ORECE, imposer une obligation de qualité de service minimal pour l’accès à l’Internet. Il n’en reste pas moins que la qualité de service est elle-même difficile à définir. La qualité du service est ce que ressent le client final lorsqu’il utilise un service donné. La qualité de service n’est pas synonyme de performance du réseau qui peut être définie de manière précise (temps de latence, phénomène de « gigue » ou variation des délais, etc.). La qualité de service dépend certes de la performance du réseau mais aussi d’autres facteurs, tels que l’équipement de l’utilisateur, son logiciel de navigation et le serveur distant qui héberge le contenu. Dans son programme de travail de 2011 l’ORECE essayera d’élaborer des paramètres pour mesurer la qualité de service et, ainsi, aider les régulateurs européens à définir des paramètres qui pourraient le cas échéant être imposés aux FAI. En France, par exemple, l’imposition par l’Arcep (6) d’une qualité de service minimale ne peut être envisagée dans l’immédiat. D’une part, il faut définir – en coopération avec les autres régulateurs en Europe – ce que l’on entend par qualité de service en matière d’accès à l’Internet. Deuxièmement, l’intervention du régulateur ne peut s’envisager, selon l’ORECE, qu’en cas de défaillance du marché concurrentiel conduisant à une dégradation de la qualité de service par l’ensemble des acteurs. Dans ses dix propositions de septembre 2010
(7) , l’Arcep reconnaît que cette forme d’intervention est plutôt une solution à
« long terme » et que la première priorité est de réunir les différents acteurs pour définir ensemble un moyen de définir et mesurer la qualité de service. En février 2011 le régulateur explique de nouveau que « Sans préjudice des travaux déjà en cours en matière de qualité de service fixe et mobile, la priorité de l’Arcep porte à ce stade sur
le lancement des travaux de qualification des paramètres principaux de la qualité de service de l’accès à l’internet et sur l’élaboration des indicateurs adaptés » (8). S’il existe des moyens de mesurer la qualité de service, ce sera déjà une incitation forte pour les opérateurs du réseau des reseaux de respecter leurs engagements à l’égard de leurs clients. Définir des paramètres de qualité de service en matière d’Internet fixe
est compliqué.

Les réseaux mobiles à part ?
Pour l’Internet mobile, la tache devient quasi impossible en raison des nombreux paramètres qui peuvent affecter le débit sur un réseau mobile. Et pourtant, ce sont les réseaux mobiles qui vont être particulièrement sollicités dans les prochains mois avec l’émergence des tablettes et des smartphones de plus en plus puissants. En cas de succès des tablettes en France, les abonnés mobiles risquent de constater des problèmes de qualité de service en raison de saturations ponctuelles du réseau.
Mais ces problèmes ne sont pas critiquables au regard de la neutralité du Net s’ils
sont traités par des mesures de gestion de réseau saines et transparentes. @

* Winston Maxwell et Nicolas Curien (membre de l’Arcep)
sont coauteurs de « La neutralité d’Internet »,
livre paru en février 2011
aux éditions de La Découverte (collection Repères).
Pour en savoir plus : www.collectionreperes.com
et lire « Oui à la discrimination efficace et
transparente ! », dans Edition Multimédi@ n°28, p. 7.

Yves Gassot, Idate : « Les ventes mondiales sur Internet ne dépassent pas encore les 20 milliards d’euros »

A un mois du 32e DigiWorld Summit qui se tiendra les 17 et 18 novembre
à Montpellier, le directeur général de l’Institut de l’audiovisuel et des télécommunications en Europe (Idate) qui l’organise répond aux questions
de Edition Multimédi@ sur les enjeux futurs d’Internet.

Propos recueillis par Charles de Laubier

Edition Multimédi@ : Le thème des prochaines journées de l’Idate est « Qui finance l’Internet du futur ? ». A question simple, problématiques multiples…
Yves Gassot (photo) :
Naturellement tous les acteurs contribuent, par leurs innovations et leurs investissements, à l’Internet. Mais
il y a une vraie difficulté à avoir une vision d’ensemble de l’écosystème : comment ça marche ? Qui fait quoi ? Qui investit dans quoi et bénéficie de quelles recettes ? Quelles sont les transformations en cours les plus significatives ? Pour notre conférence internationale, nous allons essayer de clarifier ces points en se concentrant sur quelques maillons
de la chaîne et sur les problématiques qui les accompagnent. Au coeur de l’Internet,
il sera question des tiraillements entre les « backboners » (Level3, Global Crossing,
AT&T, …), les grands agrégateurs de contenus (Google, Amazon, …), les réseaux de distribution de contenus ou CDN (1) (Akamai, Limelight, …) et les fournisseurs d’accès
à Internet (FAI). Comment font-ils pour s’interconnecter, supporter la croissance des flux, les contraintes de qualité de la vidéo ? etc. En périphérie, sera soulevée la problématique du renouvellement des réseaux d’accès en fibre (FTTx) ou cellulaire (LTE) : dans quelle mesure les FAI peuvent-ils supporter ces investissements en se limitant à fournir un accès aux consommateurs ? Sur le marché de la vidéo : que va changer la TV connectée ? Comment les chaînes vont-elles survivre face à la profusion d’offres de « video over the top » (2) ? Dans l’accès même aux applications et services par l’internaute, il y a d’autres interrogations : quelle peut être la place de Facebook face au modèle de type Apple (App Store) ou du Web « ouvert » défendu par Google qui contrôle le marché des moteurs de recherche ? Et finalement, nous aborderons les thématiques de la Net neutralité et des atouts européens face aux perspectives de l’Internet du futur.

EM@ : Le gouvernement songe à une taxe sur les abonnements fixe ou mobile,
et non sur les revenus des opérateurs télécoms, en faveur du déploiement de la fibre optique. Est-ce qu’une politique de taxation pour financer le très haut débit est une solution ?
Y. G. :
Remarquons d’abord que si nos grandes villes européennes étaient équipées en accès fibre, nous n’accuserions pas le même retard vis-à-vis du Japon, de la Corée du Sud ou des Etats-Unis. Il est normal qu’une innovation se déploie en priorité là où les conditions sont les plus favorables aux investisseurs. Il est cependant légitime que les responsables politiques imaginent des dispositifs complémentaires pour aller plus loin et plus vite. Le problème est qu’il y a, d’une part, plusieurs taxes appliquées aux opérateurs ou en discussion, et, d’autres part, plusieurs mécanismes de soutien à la couverture des territoires (3). Il faut peut-être clarifier les choses en veillant dans tous les cas à ce que : premièrement, les dispositions retenues ne freinent pas l’investissement des opérateurs ; deuxièmement, les ressources financières dégagées soient utilisées en respectant les principes d’une concurrence loyale et effective entre les acteurs.

EM@ : Aux Etats-Unis, Verizon et Google ont noué cet été un accord sur la
« gestion de services différenciés » avec un objectif de « transparence » aussi
bien sur les réseaux du fixe que du mobile. En Europe, pourrait-on voir un accord de ce type sur la Net neutralité ?
Y. G. :
Je pense que oui. Finalement, la plupart des protagonistes sont aujourd’hui d’accord sur non seulement la non discrimination entre les fournisseurs de contenus
et les consommateurs, ce qui ne signifie pas de s’en tenir à une seule offre de prise
en charge du trafic ou à une seule offre d’accès, mais aussi sur les dispositions de management du trafic qui doivent être rigoureusement justifiées et faire l’objet d’une information transparente. Un accord sur ces points clarifierait le sujet. On en est pas
loin quand on voit l’accueil favorable par plusieurs acteurs des principes proposés par l’Arcep. Il resterait trois débats. Le premier a trait à l’asymétrie du trafic échangé dans
les interconnexions que supportent les FAI avec les agrégateurs de contenus et d’applications ou leurs prestataires (« backboneurs »). Le second renvoie aux arbitrages sur la juste régulation (ex ante ou ex post) et finalement sur l’opportunité d’une loi qui risque de s’en tenir à quelques grands principes. Le troisième sujet déborde du cadre classique de la Net neutralité : quid des positions dominantes au-delà des accès, sur le marché des terminaux, des plateformes applicatives ou des moteurs de recherche ?

EM@: La bataille de la maîtrise du client final : quelle peut être la place des opérateurs télécoms face à des écosystèmes applicatifs en prise direct avec
les consommateurs, comme l’iTunes, les TV connectées, etc. ?
Y. G. :
D’abord, on a tort de dévaloriser systématiquement l’accès sous prétexte de
ne pas devenir une dumb pipe, autrement dit un simple fournisseur de tuyau. Le très haut débit fixe et mobile en tout lieu représentera une valeur considérable pour le consommateur. La complexité de la réalisation de cette offre à travers les choix à faire dans les années à venir représente un espace de différenciation pour les opérateurs télécoms. La proposition de valeur à concevoir vis-à-vis des fournisseurs d’applications
et de services, ou de terminaux, doit être aussi vue comme un autre élément de différenciation. Selon la taille et les priorités retenues, on verra probablement se
dégager des profils assez contrastés d’opérateurs télécoms dans les dix ans à venir.

EM@ : Comment évaluez-vous le marché mondial des ventes générées sur
Internet et quelle croissance prévoyez-vous sur les années à venir pour les nouveaux marché en ligne des contenus et services?
Y. G. :
Selon les estimations de l’Idate, sur les quelque 210 milliards d’euros de revenus agrégés pour les marchés de la vidéo, de la radio, de la musique, de la presse et des livres aux Etats-Unis et en Europe, les revenus de ventes sur Internet ne représentaient encore en 2009 qu’à peine 11 milliards, soit tout juste 5 %. Les ventes en circuit traditionnel restent donc encore largement prédominantes. Si l’on extrapole au niveau mondial, ces ventes par Internet ne dépassent pas encore les 20 milliards d’euros
(hors revenus publicitaires). L’e-commerce, de manière large, représente des montants
de transactions beaucoup plus élevés (144 milliards d’euros en Europe en 2009, presque autant aux Etats-Unis) et l’on retrouve des ratios finalement assez proches de ceux indiqués précédemment pour les seuls produits et services numériques (4). Quant au marché mondial de la publicité en ligne, il est estimé à 34 milliards d’euros. Ces recettes publicitaires alimentent pour grande partie les activités « gratuites » de l’Internet (recherche, réseaux sociaux, …). Au total, ce n’est sans doute pas tant la valeur, aujourd’hui encore assez limitée de ces nouveaux marchés, qui en situent l’enjeu mais bien plus leur dynamique : les marchés du ecommerce progressent en moyenne de 15 % à 20 % par an et les revenus de la publicité en ligne devraient avoir doublé dans le monde entre 2008 et 2012. @

Jean-Pierre Bienaimé : « Nous entrons dans l’univers du streaming audio et vidéo de très haute qualité »

Président de l’UMTS Forum depuis sept ans (1) et détaché de France Télécom-Orange où il a fait toute sa carrière, Jean-Pierre Bienaimé explique à Edition Multimédi@ ce qui attend les industries audiovisuelles et culturelles avec l’arrivée du très haut débit mobile et, ultérieurement, de la 4G.

Propos recueillis par Charles de Laubier

Edition Multimédi@ : Pensez-vous que la 3G+ soit suffisante pour la vidéo à la demande, la télévision sur mobile ou encore le streaming de musiques et de radios ?
Jean-Pierre Bienaimé (photo) : La 3G, et plus particulièrement la 3G+ avec la technologie HSPA (High Speed Packet Access)
et son évolution, offre un très bon support aux applications de l’Internet mobile, telles que la télévision sur mobile, le « streaming » audio et vidéo. Orange, par exemple, compte en France plus
de 1 million d’utilisateurs réguliers en TV mobile. A mi-mars, on compte dans le monde environ 215 millions de clients 3G+ bénéficiant du HSPA.
Cette technologie permet d’offrir jusqu’à 14 Mbits/s en réception et 6 Mbits/s en émission. Avant le milieu de l’année prochaine, la moitié des utilisateurs UMTS devraient en bénéficier. Quant aux premiers réseaux HSPA+, ils offrent jusqu’à 28 Mbits/s et, dans les prochaines étapes, ces débits doubleront, voire tripleront. Les constructeurs testent actuellement la nouvelle interface LTE (Long Term Evolution),
qui commencera à être commercialement déployée dans le monde avant la fin de l’année. Tandis que les spécifications de la quatrième génération de mobiles (4G), ou
« LTE-Advanced », seront définies au milieu de l’année prochaine. Les performances décroissent en fonction du nombre d’utilisateurs dans une cellule du réseau, ainsi que de la distance du terminal par rapport à l’émetteur, l’important étant que le débit minimum assuré reste acceptable. Plutôt que débit théorique, les utilisateurs veulent connaître le débit moyen disponible ou minimum permanent.

EM@ : Musiques, films, télévisions, radios, réseaux sociaux, applications, visiophonies, publicités, etc. Les réseaux 3G sont-ils vraiment capables de supporter tous ces flux multimédias sans saturer, voire imploser ?
J-P. B. :
Le trafic de données mobiles croît en effet à grande vitesse et certains opérateurs, comme l’américain AT&T et le britannique O2, ont exprimé leurs préoccupations sur un risque de congestion de leurs réseaux. Le premier a même indiqué que ses 3% d’utilisateurs de smartphones généraient 40 % du trafic de données sur son réseau, avec une croissance de ce trafic de… 5.000 % en trois ans ! Il semble qu’un éventuel phénomène de congestion soit davantage à craindre du côté des réseaux dits de transport et de signalisation, que du côté des réseaux d’accès radio. A ce risque, les opérateurs mobiles peuvent y répondre rapidement par la mise à jour des logiciels qui permettent d’augmenter les débits. Des solutions basées sur de plus petits sites radio
– tels que les « Femtocells » ou les solutions « WiFi indoor » – sont également en train d’être développées. Et l’obtention de spectres supplémentaires pour les réseaux mobiles – dividende numérique ou 800 MHz, 2,3 GHz, 3,4-3,8 GHz, voire 3,4-4,2 GHz… – permettra d’apporter une solution durable au risque d’engorgement des réseaux. Signalons en outre que la réutilisation (refarming) du spectre GSM 900 et 1800 pour l’UMTS, va permettre aux opérateurs mobile d’accroître la capacité de leurs réseaux.

EM@ : Quelles industries des médias, de communication et de contenus audiovisuels voyez-vous le plus profiter de la 4G ? Pourquoi la nouvelle interface LTE est-elle la réponse à la vidéo en temps réel, à la TV mobile broadcast ou encore aux réseaux sociaux de partage vidéo ?
J-P. B. :
Nous allons entrer dans l’univers de la visioconférence et du streaming audio et vidéo de haute qualité, ainsi que dans la navigation sur le Web à haute vitesse, les jeux en ligne interactifs sur réseaux fixes ou mobiles, les services de diffusion audiovisuelle et de télévision à la demande de haute qualité. La nouvelle interface LTE permettra notamment des débits quatre à cinq fois supérieurs à ceux de l’UMTS/HSPA, ainsi qu’un temps de latence réduit. Cela offrira une interactivité accrue au niveau des applications, une flexibilité et une efficacité bien supérieures du spectre. Et ce, pour un coût de réseau à l’unité de trafic bien inférieur… Les abonnés au très haut débit mobile pourront télécharger des fichiers vidéo très volumineux et de musique de très haute qualité, tout en ayant accès à des transactions financières ultra-rapides sur les mobiles et à de la distribution à grande échelle de vidéo-clips ou encore d’informations vidéos sur les mobiles. Notre récent rapport sur l’écosystème du LTE (2) montre que l’on ne s’attend pas à une « killer application », mais décrypte quelques tendances de fond : même si les services d’accès à Internet tels que la messagerie électronique (e-mail),
la navigation sur le Web, la recherche d’informations et les réseaux sociaux restent les plus demandés, les nouveaux services multimédias comme la télévision mobile, la visiophonie et le téléchargement vidéo se révèlent être les plus porteurs de croissance. Les utilisateurs sont réceptifs aux nouvelles idées et technologies, même si leur adoption prend un certain temps. Le dernier salon Consumer Electronics Show (CES) de Las Vegas a montré que la mobilité haut débit allait de plus en plus équiper les terminaux d’électronique grand public. Et nul doute que l’apparition du LTE accélérera cette évolution.

EM@ : Le nombre d’abonnés mobiles dans le monde dépassera cette année les 5 milliards, dont 1 milliard en « haut débit » mobile. Pourquoi la 3G à la norme européenne UMTS est-elle devenue n°1 dans le monde ?
J-P. B. :
La barre des 500 millions de clients UMTS a été franchie fin janvier 2010. Et,
à mi-mars, on compte environ 680 millions de clients 3G dans le monde, dont environ
525 millions à la norme UMTS (3). Il aura fallu un peu plus de huit ans à la norme européano-japonaise UMTS pour atteindre le seuil des 500 millions d’abonnés, alors que le téléphone fixe a mis un siècle, et la norme européenne de seconde génération GSM dix ans. Si l’UMTS s’est imposée dans le monde, c’est parce qu’elle a été conçue en totale compatibilité avec le GSM, lequel a connu le succès planétaire qu’on lui connaît, lui apportant ainsi la masse critique en termes de base installée d’opérateurs et de clients, avec les économies d’échelle associées. Elle a aussi bénéficié d’un puissant engagement de l’écosystème des mobiles (opérateurs, constructeurs, administrations,…), en particulier au niveau européen. L’UMTS Forum et la GSM Association ont apporté une contribution non négligeable à ce succès, en particulier
en obtenant davantage de spectres harmonisés pour les réseaux mobiles et une plus grande interopérabilité, grâce à un jeu de spécifications communes à l’intérieur des standards définis par le 3GPP (4).

EM@ : Le débat sur la Net Neutrality rattrape les réseaux mobiles qui font figurent jusque-là de « wallet garden ». Qu’en pensez-vous ?
J-P. B. :
L’UMTS Forum n’a pas pour l’instant formulé de position sur la Net Neutrality.
Ce sujet doit être découplé de la discussion qui est née aux Etats-Unis. Ceci dit, la plupart des acteurs s’accordent sur la nécessité de transparence. Aujourd’hui, les opérateurs mobiles offrent à leurs clients un large choix de services et d’options liés à l’Internet, et il ne semble pas qu’une nouvelle réglementation soit nécessaire en la matière. Par exemple, la démarche de la Swedish Post & Telecom Agency (PTS) qui propose de contrebalancer neutralité et incitation aux investissements, est beaucoup plus prometteuse et complète que ce qui a été fait outre-Atlantique. @