Numérisation des médias : pas sans les journalistes

En fait. Le 19 mai, l’Association mondiale des journaux et des éditeurs d’informations – appelée Wan- Ifra depuis cinq ans (juillet 2009) – a organisé
la première édition de « Innovation Day » pour accompagner les médias dans
leur transformation numérique. Parmi les intervenants, aucun journaliste…

En clair. « Les journalistes sont indécrottables ! », a lancé Eric Scherer, directeur
chez France Télévisions, en charge de la prospective, de la stratégie numérique et des relations internationales liées aux nouveaux médias. « Ne serait-ce que lui faire bouger son bureau, cela déstabilise le journaliste… », a-t-il pontifié. De là à accuser les journalistes de freiner l’innovation numérique des journaux et de leurs rédactions, il n’y a qu’un pas (1)…
Eric Scherer, par ailleurs vice-président du Groupement des éditeurs de contenus et de services en ligne (Geste), ressert là son qualificatif d’« indécrottable » déjà servi sur son blog « Méta-média » le 16 mai dernier. Pour lancer sans discernement cette charge qui n’engage que lui contre les journalistes, il fait état de deux documents américains très critiques sur les rédactions face au numérique.
Le premier est une étude de l’université privée Duke publiée en mai tendant à démontrer que « les outils numériques manquent dans la plupart des salles de rédaction », lesquelles n’auraient pas fait leur mue ni fait leur révolution culturelle (2). Le second document émane du New York Times, journal dont la directrice de la rédaction Jill Abramson vient d’être licenciée pour des raisons non précisées : il dresse un bilan très négatif sur les soi-disant« freins culturels » des journalistes dans l’appropriation des nouveaux outils de communication (3). Est-ce à dire qu’en France les crises aigües que traversent les rédactions des quotidiens Libération, Le Monde ou autres sont dues aux réticences
des journalistes à franchir là aussi le pas de l’innovation rédactionnelle ?

Intervenant également à l’Innovation Day, Franck Barlemont, directeur des systèmes d’information (DSI) de Prisma Media (Femme Actuelle, Geo, Capital, Gala, …), évoque lui aussi « les rédactions qui sont contre » mais il ajoute tout faire pour les impliquer dans la réorganisation digitale. « C’est aux rédactions d’évoluer. Le journaliste est la source. IL faut que la rédaction ait envie ! », a-t-il expliqué. Sans quoi, rien ne peut se faire. Prisma Lab a été créé il y a trois ans pour tester et innover avec « le droit à l’erreur », et a lancé un « concours d’idées » à la clé sur un site intranet nommé Eurêka (prix de 6.000 euros pour les trois premières idées lauréates). Les journalistes sont prêts à jouer le jeu, pour peu que la déontologie soit respectée… @

La gestion des flux vidéo devient un enjeu mondial

En fait. Le 28 avril, la société française Anevia a déposé un document de base auprès de l’AMF en vue de son introduction à la Bourse de Paris. Après le succès
il y a dix ans de son lecteur multimédia VLC, elle y explique pourquoi elle s’est spécialisée dans les logiciels de diffusion de flux de vidéo.

En clair. Un peu plus de dix ans après sa création, la société française Anevia – fondée il y a onze ans par les fondateurs de VLC (1), dont les actuels dirigeants Tristan Leteurtre et Damien Lucas – veut se donner une visibilité boursière pour accélérer son développement international sur le marché mondial en pleine expansion de la diffusion de vidéo et de la télé en ligne, du Content Delivery Network (CDN) et de l’Over- The-Top (OTT). Fort du succès mondial du lecteur multimédia libre et gratuit VLC Media Player, lequel a dépassé 1 milliard de téléchargements depuis sa mise à disposition en 2001, Anevia explique dans son document de base que « son offre de logiciel serveur ViaMotion pour CDN rend les opérateurs télécoms, ainsi que les diffuseurs et fournisseurs de contenus média, capables de diffuser leurs flux vidéo vers tous les appareils connectés à Internet (téléviseurs, ordinateurs, smartphones, tablettes, …) ».

La société basée en région parisienne s’attend à ce que les opérateurs télécoms devront investir encore plus dans ces solutions logicielles de gestion de flux vidéo pour faire face à « un enjeu immense de volumes à traiter et de complexité de ces volumes en raison de la multiplicité des formats et standards à appréhender ». Ainsi, détaille la société bientôt cotée, avec l’arrivée de la technologie OTT – permettant de diffuser des services TV et vidéo sur Internet de façon totalement indépendante du fournisseur d’accès à Internet (FAI), et ce sur tout appareil connecté –, les opérateurs télécoms et diffuseurs sont en effet confrontés à une véritable explosion de la consommation de flux vidéo en multi-écrans (2). « Dans les trois ans à venir, ces opérateurs et diffuseurs devront investir fortement dans leur infrastructure CDN (…), afin de les rendre capables d’absorber cette charge et de proposer de nouveaux services à leurs clients », prévoit Anevia qui a réalisé en 2013 un chiffre d’affaires de 7,3 millions d’euros pour un résultat net de 0,42 million (avec une cinquantaine de salariés).

En dix ans, elle a vu l’apparition de l’IPTV sur les box ADSL de Free et d’Orange, suivie du développement de la vidéo à la demande (VOD), puis de la télévision de rattrapage (Catch up TV). « Ces offres sont cependant limitées au réseau privé de l’opérateur télécoms », souligne Anevia pour expliquer le potentiel de croissance de la vidéo OTT. @

L’arrêt de Megaupload en janvier 2012 a contrarié deux plaintes importantes instruites en France

Qui a-t-il de commun entre la plainte du 9 mai 2011 de la société Cogent contre Orange devant l’Autorité de la concurrence et l’assignation du 30 novembre 2011 des syndicats APC-FNDF-SEVN devant le tribunal de grande instance de Paris ? Pas grand-chose à part… feu Megaupload.

Par Charles de Laubier

En attendant de renaître de ses cendres sous le nom de Megabox (1), l’arrêt manu militari de Megaupload le 19 janvier 2012 a contrarié deux procédures juridictionnelles qui étaient enclenchées depuis la fin de l’an dernier en France. D’une part, il s’agit de
la plainte du 9 mai 2011 de la société Cogent contre Orange devant l’Autorité de la concurrence pour abus de position dominante dans l’interconnexion de flux Internet.

Les deux procédures se poursuivent
D’autre part, cela concerne l’assignation déposée le 30 novembre 2011 par les ayants droits APC-FNDF-SEVN devant le TGI de Paris pour exiger que les FAI (2) et les moteurs de recherche (3) respectivement bloquent et dé-référencent les sites web Allostreaming (4) pour cause de piratage. Selon nos informations, les deux procédures
se poursuivent.La société Cogent devrait en effet faire appel – d’ici le 20 novembre – devant la Cour d’appel de Paris contre la décision de l’Autorité de la concurrence. Les sages de la rue de l’Echelle ne voient pas d’abus de position dominante lorsque France Télécom veut faire payer à Cogent l’acheminement du trafic vidéo. Les syndicats APC (cinéma) et SEVN (vidéo), eux, indiquent à Edition Multimédi@ que leur assignation « suit son cours » malgré l’arrêt de Megaupload et de son site affilié Megavideo, lesquels alimentaient en grande partie Allostreaming. Dans ces deux affaires, en effet, Megaupload s’avère être à l’origine de tous les maux. En effet, ce méga site d’hébergement créé en 2005 (5) a provoqué : dans le cas de Cogent, une explosion de trafic vidéo, qui était son diffuseur de contenus auprès des différents FAI français au moment des faits ; dans le cas de l’Association de lutte contre la piraterie audiovisuelle (Alpa), une recrudescence de piratages de films constatés au détriment des trois syndicats professionnels du cinéma et de la vidéo.
En arrêtant le site de streaming et de direct download Megaupload, alors comptant près
50 millions d’utilisateurs et générant près de 5 % du trafic vidéo mondial, l’essentiel des problèmes à l’origine des deux plaintes en France s’effondrait aussi. Selon Médiamétrie, Megaupload enregistrait sur l’Hexagone près de 5 millions de visiteurs uniques en novembre 2011.

Quid de la neutralité de l’Internet ?
Concernant l’affaire « Cogent contre Orange », on peut se demander si l’Autorité de la concurrence n’aurait pas au contraire condamné France Télécom si les contenus de Megaupload avaient continué à ne pas aboutir jusqu’aux abonnés d’Orange en violation du principe de neutralité du Net. Dans le cas de l’affaire « APC-FNDFSEVN contre les acteurs du Net », on peut se demander là aussi si l’affaire instruite par le TGI de Paris n’a pas perdu de sa substance depuis la disparition de la « galaxie Allo » en janvier, dans la foulée de l’arrêt de Megaupload à laquelle elle donnait accès via des annuaires de liens. Que pesait au juste la plate-forme de Hong-Kong dans ces deux affaires françaises ? Selon la décision de l’Autorité de la concurrence du 20 septembre, le ratio limite de « 2,5 pour 1 » – au-delà duquel France Télécom demande à ce qu’un accord de peering « gratuit » (échange de trafic sans facturation avec un acteur du Net comme Cogent) devient payant – avait été largement franchie. En décembre 2009, ce déséquilibre de trafic « au détriment » d’Orange avait atteint un ratio de « 13 pour 1 » ! « Mais depuis l’arrêt de Megaupload en janvier, il n’y a plus eu de problème », nous a-t-on indiqué du côté de la rue de l’Echelle. Quant à l’assignation du 30 novembre 2011, elle visait indirectement Megaupload – à l’instar de Megavideo ou de VideoBB – dans la mesure où ce pionnier du « cloud computing » grand public « ne pouvait pas faire utilement l’objet de demandes dans le cadre de la présente procédure » (6). « En effet, expliquent les trois syndicats du cinéma et de la vidéo, il a été constaté que l’internaute n’est pas en mesure d’accéder directement aux contenus contrefaisants stockés et se voit contraint de passer par des sites [d’annuaires] de liens » (7).

Malgré l’arrêt de Megaupload en janvier
En outre, l’Alpa n’a pas été capable de distinguer les fichiers illicites des œuvres légales sur Megaupload. Résultat : c’est les annuaires de liens du « réseau Allostreaming » qui a été visé par la France. Mais Les Etats-Unis seraient, en quelque sorte, venus couper l’herbe sous le pied des ayants droits français. Le trio APCFNDF- SEVN – épaulé par l’Alpa – s’était d’ailleurs retrouvé au TGI de Paris le 26 janvier pour s’interroger sur la suite à donner à la procédure après l’arrêt de Megaupload (8). Finalement, elle suit son cours. L’affaire « Cogent contre Orange » n’est pas finie non plus. @

Les opérateurs télécoms veulent une meilleure rémunération pour le trafic Internet

Les opérateurs historiques, font du lobbying au niveau mondial – via leur association ETNO – pour que les échanges de trafic Internet soient mieux rémunérés. Mais une « terminaison data » semble impossible, tant qu’il n’existe
pas de levier réglementaire au niveau européen.

Avertissement : cet article est paru dans EM@ n°64 daté du 17 septembre, soit quatre jours avant la décision « Cogent contre Orange »de l’Autorité de la concurrence datée du 20 septembre.

Par Winston Maxwell, avocat associé Hogan Lovells LLP

Cet été la ministre déléguée en charge de l’Economie numérique, Fleur Pellerin, a mis en garde contre une interprétation de la neutralité du Net qui favoriserait trop les acteurs américains de l’Internet, au détriment des opérateurs télécoms français. Implicitement, elle soutient l’idée d’une rémunération équitable pour les opérateurs français dans le cadre de leurs relations avec des acteurs de l’Internet. Ce commentaire « ministériel » fait écho de la proposition de l’association ETNO (1), laquelle souhaite voir inclure dans le traité de l’Union internationale des télécommunications (UIT) un principe de rémunération raisonnable en faveur des opérateurs de réseaux qui acheminent du trafic en provenance du Net. Il s’agit d’un tarif de « terminaison data » similaire au tarif de terminaison pour les appels téléphoniques.

Vers une régulation des contenus ?
La proposition de l’ETNO, qui réunit depuis 20 ans la plupart des opérateurs télécoms historiques européens, a déclenché de vives réactions. Les opérateurs américains, et même le gouvernement américain, s’opposent à toute modification du traité de l’UIT qui légitimerait l’idée d’une régulation de l’Internet. Ils craignent en effet la généralisation d’une régulation économique de l’Internet – notamment par l’instauration d’un régime de « terminaison data » dans certains pays – et encore plus l’idée d’une régulation fondée sur les contenus pouvant conduire à de la censure.

L’idée d’une régulation de l’Internet fondée sur les contenus n’est pas totalement exclue en France. Le CSA (2) examine des moyens pour appliquer à certains acteurs de l’Internet la réglementation de l’audiovisuel en vigueur dans l’Hexagone. La Commission européenne conduit, elle aussi, une étude sur la télévision connectée (3). L’idée d’une régulation économique de l’Internet est également à l’étude. L’Arcep (4), l’ORECE (5) et la Commission européenne examinent les pratiques de différenciation du trafic mises en oeuvre par les opérateurs de réseaux, ainsi que les mesures de transparence pouvant aider le consommateur à mieux comprendre ces pratiques.
En exposant les pratiques au grand jour, les régulateurs espèrent que la pression du marché sera suffisante pour empêcher l’émergence de pratiques abusives, évitant ainsi une régulation plus contraignante. La Commission européenne étudie également les problèmes des barrières au changement d’opérateur (switching costs). Les offres composites, de type « multi play » incluant la télévision, rendent le changement parfois difficile (6). Les régulateurs étudient également les conditions d’échange de trafic entre opérateurs pour savoir s’il faut réguler l’accès aux grands « tuyaux » du réseau des réseaux. C’est le cas en France de l’Arcep, dont la démarche est contestée par deux opérateurs – AT&T et Verizon – qui estiment que cette collecte d’informations dépassent la compétence de l’Arcep et qu’elle est disproportionnée compte tenu de l’absence de problèmes, et de l’absence de régulation, dans ce secteur. Il est vrai que très peu de problèmes se sont manifestés.
En France, la société Cogent a saisi l’Autorité de la concurrence concernant un différend dans la négociation de son accord « peering » avec France Télécom. Mais France Télécom s’est engagé à rendre les relations avec son activité « Open Transit » plus transparentes (7). Hormis cet incident, les conditions d’échange de trafic Internet en amont n’ont jamais fait l’objet de procédures ou de régulation en France.

Deux voies possibles en Europe
En Europe, le régulateur polonais a tenté de réguler les conditions d’échange de trafic Internet, mais il a aussitôt essuyé un refus de la part de la Commission européenne qui lui a opposé son veto. Aux Etats- Unis, la Federal Communications Commission (FCC) n’a jamais tenté de réguler ces échanges, lesquels s’effectuent dans la grande majorité de cas sans contrat écrit, sur la base d’une « poignée de main ». Est-ce que ces échanges peuvent faire l’objet d’une régulation ? En Europe, il n’existe que deux voies pour une régulation de l’interconnexion de trafic Internet, et aucune de ces deux voies n’est ouverte : • La première voie exige de démontrer l’existence d’un opérateur « puissant sur le marché ». La puissance signifie que l’opérateur est incontournable. Or, dans le cadre d’accords d’échange de trafic Internet, personne n’est incontournable (8). Dans l’affaire Cogent, France Télécom a refusé d’augmenter la capacité d’un lien de peering avec Cogent sans contrepartie financière. Que s’est-il passé ? Le trafic excédentaire a emprunté d’autres chemins pour entrer dans le réseau de France Télécom. Le service n’a été que peu impacté.
En théorie, un opérateur de boucle local comme France Télécom pourrait fermer toutes les portes et exiger un paiement de tous les prestataires en amont. S’il s’agissait de France Télécom, les abonnés Orange ne pourraient plus accéder aux sites web de leurs choix. Ce serait impensable commercialement pour France Télécom. En d’autres termes, aucun acteur – même l’opérateur en bout de chaîne qui contrôle l’accès à l’abonné final – ne semble remplir les critères d’ »opérateur puissant ».
La seconde voie de régulation nécessite la présence, non pas d’un opérateur puissant, mais d’un problème de connectivité de bout en bout. Si la connectivité est menacée, l’Arcep et d’autres régulateurs peuvent intervenir au titre d’une régulation dite « symétrique » (9). Mais dans le contexte de l’échange de trafic Internet, la connectivité ne semble jamais menacée en raison des milliers de noeuds d’interconnexions qui permettent au trafic et aux paquets de données de contourner tous les obstacles. La mise en place d’un tarif réglementé pour une « terminaison data » semble donc impossible car il n’existe pas de levier réglementaire dans le cadre européen.

Les opérateurs deviennent des CDN
Mais les opérateurs télécoms ne semblent pas démunis pour autant. Dans le monde Internet, le nerf de la guerre est le temps d’affichage d’une page web, et les opérateurs télécoms commencent à faire concurrence aux CDN (10) globaux tels que Akamai (11), Edgecast ou Highwinds pour offrir des services de stockage de contenus en local, dans des « points bas » du réseau, proche de l’abonné (12). L’Arcep fait état de ce développement dans son rapport au parlement sur la neutralité de l’Internet (p. 43).
La Commission européenne touche à ces questions dans son questionnaire de juillet portant sur le même thème (p. 12), dans le cadre de sa consultation publique jusqu’au 15 octobre 2012. C’est peut-être là la rémunération raisonnable souhaitée par l’ETNO, et indirectement par la ministre française en charge de l’Economie numérique.
Faut-il s’en inquiéter sur le plan réglementaire ? Les principes de Net neutralité exigent un traitement nondiscriminatoire des contenus, du moins pour la prestation de l’accès à l’Internet. Un accord exclusif entre un opérateur de réseau et un fournisseur de contenus pour stocker le contenu de ce fournisseur en des « points bas » du réseau serait problématique car éventuellement contraire au principe de nondiscrimination. Mais si l’opérateur offrait cette prestation à l’ensemble des fournisseurs de contenus sur une base non-discriminatoire, la situation ne serait pas différente de celle d’aujourd’hui.
Un fournisseur de contenu peut en effet aujourd’hui améliorer le temps d’affichage en s’adressant à de nombreux prestataires. Il existe même une start-up française, Cedexis, dont le métier est d’aiguiller en temps réel le trafic des fournisseurs de contenus entre les différents prestataires selon leur performance à un instant T. Il existe déjà un écosystème de CDN, dont l’objectif est de réduire le temps d’affichage des pages web de leurs clients, et il paraît normal qu’un opérateur télécoms puisse également devenir acteur dans cet écosystème. A moins que l’opérateur local, en offrant un stockage en « points bas » du réseau, n’offre une prestation que personne d’autre ne peut répliquer.

La question de l’ « opérateur puissant »
Cet opérateur deviendrait dès lors « puissant » pour cette prestation, et une régulation pourrait se justifier (13). Le remède réglementaire serait alors classique : obliger l’opérateur puissant à offrir à ses concurrents une prestation de gros permettant aux concurrents de répliquer sur le plan technique et tarifaire la prestation de détail offerte par cet opérateur puissant aux fournisseurs de contenus (14).
Il est trop tôt pour juger si une telle réglementation sera souhaitable, ou même possible compte tenu des difficultés de définition du marché. Il faudrait démontrer que la prestation en « points bas » du réseau n’est pas substituable à une prestation CDN classique. Si du point de vue des fournisseurs de contenus les prestations sont substituables, les prestations appartiennent au même marché, et l’opérateur local ne sera plus considéré comme étant seul sur le marché. Il ne sera pas « puissant » et la régulation sera impossible. @

Voyage aux Data Centers de la Terre

En ce mois étouffant de juin 2020, une manifestation d’un nouveau genre passe sous mes fenêtres grandes ouvertes aux cris de « Rendez-nous nos données, elles nous appartiennent ! ». Des slogans descendus dans la rue après avoir inondé la Toile et qui marquent une prise de conscience initiée dix ans plus tôt. Le nouvel écosystème numérique fait la part belle à des terminaux très sophistiqués connectés en continu et utilisant de manière croissante les ressources du « cloud » : nos données personnelles, nos photos, nos factures, sans parler de nos traces laissées sur le Net, tout autant que la musique et les vidéos que nous avons cessé d’archiver puisqu’ils sont toujours disponibles à la demande quelque part. Et ce, grâce à la mise en place progressive d’une nouvelle infrastructure constituée d’un ensemble de data centers, véritable réseau de « fermes informatiques » au niveau mondial.

« le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs ».

Ce basculement vers toujours plus de dématérialisation provoque de nouveaux débats qui conduisent certains à remettre en cause cette nouvelle ère de la décentralisation virtuelle. Ce mouvement fait en réalité partie de toute l’histoire de l’informatique. Dès les années 1960, les réseaux d’entreprises oscillent entre architecture centralisée – où le poste de l’utilisateur ne contient que très peu de fichiers et où tout est stocké dans un serveur dit mainframe – et structure décentralisée – où à l’inverse les ressources sont concentrées dans le poste utilisateur, les données étant stockées sur un serveur partagé. Avec Internet, qui signait un retour à une ère « centralisée » où les ordinateurs envoyaient
des requêtes à une multitude de serveurs pour récupérer une partie de leurs données,
le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs. Cette évolution est rendue possible par le retour du gigantisme en informatique, convoquant par là même
les mânes du premier ordinateur de tous les temps, Colossus, installé en 1943 dans plusieurs pièces d’un appartement londonien. Nos data centers actuels occupent
chacun l’équivalent de la surface de plus de 15 terrains de football ! Et leur nombre n’a cessé d’augmenter depuis 2012 où on en comptait déjà plus de 510.000 dans le monde, dont près de 140 dans un pays de la taille de la France. La tendance n’est pas prête de s’inverser tant la demande est forte. Les investissements s’accélèrent et les pays d’accueil se battent pour attirer sur leurs terres ces entrepôts d’un nouveau genre. Les choix d’implantation se font toujours en tenant compte d’un besoin de proximité des utilisateurs, de la nécessité de disposer de réseaux de communication puissants et de contenir la facture énergétique qui dévore les charges d’exploitation. Il faut savoir qu’un data center moyen consomme l’équivalent d’une ville de 25.000 habitants, tout autant
pour le faire fonctionner que pour le refroidir. C’est ainsi devenu un élément essentiel de
la compétitivité des géants de l’Internet. Google, Amazon, Microsoft, Facebook et Apple disposaient à eux seuls, en 2012 déjà, de plus de 100 data centers en activité sur la planète. Quand Facebook mit en route, en 2014 son premier centre européen, ce fût en Suède, à moins de cent kilomètres du cercle arctique. Le premier data center de la firme
à la pomme, destiné à iCloud, utilise, lui, 100 % d’énergies renouvelables. Mais c’est la Chine qui dispose aujourd’hui du parc de stockage le plus important, construit avec l’aide d’un IBM d’abord, puis par ses champions Huawei et ZTE. Ce marché stratégique est également le terrain d’affrontement de nombreux autres acteurs comme les hébergeurs, parmi lesquels OVH ou Telehouse, les intégrateurs comme Cisco ou IBM, les Content Delivery Networks (CDN) comme Akamaï, les éditeurs de logiciels comme Oracle ou SAP, sans oublier les opérateurs télécoms comme Orange ou AT&T qui n’en finissent
pas de voir la frontière s’effriter entre eux et le monde de l’informatique. Et pendant que
la planète entière se couvre d’entrepôts dépositaires des données du monde, des ingénieurs, lointains héritiers d’un Jules Verne, rêvent déjà à de nouveaux data centers tenant dans le creux de la main. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Géolocalisation
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son rapport
« Cloud & Big Data », produit par Julien Gaudemer, consultant.