Quand les acteurs du logiciel et du numérique se mêlent de culture et formulent des recommandations

Récapitulatif des recommandations du livre blanc « Le Numérique, une chance pour la culture » (1) co-publié en décembre par l’Association française des éditeurs de logiciels et solutions Internet (Afdel) et le think tank Renaissance numérique, lesquels l’ont remis à Axelle Lemaire, secrétaire d’Etat au numérique, et à Fleur Pellerin, ministre de la Culture et de la Communication (2).

1. France.art : l’accélérateur numérique de notre rayonnement patrimonial
Parce que la France compte parmi les plus belles et les plus larges collections artistiques mondiales, il est urgent de mettre à disposition gratuitement en ligne les reproductions photographiques haute définition de l’ensemble des œuvres présentes dans les musées publics, accompagnées de contenu pédagogique. Ces contenus seront disponibles d’une part sur les sites Internet des institutions concernées, d’autre part sur un nouveau site Internet fédérateur, accessible sur tout type de terminal et en plusieurs langues, sous l’URL (3) www.france.art. Des API (4) et une orientation
«open content» permettront de démultiplier les usages autour de ces contenus.
Cette plateforme pourra voir le jour rapidement dans le cadre d’un partenariat public-privé et grâce au mécénat, tant financier que de compétences.

2. De l’open-content pour nos musées
Parce que la France compte parmi les plus belles collections artistiques mondiales, il est nécessaire de rendre disponible en ligne, en totalité et gratuitement, toutes les œuvres notre patrimoine tombées dans le domaine public, en fournissant des fichiers téléchargeables sur une plateforme centrale. Pour faire émerger cette plateforme, un partenariat publicprivé doit être mis en place, allant chercher des fonds dans les budgets mécénat des entreprises.

3. Adapter la protection des droits d’auteurs et droits voisins aux ambitions de rayonnement du patrimoine artistique public
Droits d’auteurs et droits voisins rendent complexe la possibilité pour les musées de présenter leur collection sur leur site web, tandis que les musées étrangers connaissent moins de contraintes sur ce plan et en font un argument concurrentiel. Il est urgent de remettre l’intérêt public au centre des discussions sur le droit d’auteur et de mettre à jour l’environnement réglementaire, notamment sur les questions du formalisme des contrats de cession de droit (l’écrit est encore aujourd’hui obligatoire) et de délimitation préalable des usages (une contrainte forte dans l’espace numérique).
Dans la foulée de la mission Sirinelli sur l’adaptation du contrat d’édition à l’heure du numérique dans le secteur du livre [médiation lancée le 11 septembre 2012 et ayant abouti à la signature le 21 mars 2013 de l’accordcadre entre le Conseil permanent des écrivains (CPE) et le Syndicat national de l’édition (SNE), lire p. 6 et 7, ndlr], un débat public doit s’ouvrir sans délai sur l’évolution du droit d’auteur en matière de reproduction photo et vidéo des œuvres d’art et patrimoniales sur les supports numériques. Il doit s’accompagner d’actions de sensibilisation des acteurs du secteur et plus largement du grand public, afin de combler le déficit d’informations et de connaissances concernant la nature du droit d’auteur et de ses principes d’application dans l’espace numérique.

4. Le livre numérique au prix le moins élevé
Harmoniser le prix du livre au format numérique avec le prix le moins élevé de la version papier mise en vente par la maison d’édition. Aujourd’hui, le livre dans son format numérique peut valoir plus cher à l’acquisition que dans son format poche.
Une différence de prix que ne s’explique pas le lecteur, le format numérique faisant
fi des coûts de distribution, stockage et impression.

5. Accélérer le financement de projets culturels innovants
Aujourd’hui, de nombreux fonds pour l’innovation dans le domaine culturel existent. Ils sont structurés à l’échelle nationale ou régionale par secteur.
Deux recommandations :
• Dans chaque jury ou commission de sélection des projets qui seront subventionnés, exiger la présence au moins deux représentants d’organismes représentant les acteurs de la branche numérique, afin de garantir le caractère innovant, dans la technologie mais aussi dans les usages, des projets présentés.
• Exiger la transparence totale, par la publication des verbatims des réunions et des délibérations des jurys, afin que les start-ups innovantes puissent, chaque année, mieux comprendre les attentes et les critères de sélection des instances décisionnaires. @

Open Source, Creative Commons et Open Data : le partage numérique comme modèle économique

Après les logiciels libres en Open Source et les œuvres partagées Creative Commons, qui permettent aux internautes de disposer d’un droit de reproduction, de représentation et de modification de « l’oeuvre »,
une nouvelle étape de « liberté » numérique est franchie avec l’Open Data.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

Le concept de partage, d’inspiration mutualiste et communautaire, n’est pas nouveau. Nous connaissions déjà les logiciels libres et les Creative Commons qui reposent sur un mécanisme simple : il s’agit, pour le titulaire des droits d’auteur, d’autoriser la libre circulation
du logiciel ou de l’oeuvre numérique, en imposant sa plus large diffusion. Ce dispositif, dénommé copyleft, inverse la finalité du copyright : celui-ci ne doit pas permettre la réservation privative
de l’oeuvre mais vise à interdire son appropriation par autrui de manière à assurer
le partage de l’oeuvre et son évolution.

Des logiciels et œuvres culturelles…
Avec l’Open Data, il s’agit de mettre en commun des biens informationnels, de partager des données privées ou publiques pour favoriser l’enrichissement collectif par l’échange et contribuer ainsi à la création de valeur économique.
C’est dans les années 1985 que le logiciel libre (free software) a fait son apparition. Dans la traduction littérale du terme free, il y a en fait deux notions : « gratuit » et
« libre ». Si les logiciels libres sont souvent gratuits (1), leur caractéristique principale réside avant tout dans une liberté « encadrée » et dans leur caractère évolutif et dynamique. Chaque utilisateur bénéficie d’un droit de libre intervention sur le code source du logiciel libre, à condition que la rediffusion du logiciel, adaptée ou non, soit libre (mais pas nécessairement gratuite). Cette règle posée, l’encadrement est multiforme et a pu s’exprimer à travers plusieurs modèles de licences, principalement
la licence Open Source dite GPL (2) qui s’est imposée comme le modèle de licence de référence dans le monde (3).
A compter des années 2000, les Creative Commons – des oeuvres créées simultanément, grâce à Internet, par plusieurs auteurs, localisés dans des lieux géographiques différents – se sont à leur tour inspirées de la même philosophie. Cette collaboration créative en ligne a été largement encouragée, notamment par des initiatives du type V2V (video-tovideo, en allusion directe au P2P) ou encore par les incitations faites pour que les webmestres diffusent via leurs sites des liens permettant de télécharger librement des fichiers vidéo. De même, Creative Commons (4) a fait développer une application web destinée précisément à permettre aux moteurs de recherche d’identifier automatiquement les oeuvres du domaine public. Un artiste peut ainsi accéder à des effets sonores ou visuels pour les exploiter licitement. Dans cet objectif de partage et d’enrichissement des « créations » (les Commons), il est prévu que l’internaute dispose d’un droit de reproduction, de représentation et de modification dans les termes de la licence Creative Commons.
Une nouvelle étape a été franchie avec l’Open Data (5). C’est aux Etats-Unis que le phénomène des « données ouvertes » a pris tout son essor, avec la signature en 2008 du mémorandum « Transparency and Open Government » (6). Barack Obama déclarait ainsi vouloir « renforcer la démocratie et promouvoir son efficacité et son effectivité
au sein du gouvernement » en plaçant la confiance publique sous le signe de la
« transparence, la participation du public et la collaboration ».

…aux données publiques et privées
Si la loi française du 17 juillet 1978 (7) dite « d’accès à l’information » consacrait déjà au citoyen un droit d’accès aux documents administratifs, c’est seulement en 2005 que la politique d’ouverture et de partage de ces données a été précisée (8), dans le cadre des textes de transposition de la directive européenne du 17 novembre 2003 qui fixait un ensemble minimal de règles concernant la réutilisation et la valorisation des informations de source étatique (9). Sa mise en oeuvre a ensuite été confiée, sous l’autorité du Premier ministre, au service Etalab, dans les conditions du décret du
21 février 2011 (10) avec pour mission de créer « un portail unique interministériel ».

Ce portail Internet – Data.gouv.fr, inauguré le 18 décembre 2013 – est destiné à
« rassembler et à mettre à disposition librement l’ensemble des informations publiques de l’Etat, de ses établissements publics administratifs et, si elles le souhaitent, des collectivités territoriales et des personnes de droit public ou de droit privé chargées d’une mission de service public ».

Pas de propriété intellectuelle
La licence ouverte Etalab (11), rendue publique en novembre 2011, encadrait les conditions de réutilisation de ces informations. On y retrouve, à l’instar de toutes les licences libres, une grande liberté pour le « ré-utilisateur » qui bénéficie d’un droit
« personnel, non exclusif et gratuit, de réutilisation de l’information (…) dans le monde entier et pour une durée illimitée ». A cet effet, il est autorisé à reproduire, copier, publier et transmettre l’information ; diffuser et redistribuer l’information ; adapter, modifier, extraire et transformer l’information, notamment pour en créer des
« informations dérivées » ; exploiter l’information à titre commercial, par exemple en
la combinant avec d’autres informations, ou en l’incluant dans son propre produit ou application. L’utilisateur bénéficie de quelques garanties. Par exemple, il est prévu que cette information « ne contient pas de droits de propriété intellectuelle appartenant à des tiers » et que dans l’éventualité où celui-ci en détiendrait, il les cèderait alors « de façon non exclusive, à titre gracieux, pour le monde entier et pour toute la durée des droits ». Cependant, la mise à disposition de l’information se fait « telle que produite
ou reçue par le producteur, sans autre garantie expresse ou tacite » ou encore sans que le producteur ne puisse assurer l’absence de défauts ou d’irrégularités éventuellement contenues dans celle-ci, ou « être tenu pour responsable de toute perte, préjudice ou dommage de quelque sorte causé à des tiers du fait de sa réutilisation ». De même, la mention de paternité – qui est obligatoire et doit préciser
la source de l’information et la date de sa dernière mise à jour (12) – « ne doit ni conférer un caractère officiel à la réutilisation de l’information, ni suggérer une quelconque reconnaissance ou caution par le producteur (de celle-ci), ou par toute autre entité publique, du ré-utilisateur ou de sa réutilisation ».
Enfin, si cette licence ouverte a vocation à être la même pour toutes les administrations, elle doit néanmoins « s’inscrire dans un contexte international en étant compatible avec les standards des licences open data développées à l’étranger et notamment celles du gouvernement britannique (…) ainsi que les autres standards internationaux (13) ». Ceci fait de la licence ouverte un cadre juridique compatible avec de nombreuses autres licences libres. Ainsi, certaines villes comme Paris (14) ou Nantes (15), ont pu choisir d’ajouter une clause dite « share-alike » propre à l’Open Database Licence (ODBL), qui permet de copier, modifier et faire un usage commercial d’une base de données à condition que l’auteur de la base de données originale soit toujours mentionné et que toute base de données dérivée soit mise à disposition sous les mêmes conditions que la première.

Notons que d’autres licences existent, telles que la licence Open Data Common-by (16), proche de la licence ouverte Etalab (en ce qu’elle permet toute utilisation de la base de donnée tant que la paternité est indiquée), ou encore la Creative Commons Zero (CC0), choisie pour le portail Open Data de la région italienne du Piémont (17) (*) (**), qui tend à se rapprocher du domaine public. puisqu’elle autorise toute personne
à réutiliser librement les travaux, à les améliorer et les modifier sans restriction, sauf celles imposées par la loi. L’Agence du patrimoine immatériel de l’Etat (APIE) a également proposé, en juillet 2011, après concertation avec les principaux producteurs de données publiques, deux modèles de licences types de réutilisation de données publiques. Si elles ont toutes deux pour objectif d’harmoniser et de faciliter les relations entre l’administration et les ré-utilisateurs, elles ont vocation à s’appliquer dans deux situations différentes :
• « Licence de réutilisation d’informations publiques délivrée en application de la loi du 17 juillet 1978 et prévoyant une”livraison unique des informations” vise à encadrer le cas d’une livraison unique d’informations au ré-utilisateur, ou si leurs mises à jour peuvent être téléchargées directement sur un site Internet sans formalité particulière ». • « Licence de réutilisation d’informations publiques délivrée en application de la loi du 17 juillet 1978 et prévoyant une “livraison successive des informations “ permet quant à elle d’organiser les modalités de livraisons successives des informations publiques et de leurs mises à jour par l’administration publique. Cette licence s’avère particulièrement utile pour les bases de données ».

L’Open Data s’étend au privé
L’Open Data s’étend désormais également aux données du secteur privé. Ainsi une entreprise peut-elle décider d’« ouvrir » ses données, les rendre accessibles à des tiers, à des clients, à ses prestataires, ou encore de réutiliser des données « ouvertes » par d’autres, par exemple par de partenaires, voire des concurrents. @

* Christiane Féral-Schuhl, ancien bâtonnier du Barreau de Paris.

8e génération de consoles de jeux : à quitte ou double

En fait. Le 26 juin, l’Interactive and Digital Entertainement Festival (IDEF)
– organisé par le Syndicat des éditeurs de logiciels de loisirs (Sell) – a fermé
ses portes à Cannes après trois jours de rencontres des professionnels des
jeux vidéo. Avec le nouveau cycle, le marché pourrait doubler en valeur.

En clair. « Le marché des consoles de jeu vidéo fonctionne par cycles. Chaque génération de consoles a permis de doubler le chiffre d’affaires de l’industrie », explique David Neichel, président du Syndicat des éditeurs de logiciels de loisirs (Sell). Après les sorties des consoles de salon de 8e génération (la Wii U de Nintendo fin 2012, la PS4 de Sony et la Xbox One de Microsoft fin 2013), et leur démarrage « très rapide » sur
les deux premiers trimestres de commercialisation (+ 14 % en valeur par rapport à la
7e génération des Xbox 360, PS3 et Wii), le marché français du jeu vidéo table sur un nouveau doublement sur les prochaines années de son chiffre d’affaires avec cette 8e génération.

En France, où les consoles de jeux vidéo et les logiciels physiques ont généré 613 millions d’euros en 2013, la 8e génération pourrait ainsi multiplier par deux ces revenus et franchir allègrement la barre du milliard d’euros (1). C’est du moins ce qu’espèrent les professionnels du jeu vidéo. Car, pour l’instant à fin mai 2014, les ventes de logiciels de jeux accusent un recul de 4 % sur un an. Mais pour le Sell, rien de plus normal pour un début de cycle. « Naturellement, la transition passe dans un premier temps par un fort développement du parc de consoles, permettant ensuite celui des jeux puis des accessoires, qui progressent à mesure que le parc installé se développe », tient à rassurer David Neichel. La dynamique devrait aussi être soutenue par le fait que les nouvelles consoles sont aujourd’hui de véritables plateformes de divertissement donnant accès à du jeu vidéo, à de la musique ou encore à des films ou séries (2).
A cela s’ajoute le taux d’équipement des foyers français qui atteint 50 % : à fin 2013, selon GfK, 15,1 millions de consoles de salon étaient installées et 17 millions de consoles portables utilisées.

La période cruciale de Noël, que préparent justement les constructeurs (Microsoft, Nintendo, Sony, …), et les éditeurs (Activision, Electronic Arts, Ubisoft, …) lors de cet Interactive and Digital Entertainement Festival (IDEF) à Cannes, sera déterminante. GfK table en 2014 sur une croissance des ventes de consoles de 42 % en valeur, ce qui laisse présager un fort potentiel de croissance pour les logiciels de jeux vidéo. Mais la dématérialisation des jeux vidéo dans le cloud sonne le glas des supports optiques. @

Marc Jalabert, Microsoft : « Sur la Xbox One, les jeux, la TV et les divertissements coexisteront sans barrières »

Le directeur de la division Grand public et Opérateurs de Microsoft France explique à Edition Multimédi@ en quoi la Xbox One est « une nouvelle génération » de console. Il parle aussi du « succès français » de Xbox Music et de la mobilité
de Windows 8, ainsi que de la régie digitale Microsoft Advertising.

Propos recueillis par Charles de Laubier

MJEdition Multimédi@ : Microsoft a dévoilé, mardi 21 mai, sa nouvelle Xbox One qui se présente comme une plateforme multimédia « tout en un ». Comment allez-vous convaincre les près de 3 millions de foyers en France détenteurs de la Xbox 360 de passer à la One ?
Marc Jalabert :
Le président de la division Interactive Entertainment de Microsoft (1), Don Mattrick, a annoncé que la Xbox One serait disponible dans le monde en 2013. En attendant, le groupe s’exprime le 10 juin, dans le cadre de l’E3 [le premier salon américain des jeux vidéo, ndlr]. Il y a plus de trois ans, nous avons lancé le développement d’une nouvelle Xbox.
Nous ne voulions pas créer une « prochaine génération » de console, qui aurait juste proposé une évolution. En fait, nous avons voulu créer une « nouvelle génération » de console de divertissement. Depuis le tout début, nous avons voulu concevoir une console qui soit simple, instantanée, et qui rassemble le meilleur de toutes les expériences de divertissements !
La Xbox One est précisément cette console qui proposera à la fois une nouvelle génération de jeux plus beaux, plus immersifs que jamais, mais aussi une expérience TV révolutionnaire. Elle a donc été conçue avant tout pour répondre à tous les possesseurs de Xbox 360 actuels, ainsi qu’à tous ceux qui souhaitent consommer leurs divertissements différemment.

Marc Jalabert est entré depuis plus de 20 ans chez Microsoft. Il a commencé sa carrière au siège de
Microsoft à Redmond en 1989, au sein des équipes
R&D, puis rejoint Microsoft France fin 1992 à des
postes marketing et ventes. Il est directeur de la
division Grand public et Opérateurs, créée en 2011.

EM@ : Depuis janvier 2013, la Xbox 360 propose le service de SVOD Canal Plus Infinity. Depuis octobre 2012, MyTF1VOD y est aussi. La TV d’Orange également : quels autres services vidéo en France prévoyez-vous sur les Xbox 360 et One ?
M. J. : La Xbox 360 est aujourd’hui la console de jeu vidéo qui propose le plus de contenus VOD et SVOD disponibles sur le marché. Nous continuons à travailler avec
nos partenaires pour rendre le service encore plus attractif, mais nous n’avons pas plus d’informations à partager à ce stade. En ce qui concerne la Xbox One, notre objectif est de proposer une console où les jeux, la TV et les divertissements peuvent coexister sans barrières, ni complications. Simple et de manière instantanée !

EM@ : Xbox Music, conçu mondialement par une équipe basée à Issy-les-Moulineaux, a été lancé en octobre 2012. Quel bilan faites-vous en France six mois après l’intégration de cet écosystème dans la console de jeu ?
M. J. :
En effet, Xbox Music est un service qui a été développé au cœur de Microsoft France, par une équipe de près de 130 personnes. En fait, Xbox Music est le fruit d’une stratégie d’investissement en R&D ambitieuse, qui vise à tirer profit des talents basés
à l’extérieur des Etats- Unis pour proposer les meilleures innovations couplées à la meilleure expérience utilisateur possible. Et c’est un pari réussi par l’équipe française,
car le service a été déployé avec succès à travers 35 pays sur plus de 48 millions de consoles Xbox 360 connectées au Xbox Live et, potentiellement, sur des centaines de millions de PC et tablettes sous Windows 8 et Windows RT, mais aussi sur les Windows Phone 8 vendus à travers le monde. Maintenant, il est encore tôt pour tirer tous les enseignements de ce lancement. Nous vous donnons rendez-vous à la fin de l’année
pour en reparler.

EM@ : Les FAI pourraient craindre de voir leurs propres services court-circuités par la « 2e box » connectée à leur réseau. Par exemple, Orange commercialise les abonnements Xbox Live et considère la Xbox 360 comme « box secondaire » : avec la Xbox One, va-t-on vers une bataille des « box » ?
M. J. :
Nous travaillons en étroite collaboration avec les opérateurs et FAI depuis plusieurs années. Notre stratégie de partenariat ne changera pas avec l’arrivée de la Xbox One.

EM@ : Comparé aux écosystèmes d’Apple (iOS/iTunes Store) et de Google (Android/Google Play), Microsoft semble avoir du mal à percer le marché des smartphones et tablettes terminaux mobiles, malgré le lancement de Windows 8
il y a six mois et le partenariat avec Nokia. Comment expliquer ce retard ?
M. J. :
Avec les lancements de Windows 8 et Windows Phone 8, en octobre dernier, nous sommes de retour sur le marché de la mobilité et cela se voit. Nous passons à la vitesse supérieure car nous entrons dans une nouvelle ère, celle d’une interface unique sur tous les écrans de la vie numérique avec Windows 8 et Windows Phone 8, ainsi que de nouveaux scénarios sur PC, tablettes et TV. Avec Windows 8, d’une part, nous avons fait le pari de la mobilité : de l’interface utilisateur, à la création du Windows Store avec ses applications, en passant par le chipset, nous avons intégralement réinventé Windows pour la mobilité, quitte à créer nos propres équipements, comme la tablette Surface, pour aller encore plus loin. En six mois à peine, 100 millions de licences Windows 8 ont été vendues dans le monde, et 1,7 million de personnes sont déjà passées à Windows 8 en France. Avec Windows Phone 8, d’autre part, nous présentons une offre « devices & services » de plus en plus attractive, notamment avec la ligne de Nokia Lumia qui se déploie à un rythme plus que satisfaisant sur le marché français. Notre dynamique de ventes est exceptionnelle : nous sommes passés en un an de 2,8 % à 7,2 % de parts de marché, selon Kantar Worldpanel Comtech datant de mars 2013. En France, nous sommes désormais le troisième système d’exploitation et nous gagnons 1,5 point de part de marché par mois !
C’est une bataille de long terme, mais nos résultats dépassent nos objectifs, qu’il s’agisse du grand public comme de l’entreprise, dans un contexte concurrentiel où les lignes bougent.

EM@ : Combien d’applications mobiles proposez-vous par rapport aux boutiques d’Apple et de Google ?
M. J. :
Les développeurs plébiscitent notre écosystème puisque le nombre d’applications sur le Windows Store a été multiplié par 6 en six mois, et nous comptons déjà 145.000 applications sur le Windows Phone Store, soit plus de 90 % du top 50 des applications des plateformes concurrentes.

EM@ : En France, Microsoft Advertising est la première régie pub online, d’après Médiamétrie//NetRatings, avec 31,3 millions de visiteurs uniques en décembre 2012. Que représente cette activité pour Microsoft France ?
M. J. :
Microsoft Advertising est rattachée à la division Online Services de Microsoft,
qui a réalisé en 2012 une croissance de 10 % au niveau mondial pour atteindre plus de
2,8 milliards de dollars de chiffre d’affaires. En France, Microsoft Advertising est la première régie publicitaire digitale. Elle monétise auprès des annonceurs et des agences média l’ensemble des marques de l’écosystème Microsoft, à commencer par le portail MSN.fr, marque phare de notre offre, ainsi que Skype et Xbox, qui connaissent une forte croissance de leur audience. En combinant les environnements premium (MSN, Xbox, Skype, Outlook.com, Windows Phone, Bing, applications Windows 8) et une expertise
sur tous les leviers de communication publicitaires (display, search, performance, brand content), Microsoft permet aux marques de proposer aux internautes de véritables expériences immersives.

EM@ : La pub vidéo est-elle en forte croissance ?
M. J. :
Les opérations spéciales et les formats vidéo représentent, en effet, des leviers de croissance. @

Europe : les « Arcep » devront toutes proposer des outils de mesure de la qualité d’accès aux réseaux

Après plus de deux ans de débat, la neutralité du Net a enfin des lignes directrices : le « super-régulateur » européen, l’ORECE, souhaite notamment que les « Arcep » mettent à disposition des particuliers des outils gratuits de mesure de la qualité de leurs accès aux réseaux fixe ou mobile.

Selon nos informations, l’Organe des régulateurs européens des communications électroniques (ORECE), qui réunit depuis dix ans maintenant les vingtsept régulateurs télécoms sous la houlette de la Commission européenne, va lancer une consultation publique portant sur des lignes directrices destinées à préserver la neutralité de l’Internet.

Mesures : par logiciel ou site web
Lors de sa 11e assemblée plénière des 24 et 25 mai à Dubrovnik en Croatie, l’ORECE (1) devait adopter – à l’appui de cette consultation publique – deux rapports, l’un sur les différentes pratiques des fournisseurs d’accès à Internet (FAI) en matière de gestion de trafic (2), l’autre sur une évaluation de l’interconnexion IP. Devaient aussi être adoptées des lignes directrices – à l’attention des régulateurs – sur la qualité de service. Le tout
va être transmis à la Commission européenne. La plus concrète des mesures, qui concernera les millions d’internautes et de mobinautes européens, sera la forte incitation faite aux « Arcep » européennes de mettre à la disposition des particulier
des outils de mesure de la qualité de leur accès à l’Internet fixe et mobile. Objectif : que les abonnés puissent – avec un logiciel de monitoring – contrôler par eux-mêmes les éventuels blocages ou ralentissements de leur ligne et vérifier ainsi que leur FAI et opérateur mobile respectent la neutralité du Net. L’ORECE tient particulièrement à la mise à disposition auprès du public connecté de ces outils de mesure que devront leur fournir – gracieusement – soit les régulateurs eux-mêmes, soit les FAI, soit des tierces parties agréées préalablement. Cette mesure « ex post » sera le pendant de la régulation « ex ante » de l’obligation de transparence des FAI au regard de la neutralité des réseaux.
Dans certains Etats membres, des régulateurs ont déjà pris l’initiative de développer des outils spécifiques de mesure du débit. Ce que l’ORECE souhaiterait généraliser à toute l’Europe. Dans ses Guidelines pour une qualité de service (« QoS »), le super-régulateur européen fait état des bonnes pratiques en matière de mise à disposition d’outils de mesure pour les particuliers. Déjà, dans un premier rapport publié en décembre 2011, l’ORECE avait fait l’éloge de ces outils promus par des régulateurs. En France, l’Arcep – qui a lancé une consultation publique jusqu’au 20 juin sur la neutralité du Net (4) et qui adoptera cet été une décision fixant les indicateurs de QoS à mesurer à partir de 2013 – pourrait s’inspirer de son homologue italien. L’AGCOM propose en effet un logiciel gratuit et téléchargeable sur son site web, NeMeSys (5), qui mesure les performances de chaque FAI en Italie et permet aux internautes de vérifier la qualité de leur accès haut débit. A moins que l’Arcep ne propose un outil fonctionnant directement en ligne, comme c’est le cas au Danemark où le régulateur a créé un site web de mesure en temps réel de sa connexion. Il calcule à partir de la connexion de l’internaute le temps de latence en millisecondes (ping), de download et d’upload en kilobits par seconde, tout en identifiant bien sûr le FAI concerné. La NPT norvégienne propose un site web de mesure équivalent, Nettfart.no. Sur le même principe la Public Utilities Commission de Lettonie propose les mêmes paramètres. En Grèce, le régulateur EETT a développé un outil en ligne baptisé SPEBS (6) qui mesure une multitude de paramètres (7).
Autre solution : l’Arcep pourrait s’appuyer sur des prestataires extérieurs labellisés comme le fait la Suède, où l’organisation indépendante du Net (8) propose un site web de mesure en ligne appelé Bredbandskollen. En Grande-Bretagne, l’Ofcom a certifié dès 2008 les outils de SamKnows qui ont été retenus en 2010 par la FCC aux Etats-Unis (lire ci-dessous), puis en 2011 par la Commission européenne. En France, l’Arcep pourrait s’appuyer sur la société Cedexis qui fournit un outil de monitoring en temps réel aux FAI ou aux sites web, dans les serveurs desquels ont été placés de petits agents numériques (tags). D’autres outils font aussi référence en Europe, tels que Ripe Atlas ou Neubot. @

Charles de Laubier

FOCUS

Google a co-fondé M-Lab pour « mesurer » la neutralité du Net
Aux Etats-Unis, Google a fondé avec l’Open Technology Institute et PlanetLab Consortium un laboratoire de mesure – Measurement Lab (M-Lab). Il s’agit d’une plate-forme ouverte de mesures des connexions haut débit et de performance de certaines applications (9). Une dizaine d’outils sont proposés gratuitement, comme NDT (Network Diagnostic Tool). Le régulateur américain, la FCC (10), le propose en beta-test depuis le 11 mars. BitTorrent est aussi partie prenante dans le M-Lab, aux côtés d’Amazon ou de Skype (Microsoft). En Europe, le régulateur grec (EETT) supporte aussi M-Lab, tout comme SamKnows. Les données recueillies sont exploitées à des fins de recherche sur la qualité et la neutralité du Net. @