Ego… métrique

De nos jours, le « Connais-toi toi-même » prend une tournure singulière. Cette sagesse antique n’a sans doute jamais été aussi populaire qu’aujourd’hui, même si c’est en empruntant des chemins que n’auraient pu imaginer nos ancêtres qui la gravèrent au fronton du temple de Delphes. Maintenant, mon
« Moi » est mesuré, jour et nuit, par la puissance des applications du Quantified Self (QS) : une véritable batterie de données sur le nombre de calories brûlées, le poids, la tension, le pouls, ou encore la qualité du sommeil. Apparus au stade industriel à la fin des années 2000, les objets connectés liés au bien-être et à la santé se sont multipliés, explorant toutes les pistes possibles. Les utilisateurs pionniers avaient ainsi accès à des données qui les aidaient à se fixer des objectifs simples, et découvraient émerveillés le nombre de pas qu’ils faisaient par jour. Et, en bon élève docile, ils acceptaient la petite remontrance ou le message de félicitation envoyés par le programme. Les capteurs et bracelets d’activité ont ainsi ouvert le marché avec Jawbone, iHealth, Nike VitaDock ou Fitbit, qui connurent un premier succès même s’ils ne proposaient que très peu de mesures. Suivirent une
plus grande diversité d’objets : bouchons de tube de médicament GlowCaps alertant l’utilisateur, ceintures Lumo Back vibrant pour signaler une mauvaise posture, ou serre-têtes Melon destinés à améliorer l’attention…
Les leaders des terminaux mobiles ont ensuite essayé de prendre le contrôle du marché en lançant tour à tour leurs montres connectées, et faire ainsi main basse sur un marché aux perspectives immenses, le dispositif central étant leurs smartphones – véritables pilotes des applications.

« Quantified Self : les objets connectés liés
au bien-être et à la santé se sont multipliés. »

Mais c’est avec la seconde génération de capteurs que les usages ont véritablement explosés. Lorsque, miniaturisés et quasiment invisibles, ils se sont embarqués dans
les objets eux-mêmes, soit lors de leur construction, soit sous forme de stickers positionnables sur nos objets quotidiens : vêtements, chaussures, vaisselles, aliments, … Sans oublier bien sûr nos pacemakers, nos lentilles de contact, ou tout autre modèle de prothèses connectées de nouvelle génération que nous sommes de plus en plus nombreux à porter. Dès lors, le nombre de données collectées a explosé : niveau de stress, rythme cardiaque, tension, vision, respiration, calorie, température, qualité du sommeil, bilan sanguin, activité cérébrale, taux de glucide,… Sachant que chaque année de nouvelles données s’ajoutent aux anciennes moissons. Les bénéfices impressionnant ont emporté l’adhésion du plus grand nombre. Nous n’avions jamais atteint un tel niveau de précision dans le suivi de notre santé quotidienne. Mais pour
en arriver là, il a fallu franchir de nombreuses étapes. Il ne s’agissait plus de données associées à une pratique sportive ou paramédicale, mais de données médicales ultra-sensibles. La question cruciale de leur accès et de leur protection est à peine résolue aujourd’hui. Si les pionniers du QS furent les start-up, suivies par les équipementiers leaders, les géants du Net, les opérateurs télécoms et les grandes compagnies d’assurance, il faut désormais compter avec les grands laboratoires et les systèmes
de santé associant le personnel médical. Le vaste monde du soin est en pleine phase de réorganisation autour de la bonne utilisation de ses montagnes de données personnelles que l’on a commencé à collecter avant de savoir s’en servir.

Aujourd’hui, mes données alimentent en temps réel une base personnelle hébergée par le service Cloud Vitale, qui remplace mon ancienne carte à puce et à laquelle ont accès les médecins qui me suivent de leur cabinet ou de l’hôpital. Dans de nombreux cas, je peux bénéficier de soins ou de conseils préventifs. A tel point que c’est souvent mon docteur qui vient à moi pour me prodiguer des conseils avant qu’il ne soit trop tard ! Nous avons dû apprendre à déserter les salles d’attente devenues obsolètes ! Malgré tout, mon «Moi » décomposé, éclaté en myriades de données, me reste encore largement à découvrir, en dépit des tout derniers progrès de la neuropsychologie qui donne enfin accès à la cartographie inédite de mon cerveau, de ses failles et de ses ressources inexploitées. @

Jean-Dominique Séval*
Prochaine chronique « 2025 » : Moi augmenté (II)
* Directeur général adjoint de l’IDATE, auteur du livre « Vous
êtes déjà en 2025 » (http://lc.cx/Broché2025).
Les objets connectés et le Quantified Self seront abordés
lors du « Connected Things Forum », dans le cadre du
DigiWorld Summit, 18-20 nov. 2014 : digiworldsummit.com.

Bien que la diffusion audiovisuelle sur le Net explose, les fréquences sont plus que jamais régulées

Alors que les services de vidéo à la demande (VOD/SVOD), de catch up TV ou encore de télévision connectée se déploient massivement sur les réseaux fixes (très) haut débit, les fréquences, elles, dont les UHF du dividende numérique, n’ont jamais autant préoccupé les régulateurs européens et nationaux.

Par Marta Lahuerta Escolano, avocate, et Rémy Fekete (photo), avocat associé, Gide Loyrette Nouel

Le rapport Lamy (1), publié le 1er septembre dernier et remis à Neelie Kroes, commissaire de l’Union européenne à la Stratégie numérique, porte sur l’usage et l’allocation futurs des fréquences dites ultra-hautes (UHF) comprises entre 470 et 790 Mhz. Ces fréquences sont actuellement utilisées pour la diffusion hertzienne terrestre et notamment pour la télévision numérique terrestre (TNT).

 

Des enjeux européens et…
Ce rapport s’inscrit dans une stratégie visant à établir une politique européenne commune de développement des technologies numériques de pointe. Et ce, comme
l’a rappelé Neelie Kroes, dans le but notamment d’assurer « la défense des intérêts européens dans les négociations internationales » (2). Le constat de départ est un leitmotiv de la régulation du secteur : les ressources sont rares, notamment en ce
qui concerne les fréquences (plusieurs technologies ne pouvant occuper une même fréquence), et une régulation se révèle indispensable pour assurer un développement technologique et commercial viable du secteur. Partant de ce constat, l’ambition du rapport est double : offrir à un secteur des technologies mobiles – au développement rapide – les ressources nécessaires, tout en donnant aux exploitants actuels de ces ressources rares des garanties quant à la poursuite sereine de leurs activités. Le
« groupe de haut niveau sur l’usage futur de la bande UHF » (3), composé de dix-neuf représentants de premier ordre du secteur des télécommunications et de la diffusion audiovisuelle (tels qu’Orange, la BBC, TDF ou Mediaset), n’ont pas réussi à dégager un consensus. Résultat : ce document ne fait état que de l’opinion personnelle de Pascal Lamy. Il n’en reste pas moins d’une très grande importance : les chances sont en effet nombreuses que le rapport soit adopté en l’état par la Commission européenne.
Ce rapport pourrait redessiner le paysage de la répartition de fréquences entre
les différentes technologies. La solution dégagée par le document consiste en un calendrier fondé sur le “modèle 20-25-30”, tel que dénommé par Pascal Lamy, renvoyant à trois étapes majeures :
• La première étape identifiée est celle de la libération d’ici à 2020 de la bande 700 Mhz (correspondant aux fréquences comprises entre 690 et 790 Mhz), c’est-àdire le haut de la bande UHF. Cette bande fera donc en premier l’objet d’un transfert des technologies de diffusion terrestre, dont la TNT, aux technologies mobiles, gourmandes en fréquences. Le délai se veut néanmoins volontairement long pour permettre, d’une part, aux pays dont la pénétration de la TNT est forte d’opérer la transition sereinement, et, d’autre part, à ceux voulant progresser plus rapidement d’avoir les moyens de le faire. En France, si le principe du transfert semble acté, son calendrier fait en revanche l’objet de larges débats, notamment face aux enjeux liés aux délais d’adaptation (4). Il ne serait donc pas étonnant que la publication du rapport accélère le processus.
• Parallèlement, Pascal Lamy préconise de donner au secteur de la télévision hertzienne des garanties quant à la possibilité pour ce secteur de pouvoir s’appuyer jusqu’en 2030 sur les fréquences de la bande UHF inférieures à la bande 700 Mhz (c’est-à-dire le spectre 470-670 Mhz).
• L’année 2025 marquerait quant à elle une forme d’étape intermédiaire, au cours de laquelle serait décidé par la Commission européenne le sort définitif de ce spectre 470-670 Mhz après 2030, et de la façon dont les fréquences concernées seront réallouées aux différentes technologies.
Ce modèle entend donc répondre au problème de la redistribution des fréquences en essayant d’offrir un compromis entre le développement accru de ces deux technologies et la rareté de cette ressource essentielle à leur développement.

…des préoccupations nationales
En France, une récente décision du Conseil d’Etat, datée du 11 juin dernier (5), nous rappelle que l’activité régulatrice n’en est pas moins intense à l’échelle nationale pour des ressources qui peuvent se révéler tout aussi rares : les tours de diffusion. Dans cet arrêt, la Haute cour de justice administrative a rejeté les requêtes formées par deux opérateurs de radiodiffusion et un multiplex – res-pectivement TowerCast (NRJ), TDF
et Multiplexe R5 (TF1) – à l’encontre d’une décision de l’Arcep datée du 11 septembre 2012. Cette décision (6) porte sur la régulation du marché de gros de la diffusion de la TNT pour la période 2012-2015 (régulation dite du cycle III). Dans sa décision, l’Arcep
a déclaré comme pertinent sur cette période le marché de gros en amont des offres de diffusion hertzienne terrestre de programmes télévisuels. Dans le prolongement des analyses de marché des cycles I (2006- 2009) et II (2009-2012), le régulateur des communications électroniques a de nouveau désigné la société TDF comme seul opérateur exerçant une influence significative sur ce marché, maintenant ainsi un ensemble d’obligations asymétriques qui lui ont été imposées au cours des précédents cycles de régulation.

Obligations imposées à TDF
La décision du cycle III reprend par ailleurs le principe de l’applicabilité immédiate
des décisions de l’Arcep aux contrats entre opérateurs, y compris ceux conclus avant l’entrée en vigueur de ces décisions. Ce principe, posé par l’Arcep à l’issue d’un règlement de différend en TowerCast et TDF (7), avait été contesté par la société TDF, qui avait intenté un recours devant la Cour d’Appel de Paris. Dans son arrêt du 11 juin 2014, le Conseil d’Etat a, à son tour, validé la faculté de l’Arcep – alors accusée par TDF d’« excès de pouvoir » – de réguler exante le marché de gros de la diffusion de
la TNT, compte tenu de la présence d’obstacles au développement d’une concurrence effective à l’horizon 2015 et de l’impossibilité du droit de la concurrence à remédier,
à lui seul, aux défaillances de ce marché. la Haute cour de justice administrative a
aussi approuvé l’ensemble des obligations asymétriques imposées à TDF, ainsi que
le principe d’applicabilité immédiate de ces obligations aux contrats en cours. Cette décision s’inscrit dans un mouvement débuté en 2006 qui vise à instaurer une concurrence équitable sur un marché historiquement monopolistique de la diffusion audiovisuelle hertzienne terrestre, marché occupé à hauteur de 70 % par l’opérateur historique TDF (ex-Télédiffusion de France). Dans ce contexte et à l’instar du secteur des télécoms, les instances communautaires et nationales ont entrepris une action visant à permettre aux opérateurs alternatifs de se développer et de pouvoir concurrencer l’opérateur historique. L’Arcep a donc, depuis 2006, développé plusieurs cycles de régulation afin d’instaurer une concurrence équitable sur le marché de gros. Le cycle I a ainsi consisté en l’identification de TDF comme unique entreprise exerçant une influence sur marché, et à prendre les mesures régulatrices que ce constat imposait. A ainsi été dégagée une principale obligation à la charge de TDF : celle de l’accès, imposant notamment de proposer aux opérateurs des conditions techniques et tarifaires respectant les principes d’efficacité, de non-discrimination et de concurrence effective et loyale, ou encore de fournir l’accès à des systèmes d’assistance opérationnelle ou à des systèmes logiciels similaires nécessaires pour garantir l’existence d’une concurrence loyale dans la fourniture des services.

Dans le cadre du cycle II, l’Arcep a défini en 2009 (8) les moyens de réalisation de cette obligation d’accès, notamment d’un point de vue tarifaire, en imposant une obligation d’orientation des tarifs vers les coûts pour les offres de gros correspondant aux sites non réplicables – étant donnée leur rareté (pylônes, châteaux d’eau, toits d’immeubles, clochers d’églises, ou des constructions hautes comme la tour Eiffel). La décision de l’Arcep prévoyant que les obligations d’orientation des tarifs vers les coûts sont applicables aux contrats en cours ne visent que les sites non réplicables. Les critères permettant de déterminer la réplicabilité des sites, sur la base desquels la liste des
sites non réplicables est établie, constituent donc un enjeu économique important
pour l’ensemble des opérateurs du marché de gros de la diffusion hertzienne terrestre.

Ces critères sont une composante importante de l’enjeu objet cycle III de régulation dans laquelle s’inscrit la récente décision du Conseil d’Etat : il s’agit non seulement d’ajuster les critères précédemment utilisés, mais aussi de fournir une grille d’analyse permettant d’évaluer la réplicabilité des sites à venir et d’offrir aux acteurs du marché – les « nouveaux entrants » – de meilleurs moyens d’anticipation. Les principaux critères ainsi dégagés sont la hauteur du pylône, l’existence de conditions d’accès exceptionnelles ou encore les contraintes administratives ou d’urbanisme. Néanmoins, un constat s’impose : si les règles visant à obliger l’opérateur historique TDF à partager ses infrastructures sont de nature à permettre aux opérateurs alternatifs de développer favorablement leurs services, le résultat escompté n’a (pour le moment) pas été atteint, notamment en raison du faible nombre de tours non réplicables et donc concernées par les obligations tarifaires spécifiques imposées à TDF.

Levée progressive de la régulation ?
A l’heure du développement sur le territoire européen de la télévision connectée, de l’arrivée de Netflix et des différents outils permettant d’avoir accès à des programmes audiovisuels par d’autres canaux que la TNT, il semble de bon augure que l’Arcep envisage d’ores et déjà une « levée progressive de la régulation (…) à moyen et long termes (…), compte tenu à la fois des perspectives a priori stables et pérennes qui ont été identifiées pour le marché de la diffusion TNT et d’une relative “maturité” de la régulation » (9). @

Pourquoi Microsoft s’offre à prix d’or Minecraft

En fait. Le 15 septembre, Microsoft a annoncé l’acquisition de la société suédoise Mojang et de la franchise de son en ligne Minecraft pour 2,5 milliards de dollars. Ce jeu massivement multi-joueur en ligne, très prisé des adolescents, a été vendu à 100 millions d’exemplaires depuis son lancement en 2009.

En clair. Les discussions entre Microsoft et Mojang avaient été dévoilées le 9 septembre par le Wall Street Journal, valorisant l’opération « plus de 2 milliards de dollars ». Moins d’une semaine après, le rachat – qui doit être finalisé d’ici la fin de l’année pour 2,5 milliards de dollars – était annoncé par la société du créateur de Minecraft, le Suédois Markus Persson (35 ans), alias Notch. Fort de plus de 100 millions d’exemplaires en ligne vendus sur toutes les plateformes (Xbox de Microsoft, PlayStation de Sony, ordinateurs, tablettes et smartphones), la société Mojang aurait réalisé en 2013 un chiffre d’affaires de 291 millions de dollars pour un résultat net de 115 millions (d’après des médias aux Etats-Unis). Minecraft, qui en est à la version
1.8 disponible depuis début septembre, a par ailleurs lancé en décembre dernier
une version pour mobile, « Pocket Edition », qui a rencontré un large succès (1).

Pour Microsoft, qui renforce ainsi la division jeux vidéo pour sa console Xbox passée
à la huitième génération (2) avec la Xbox One, ce jeux dématérialisé et free-to-play
de Lego virtuel le propulse sur le marché des jeux en ligne dits « massivement multijoueurs » – appelés MMOG dans le jargon, pour Massively Multiplayer Online Game, ou MMO. Jouez gratuitement et ne payez que des options : tel est le principe de ces jeux vidéo freeto- play (ou free2play) qui représentent maintenant plus de la moitié des titres vidéoludiques.
Après les succès de « Clash of Clans » de Supercell, « Candy Crush Saga » de
King Digital Entertainment, « Star Wars: The Old Republic » d’EA, « Gotham City Imposteurs » de Warner Interactive ou encore « Aion » de NC Soft, ce modèle économique a fait ses preuves. Même le best-seller en ligne « World of Warcraft » d’Activision, qui fêtera ses dix ans le 23 novembre prochain (7,6 millions abonnés,
a fait un premier pas vers le free2play en 2011.
Le marché mondial du jeu vidéo, équipements inclus, pesait 53,9 milliards d’euros
en 2013 et devrait atteindre 82,1 milliards en 2017, selon les estimations de l’Idate,
ce qui représente une croissance annuelle moyenne de 11 %. La dématérialisation de la distribution de jeux vidéo et le paiement online sur tous les écrans ont commencé à prendre le relais : les jeux en ligne génèrent aujourd’hui plus de la moitié des revenus mondiaux et s’arrogeront environ les deux tiers en 2017. @

VOD : Rakuten lance une bêta publique de Wuaki

En fait. Le 25 septembre, Wuaki, la plateforme de VOD du groupe japonais Rakuten, a lancé en France sa bêta publique. Elle était depuis début septembre en test privé auprès des clients PriceMinister (autre filiale de Rakuten). Après la vidéo à l’acte, la VOD par abonnement sera lancée pour contrer Netflix.

En clair. Le 3 septembre, le japonais a grillé partiellement la politesse à Netflix (1)
en lançant en France Wuaki, son service de vidéo à la demande (VOD). Mais il ne s’agissait alors que d’une version test : la « bêta privée » était exclusivement accessible à quelques clients de PriceMinister, la plateforme de e-commerce française créée par Pierre Kosciusko-Morizet (2) et rachetée par Rakuten en juin 2010. Cette fois, le service Wuaki.tv est véritablement lancé dans sa version « bêta publique ». La France est le troisième pays européen où est lancé ce service de VOD, après l’Espagne et le Royaume-Uni (où Rakuten avait aussi racheté Play.com en 2011), et bientôt l’Allemagne.

Rakuten avait racheté en juin 2012 la société espagnole Wuaki, laquelle avait été créée en 1999 à Barcelone par Jacinto Roca. Pour asseoir sa présence internationale en matière de VOD, Rakuten avait aussi racheté en septembre 2013 Viki, une plateforme de VOD en streaming (séries, films, clips, …) basée à Singapour. Wuaki compte plus de 1,5 million d’utilisateurs dans le monde. Ce qui est encore bien loin des 50 millions d’abonnés de Netflix, qui s’est lancé en France le 15 septembre dernier et est déjà présent dans une douzaine de pays en Europe. Mais Rakuten espère profiter de l’effet de levier des 20 millions de clients que compte PriceMinister. Si le Wuaki français propose dans un premier temps de la VOD à l’acte ou à la location, pour offrir des films plus récents que sur Netflix, une offre de VOD par abonnement (SVOD) sera lancée comme en Espagne et au Royaume-Uni. De même, si le service n’est accessible pour l’instant qu’à partir de son site web Wuaki.tv, il sera à terme disponible à partir d’applications.

Rappelons que le 17 février dernier, Laurent Fabius, ministre des Affaires étrangères,
a remis la Légion d’honneur au milliardaire et ancien banquier Hiroshi Mikitani, fondateur et PDG du groupe japonais Rakuten. La diversification du géant japonais
du e-commerce Rakuten dans les contenus (3) se joue aussi sur le terrain du livre numérique, avec l’acquisition fin 2011 du canadien Kobo (partenaire de la Fnac en France), ainsi qu’une gamme de liseuses numériques. Par ailleurs, Rakuten a
racheté en février Viber Media (concurrent de Skype) pour 900 millions de dollars
et envisagerait de lancer un concurrent de Airbnb, site Internet de locations courtes
de logements. @

La RNT attend toujours le soutien des pouvoirs publics

En fait. Le 22 septembre, le Syndicat national des radios libres (SNRL) s’est étonné – trois mois après le lancement historique de la radio numérique terrestre (RNT) à Marseille, Nice et Paris (soit 20 % de la population française couverte) – du « silence assourdissant » du CSA et du gouvernement.

En clair. La RNT semble moribonde en France, alors qu’elle bénéficie des encouragements des pouvoirs publics dans d’autres pays européens, voire ailleurs dans le monde. Le WorldDMB, chargé de promouvoir la technologie DAB à l’international, le démontre dans le suivi des déploiements. Mais en France, ni le groupe public Radio France (donc l’Etat actionnaire), ni les grands groupes privés Lagardère, RTL Group, NRJ Group et NextRadioTV ne participent à son lancement, estimant la RNT non viable économiquement. Ils font bande à part (1). C’est donc à reculons que le Conseil supérieur de l’audiovisuel (CSA) s’est résolu au bout de cinq ans (2) à lancer la première étape sur les villes de Nice, Marseille et Paris, sans que l’on ne sache quand seront lancés les prochains appels d’offres pour les autres villes.

Quelques jours après le lancement historique – le 20 juin – de la RNT, le Syndicat des industriels de matériels audiovisuels et électroniques (Simavelec) dénonçait « un jeu de dupes » et demandait plus de visibilité au gouvernement. Sinon, « dans les conditions actuelles, la RNT… ce sera sans nous ! », ont prévenu les fabricants d’appareils grand public. De par la loi française, ils sont obligés d’intégrer dans les dix-huit mois à la fois le DAB+ (désormais utilisé par la RNT) et le T-DMB (« technologie spécifique à la France » et inutilisée…). « Un radioréveil en DAB+ et en T-DMB est une aberration »,
a déploré le Simavelec, regrettant que tout cela soit pour « seulement et uniquement, 20 % de la population ».

Trois mois depuis cet appel de la part des industriels, rien n’a bougé. Tandis que
le CSA, qui considère le lancement à Paris, Marseille et Nice comme « une phase expérimentale », est entré dans une sorte de quiet period sur ce sujet avant de rendre au Parlement « à l’automne » (avec un an de retard) son rapport sur la RNT. « Le nouveau gouvernement et le Parlement préparent de leur côté le projet de loi de Finances 2015 qui devra nécessairement tenir compte de cette nouvelle étape », considère de son côté le Syndicat national des radios libres (SNRL), qui espère
une aide financière aux radios de la RNT via le Fonds de soutien à l’expression radiophonique (FSER). Le président du SNRL, Emmanuel Boutterin, vient justement d’écrire en ce sens à la nouvelle ministre de la Culture et de la Communication Fleur Pellerin. @