La Commission européenne 2019-2024 part en quête d’un « leadership numérique » face aux GAFA et aux BATX

Entre le marteau des géants américains de l’Internet et l’enclume de leurs homologues chinois, la nouvelle Commission européenne, présidée par Ursula von der Leyen et installée depuis le 1er décembre, va tenter de s’imposer dans le monde numérique. Pas moins de quatre commissaires ont le digital au coeur de leurs attributions.

C’est d’abord sur les épaules de la Danoise Margrethe Vestager (photo) que repose la charge de faire « une Europe préparée à l’ère numérique ». Cet objectif est justement le libellé de ses attributions au sein de la nouvelle Commission européenne, dont elle a été nommée vice-présidente exécutive. Très redoutée des GAFA qu’elle a mis pour certains à l’amende lorsqu’elle était commissaire européenne en charge de la concurrence (2014-2019), la voici en haut de l’affiche dans cette Commission « Leyen » qui remplace la Commission « Juncker » et qui a pris ses quartiers à Bruxelles depuis le 1er décembre pour un mandat de cinq ans (2019-2024). Margrethe Vestager devra composer avec trois autres commissaires européens qui auront eux aussi affaire avec la stratégie digitale du Vieux Continent : la Bulgare Mariya Gabriel qui se retrouve avec le portefeuille « Innovation et Jeunesse » (après avoir été auparavant en charge de l’Economie et de la Société numériques), le Français Thierry Breton qui fait son entrée à Bruxelles avec la responsabilité du Marché intérieur, et le Belge Didier Reynders qui est aussi un nouveau venu pour prendre en charge la Justice. La réussite ou pas de « l’Europe digitale » dépend donc de ce « quadriumvirat » où chacun a de près ou de loin le numérique dans son portefeuille.

Vers une nouvelle « loi sur les services numériques »
« La transition numérique aura des répercussions sur tous les aspects de notre économie et de notre société. Votre tâche consistera à faire en sorte que l’Europe saisisse pleinement le potentiel de l’ère numérique et renforce sa capacité industrielle et d’innovation. Ce sera un élément-clé du renforcement de notre leadership technologique et de notre autonomie stratégique », a écrit la présidente de la nouvelle Commission européenne, Ursula von der Leyen, dans la lettre de mission qu’elle a adressée à Margrethe Vestager (1). Cela passera par une nouvelle stratégie à long terme pour l’avenir industriel de l’Europe, une maximisation de l’investissement dans la recherche et l’innovation, et une nouvelle stratégie pour les PME et les start-up, « notamment en réduisant la charge réglementaire et en leur permettant de tirer le meilleur parti de la numérisation ». Pour les cent premiers jours du mandat de Margrethe Vestager, la présidente de la Commission européenne lui demande de « coordonner les travaux sur une approche européenne de l’intelligence artificielle (IA), y compris ses implications humaines et éthiques », ainsi que d’« examiner comment utiliser et partager des mégadonnées (big data) non personnalisées pour développer de nouvelles technologies et de nouveaux modèles économiques créateurs de richesse pour nos sociétés et nos entreprises ».

Creative Europe 2021-2027 : 1,8 Md €
La nouvelle vice-présidente exécutive « pour une Europe préparée à l’ère numérique » devra en outre coordonner la mise à niveau des règles de responsabilité et de sécurité des plateformes, des services et des produits numériques dans le cadre d’une nouvelle « loi sur les services numériques » – Digital Services Act. Ce cadre concernera aussi les conditions de travail des travailleurs des plateformes numériques. Il s’agit là d’un projet législatif européen majeur pour le marché unique numérique que devra proposer en 2020 la Commission européenne pour adapter, voire remplacer à terme, la fameuse directive « E-commerce » de 2000. Celle-ci (2) garantit depuis vingt ans aux hébergeurs du Net, notamment aux plateformes de partage et aux réseaux sociaux une responsabilité limité vis-à-vis des contenus mis en ligne par leurs utilisateurs. La loi française pour la confiance dans l’économie numérique (LCEN) de 2004 a sanctuarisé dans le droit national ce régime de responsabilité partielle de l’hébergeur, ce qu’ont sans cesse voulu remettre en cause les industries culturelles dans leur lutte contre le piratage en ligne. Par ailleurs, Margrethe Vestager aura aussi à coordonner les travaux sur la taxe numérique (digital taxation) afin de trouver « un consensus au niveau international d’ici à la fin de 2020 » ou pour proposer « une fiscalité européenne équitable ». A l’instar de Margrethe Vestager, Mariya Gabriel passe de la Commission « Juncker » à la Commission « UVDL » (3) en changeant aussi de portefeuille. La Bulgare, francophone (4), devient commissaire européenne à l’Innovation et à la Jeunesse – après avoir été plus de deux ans à l’Economie et à la Société numériques (2017-2019). « Je veux, lui a écrit la présidente de la Commission européenne dans sa lettre de mission (5), que vous mettiez l’accent sur la culture et l’éducation numériques afin de combler l’écart en matière de compétences numériques. Vous devriez diriger la mise à jour du Plan d’action pour l’éducation numérique et examiner comment nous pouvons augmenter le nombre de cours ouverts en ligne. Vous devriez également vous pencher sur la façon d’accroître la sensibilisation dès le plus jeune âge à la désinformation et aux autres menaces en ligne ». Le Plan d’action en matière d’éducation numérique – Digital Education Action Plan (6) – a été lancé en janvier 2018 et sera mis en oeuvre par la Commission européenne d’ici la fin de 2020. Mariya Gabriel sera aussi coresponsable du Nouvel agenda pour la culture – New European Agenda for Culture (7) – adopté en mai 2018 avec un premier programme de travail 2019- 2022 fixé par le Conseil de l’Union européenne et publié au JOUE il y a un an (8). Parmi les cinq priorités culturelles à mettre en oeuvre : « un écosystème soutenant les artistes, les professionnels de la culture et de la création et les contenus européens » (mobilité des artistes, conditions salariales et de travail décentes, accès au financement et coopération transfrontière). Plus généralement, la nouvelle commissaire à l’Innovation et la Jeunesse devra « promouvoir les industries créatives comme catalyseur de l’innovation, de l’emploi et de la croissance et maximiser le potentiel de l’ambitieux programme “Creative Europe” ». Ce programme-cadre « Europe créative » – divisé en deux sous-programmes, Culture et Media – voit sa période 2014-2020 s’achever l’an prochain. Pour 2021-2027, le budget est prévu à un peu plus de 1,8 milliard d’euros, dont 58,4% pour le volet Media, 33 % pour le volet Culture et 8,6 % pour le volet trans-sectoriel (9). Mais l’examen du futur règlement se poursuivent au sein du Conseil de l’UE. Thierry Breton, lui, embrasse aussi le numérique dans son portefeuille « Marché intérieur », malgré les risques de conflits d’intérêts : il est dans l’histoire de l’UE le premier grand patron (Atos, France Télécom, Thomson, Bull) à devenir commissaire européen. Le 14 novembre, il a confirmé aux eurodéputés qu’il avait déjà vendu la totalité de ses actions (pour 45 millions d’euros, selon l’AMF) et démissionné de tout conseil d’administration. Son poste englobe l’économie et la société numériques, l’industrie et le marché unique, la Défense et l’espace (dont le « GPS » européen Galileo). « Je veux, lui a demandé UVDL dans sa lettre de mission (10), que vous participiez au travail de renforcement de la souveraineté technologique de l’Europe. Cela signifie qu’il faut investir dans la prochaine frontière des technologies, comme la chaîne de blocs (blockchain), l’informatique de haute performance, les algorithmes et les outils de partage et d’utilisation des données. Cela signifie également de définir conjointement des normes pour les réseaux 5G et les technologies de nouvelle génération ». Thierry Breton devra aussi coordonner l’Europe sur l’IA et la cybersécurité. Il contribuera en outre aux prochains Digital Services Act et Digital Education Action Plan.

A la recherche d’une IA éthique et humaine
Quant à Didier Reynders, à la Justice, il n’est pas en reste sur le digital. « Je veux, peut-on lire dans sa lettre de mission (11), que vous dirigiez le travail sur la protection des consommateurs, notamment pour les transactions transfrontalières et en ligne ». Il s’assurera que le RGPD sera complètement appliqué. Il contribuera à « la législation sur une approche coordonnée des implications humaines et éthiques de l’IA, en veillant à ce que les droits fondamentaux soient pleinement protégés à l’ère numérique ». Reste à savoir si la vice-présidente Margrethe Vestager réussira à faire de l’Europe une « championne numérique ». @

Charles de Laubier

Google Stadia devrait faire décoller le marché du « cloud gaming », au détriment de… Netflix

Google est le premier GAFAM à se lancer sur le marché mondial – encore embryonnaire – du « cloud gaming » avec Stadia, sa plateforme disponible puis le 19 novembre. Microsoft et Amazon seront les prochains, en 2020. Netflix pourrait être la première victime collatérale.

Contre toute attente, le numéro un mondial de la SVOD, Netflix, pourrait être la première victime collatérale de la plateforme Stadia que Google vient de lancer en Amérique du Nord et en Europe. Le PDG fondateur de Netflix, Reed Hastings, n’avait-il pas dit en janvier dernier que les jeux vidéo comme Fortnite, édité par Epic Games, ou des plateformes de jeux en streaming, comme Twitch d’Amazon, étaient bien plus des concurrents que ne l’étaient par exemple Amazon Prime Video ou HBO de WarnerMedia ?

Un « Netflix » potentiel du jeu vidéo en ligne
C’est la bataille des activités de divertissement chronophages qui se joue là. A part le sommeil, qui est un concurrent inévitable et incontournable, le temps disponible des utilisateurs-consommateurs est un « marché » à conquérir afin de retenir leur attention – d’autres auraient dit « capter une part quotidienne de “temps de cerveau disponible” » (1). Pour les GAFAM et les « Netflix » tournés vers le grand public, le premier défi à relever est celui de se faire une place dans l’économie de l’attention, qui consiste à retenir l’attention justement – véritable ressource rare – des utilisateurs déjà saturés de contenus en tout genre. « Pour nous, il s’agit de prendre du temps à d’autres activités de loisirs. Notre croissance est fondée sur la qualité de l’expérience, comparée à toutes les autres façons de passer du temps devant un écran », avait expliqué en début d’année Reed Hastings, tout en admettant qu’« [il] luttait et perdait davantage face à Fortnite que face à HBO ». Le patron de Netflix, avec ses 158 millions d’abonnés aujourd’hui dans le monde (dont 6 millions en France), s’est pourtant dit confiant à force de miser sur la qualité de l’expérience de ses clients. Mais cela suffira-t-il pour retenir tous ceux qui seront tentés d’aller s’abonner ailleurs, notamment chez Stadia de Google, ou chez le futur « xCloud » de Microsoft, voire auprès de PlayStation Now (PSN) de Sony (700.000 abonnés séduits depuis cinq ans), lorsque cela ne sera pas sur Prime Video d’Amazon en pleine offensive ?
La puissance de feu de Stadia, premier cloud gaming d’un géant du Net et que dirige Phil Harrison (photo), réside non seulement dans l’investissement que Google (filiale d’Alphabet) met dans son infrastructure mondiale de centre de données, mais aussi dans les capacités informatiques dédiées à sa nouvelle plateforme de jeux vidéo en ligne. Car en matière de cloud gaming, l’idée est que les abonnés vidéo-ludiques n’ont plus à se préoccuper de la performance de leur propre matériel et carte graphique : tout est dans le nuage et dans le réseau. Plus besoin d’installer une configuration de jeu suffisamment puissante, et donc coûteuse. Un écran – smartphone, tablette, télévision connectée, ordinateur – et une manette compatible feront l’affaire.
C’est la plateforme de cloud gaming qui s’adapte de façon optimale au terminal utilisé, tant en termes de puissance de calcul que de qualité vidéo. Toute la puissance informatique se situe sur les serveurs distants de Stadia. La définition de l’image (HD, ultra-HD, 4K ou 8K) et la réactivité du jeu (très faible temps de latence) reposent sur la puissance de calcul (processeurs performant) et la vitesse du réseau (bande passante élevée, sur la fibre optique et la future 5G). Ces méga-capacités délocalisées dans les nuages donnent naissant à un marché mondial des jeux vidéo complètement dématérialisés, puissance de calcul comprise. Le fait que l’utilisateur n’aura plus à investir dans du matériel trop coûteux tel que tour gaming, PC gamer, carte graphique full ou ultra HD, processeur graphique GPU (Graphics Processing Unit) ou multi-GPU, etc. Du coup, au-delà des geeks et aficionados du jeux vidéo déjà tout équipés, le cloud gaming devrait attirer un nouveau public de joueurs occasionnels (casual gamers). Le potentiel de ces utilisateurs familiaux prêts à s’abonner à un « Netflix » du jeu vidéo en ligne est évalué à plusieurs millions de personnes, voire à des dizaines de millions de nouveaux-venus à travers le monde.

Un marché mondial encore embryonnaire
Google proposera plusieurs abonnements, en fonction du profil des joueurs, à commencer cette année par « Stadia Pro » pour 9,99 dollars par mois. Depuis le lancement du 19 novembre dans une quinzaine de pays, Stadia propose pour l’instant 22 jeux vidéo et d’ici la fin de l’année une trentaine de titres. Mais, hormis l’effet « Noël », la vraie montée en charge de la plateforme de Google devrait intervenir durant l’année 2020 avec un catalogue plus étoffé et une offre de base encore plus grand public. Le marché mondial du cloud gaming permet ainsi aux joueurs en ligne de s’affranchir des contraintes matérielles avec des jeux vidéo totalement dématérialisés, bien plus que ne le permet les jeux en streaming où la puissance d’exécution dépend encore du niveau de gamme côté joueur.
Mais, pour l’heure, force est de constater que ce segment de marché est encore embryonnaire par rapport à la taille globale du jeu vidéo : le cloud gaming a généré à peine plus de 300 millions de dollars en 2018, sur un total mondial du jeu vidéo de 120 milliards de dollars. Autrement dit, si l’on se réfère à ces chiffres compilés par SuperData Research (groupe Nielsen) et l’Idate : le cloud gaming ne pèse qu’un quart de 1 % du marché ! En France, où le jeu vidéo (terminaux, équipements et jeux) totalise en 2018 un chiffre d’affaires de 4,9 milliards d’euros TTC, selon le Sell ; ou 3,6 milliards d’euros HT, selon l’Idate, le tout-dématérialisé est encore quasi-inexistant.

Microsoft et Amazon en embuscade
Les promesses de Google avec Stadia, premier GAFAM à débarquer sur ce marché naissant, seront attentivement scrutées, à commencer par le pionnier Sony qui a divisé par deux en octobre dernier le prix de son abonnement à PSN (à 9,99 dollars/9,99 euros par mois) pour s’aligner sur « Stadia Pro ». Si Stadia réussit à conquérir 10 millions de gamers en un an, l’Idate estime que Google aura réussi son pari.
De son côté, Microsoft se prépare activement en vue du lancement en 2020 de son « Project xCloud » pour ne pas se laisser distancer par Stadia. Le cloud gaming constitut surtout pour le « M » de GAFAM un relais de croissance potentiel, au moment où sa Xbox One montre des signes de faiblesse dans ses ventes qui stagnent. Il faut dire que sa console de huitième génération a fêté ses six ans d’existence le 22 novembre dernier. Or la neuvième génération, identifiée sous le nom de « Projet Scarlett » et dévoilée en juin dernier à la grand-messe E3 à Los Angeles, ne sera disponible que… fin 2020. Pour contrer Google, Microsoft a même annoncé au printemps dernier une alliance avec son rival de toujours Sony dans le jeu en streaming. Leur accord prévoit « des développements communs pour leurs services de jeux et contenus en streaming ». Le cloud gaming fait clairement partie du périmètre de cette alliance Microsoft-Sony. Le géant américain du logiciel pour PC et le fleuron nippon de l’électronique grand public vont ainsi conjuguer leurs savoir faire dans les jeux vidéo et dans le cloud, notamment avec Azure (2). Microsoft a posé des jalons dans le streaming vidéoludique avec Xbox Live et la diffusion en live de jeux en ligne en lançant en 2017 le service Mixer (3) pour concurrencer Twitch d’Amazon. Il y a un an, soit dix-huit mois après son lancement, Microsoft indiquait que Mixer avait séduit 20 millions d’utilisateurs mensuels. Le projet xCloud est un défi autrement plus élevé. A l’occasion de son événement X019 à Londres (mi-novembre), dédié à tout l’univers Xbox, la firme de Redmond a dévoilé la deuxième phase des développements du xCloud qui fait l’objet d’une version bêta aux Etats-Unis, en Grande-Bretagne et en Corée du Sud (non disponible en France à ce stade). Son ouverture en Europe est prévue en 2020.
Amazon, non seulement géant du e-commerce mais aussi géant du cloud avec sa filiale AWS (4), est lui aussi en embuscade. Déjà fort de sa plateforme Twitch, la plateforme de jeux vidéo en streaming rachetée en août 2014 pour 970 millions de dollars, Amazon pourrait aussi se lancer en 2020 dans le cloud gaming. En tout cas, le site Cnet.com a repéré une annonce d’emploi « New AWS Gaming Initiative » (5). Et qu’est-ce qui empêcherait la firme de Jeff Bezos de devenir dans la foulée éditeur de jeux vidéo ? A l’instar de Netflix qui a ses « Originals », les géants du cloud gaming en formation auront leurs jeux vidéo exclusifs produits par et pour eux-mêmes. Microsoft a déjà ses exclusivités-maison, comme « Gears 5 ». Sony en a quelques-uns tels que « God of War ». Google a fait développer par le studio Tequila Works son premier jeu exclusif, « Gylt », disponible sur Stadia.
Quant au chinois Tencent, il pourrait créer la surprise dans le cloud gaming avec son service Instant Play, depuis qu’il s’est allié en début d’année dans ce domaine à l’américain Intel. Les américains Valve et Nvidia, déjà positionnés avec leur plateforme de streaming respective – Steam et GeForce Now – sont également attendus au tournant. L’américain Electronic Arts, leader mondial des jeux vidéo, teste encore son « Project Atlas » (6) dans les nuages. Sans oublier la start-up française Blade qui a procédé à une nouvelle levée de fonds de 30 millions d’euros (soit au total 100 millions d’euros depuis sa création en 2015) pour accélérer le déploiement de son offre virtuelle Shadow (ordinateur dématérialisé pour jeux vidéo).

Développements pour tous écrans et Big Data
Pour les créateurs de jeux vidéo, le cloud gaming est d’ailleurs l’assurance de moins dépendre des performances plus ou moins à la hauteur des équipements des joueurs, tout en développant des jeux adaptés d’emblée à l’ensemble des terminaux et écrans accédant à une plateforme unique dans le nuage. Pour les plateformes, c’est pour elles l’opportunité d’accéder au Big Data que va générer massivement le cloud gaming intégrant un réseau social de gamers, afin d’exploiter à leur profit les données personnelles et les données de jeux pour adapter et faire évoluer leurs offres. @

Charles de Laubier

Médiamétrie s’apprête à désigner la personne qui succèdera à son PDG Bruno Chetaille, sur le départ

L’institut de mesure d’audience Médiamétrie aura un nouveau président pour ses
35 ans. Bruno Chetaille avait fait savoir, dès fin 2017 à son conseil d’adminis-tration, qu’il souhaitait partir. La personne qui lui succèdera fin mars 2020 va être désignée
le 25 septembre prochain. C’est un poste hautement stratégique mais exposé.

La troisième personne qui présidera Médiamétrie, après sa fondatrice Jacqueline Aglietta et son successeur Bruno Chetaille (photo), sera connue dans les prochains jours. « La décision sera prise lors du conseil d’administration de septembre. Le process suit son cours », indique à Edition Multimédi@ Raphaël de Andréis (1), président du comité de nomination de Médiamétrie, dont il est membre du conseil d’administration. Selon nos informations, cette réunion d’intronisation est fixée au 25 septembre. Bruno Chetaille avait signifié dès fin 2017 son souhait de partir. Afin de procéder au recrutement dans la plus grande sérénité et d’assurer le tuilage, la décision avait été prise en juin 2018 de prolonger le mandat de l’actuel PDG jusqu’à fin mars 2020.
Les auditions des candidats se sont déroulées durant cet été devant le comité de nomination par délégation du conseil d’administration, au sein duquel siègent aussi Delphine Ernotte (présidente de France Télévisions), Nicolas de Tavernost (président
du directeur du groupe M6), Ara Aprikian (directeur général adjoint de TF1 chargé des contenus), Sibyle Veil (présidente de Radio France), Frank Lanoux (vice-président d’Altice Media) ou encore Jean-Luc Chetrit (directeur général de l’Union des marques).

Nomination scrutée par les clients et coactionnaires
C’est que tout le monde médiatique et publicitaire que compte la France surveille comme le lait sur le feu le processus de désignation du troisième président de cette entreprise,
dont les mesures d’audience sont aussi déterminantes pour les grilles des programmes
que sensibles pour l’économie publicitaire des chaînes de télévision, des stations de radio, des sites web et même des salles de cinéma.
Chez Médiamétrie, rien ne se fait sans l’aval et le consensus des professionnels des médias, des annonceurs et des agences, dont certains détiennent chacun une participation minoritaire du capital de l’entreprise : côté médias (65 % du capital), Radio France, Europe 1 (Lagardère), SFR Média (Altice), TF1, France Télévisions, l’Ina, Canal+ ou encore M6 ; côté publicité (35 %), l’Union des marques, DDB (Omnicom), Dentsu Aegis, Havas Media, Publicis ou encore FCB. Désigner la personne qui présidera aux destinées d’un Médiamétrie de plus en plus digital, data, global et international nécessite une grande précision, afin de trouver le mouton à cinq pattes capable de relever les défis qui se présenteront à lui. Au moins trois noms ont circulé : Yannick Carriou (PDG de Teknowlogy/ex-CXP, ancien d’Ipsos Connect), Sébastien Danet (président d’IPG Mediabrands France, ancien de Publicis Media) et Denis Delmas (président du Cnam Incubateur, ancien de TNS-Sofres et d’Havas). Convaincants ? Aucun commentaire chez Médiamétrie.

Après les fortes turbulences du « Fungate »
La personne retenue devra avoir les épaules solides pour assumer la lourde responsabilité de ce tiers de confiance médiatique très exposé. Bruno Chetaille, PDG de Médiamétrie depuis décembre 2006, en est à son quatrième mandat. Sur les treize années passées à la tête de cet institut de mesure d’audience, ce fut sans doute le plus difficile. L’affaire dit « Fungate » a été éprouvante. Fun Radio (RTL Group/M6) s’est rendue coupable en 2016 d’avoir gonflé ses mesures d’audience au détriment des ses concurrentes, un animateur ayant conseillé à ses auditeurs de mentir aux enquêteurs de Médiamétrie. NRJ (NRJ, Chérie, Nostalgie, Rire & Chansons), Lagardère (Europe 1, RFM, Virgin Radio), Skyrock, les Indés Radios (131 radios) et NextRadioTV (Altice Média) s’en sont plaints et ont fait faire une enquête au Centre d’étude des supports de publicité (CESP). En décembre 2016, ils ont déposé plainte devant la justice pour « concurrence déloyale ». Cependant, au cours des deux années suivantes, quatre des plaignants – sans que RTL Group ne les désigne dans son dernier rapport annuel où il fait le point sur cette affaire – ont mis un terme à leur action en justice.
Le reste de la procédure est suspendue en attendant le rapport de l’expertise judiciaire demandée par Fun Radio en décembre 2017 et accordée par la Cour d’appel de Versailles. Selon RTL Group, ce rapport d’expertise judiciaire portant sur les corrections effectuées par Médiamétrie sur les audiences de Fun Radio qui les conteste, était attendu pour « le deuxième trimestre 2019 »… pas de nouvelle. Mi-2016, Médiamétrie avait suspendu les résultats d’audience de Fun Radio, avant de les réintégrés mais en les corrigeant à la baisse du premier semestre 2016 au premier semestre 2017. L’institut a justifié ces correctifs sur un an pour prendre en compte « un effet halo ». Contestant la méthode de calcul aboutissant, selon elle, à de « très lourdes corrections » de son audience, la radio « dancefloor » de RTL Group avait alors engagé un bras de fer judiciaire avec l’institut en l’accusant de « traitement discriminatoire depuis plus d’un an ». L’issue de ce « Fungate » dépendra donc des conclusions de l’expert. Par ailleurs, le 5 août dernier, des radios privées comme NRJ, RFM, Skyrock ou encore Virgin Radio ont contesté les sondages de Médiamétrie… en Corse. Ironie de l’histoire, Bruno Chetaille quittera Médiamétrie après cette zone de turbulences, lui qui a pris la succession de Jacqueline Aglietta dans une période également agitée. A l’époque, au printemps 2006, les chaînes de télévision et des agences de publicité avaient vivement reproché à Médiamétrie son retard dans la mesure des nouvelles chaînes de la TNT et dans les nouvelles technologies. Ces critiques auraient précipité le départ de sa fondatrice. Sous l’ère « Chetaille », l’entreprise de mesure d’audience a modernisé ses méthodes de calcul, étendu ses compétences aux nouveaux médias et est passée de 43 millions d’euros de chiffre d’affaires en 2005 à 102,7 millions en 2018. En janvier 2011, Médiamétrie publie les premières audiences TV intégrant le différé (2) grâce notamment à l’automatisation par watermarking. A partir d’octobre 2014, le fameux « Médiamat » (ex-Audimat) intègre le replay (catch up ou télé de rattrapage). Puis en janvier 2016, les résultats des chaînes cumulent les audiences en live (à l’antenne), en différé et en catch up TV (3). Depuis mars 2017, la durée d’écoute globale à domicile de la télévision comprend la consommation « 4 écrans » (téléviseur, ordinateur, tablette, smartphone), en live, en différé et en replay. La nouvelle génération d’audimètres est au format d’une tablette (appelée TVM3). « En 2020, la consommation hors du domicile sur un écran de TV (bar, gare, aéroport, lieux publics, etc.), mais aussi en vacances, en week-end ou encore dans la résidence secondaire, sera intégrée à la mesure de référence. Puis, elle intègrera aussi l’audience des programmes TV consommés sur les trois écrans Internet (ordinateur, tablette, smartphone) », indique Médiamétrie à Edition Multimédi@. Cette mesure hors domicile et plus individualisée est rendue possible grâce à un petit audimètre portable dont sont équipés 10.000 personnes constituant le panel.
Cependant, dans son audit annuel du Médiamat publié le 26 juillet dernier, le CESP recommande une meilleure prise en compte des plateformes OTT (4) telles que Netflix, et des nouveaux équipements comme les TV connectées, Apple TV ou encore Chromecast. Pour l’heure, Médiamétrie applique progressivement la mesure TV « 4 écrans » à certains OTT : depuis 2017 à Molotov et depuis 2018 à myCanal. Les services de SVOD Netflix et Amazon Prime Video devaient suivre. « Nous travaillons avec d’autres acteurs pour en étendre le périmètre », nous indique Médiamétrie, qui a déjà lancé en juin le « baromètre Netflix » des films et les séries les plus regardés sur ordinateur et mobile. Concernant la plateforme YouTube, elle est la première à intégrer la mesure Internet vidéo « 3 écrans », laquelle remplace depuis janvier la mesure vidéo Internet. La première publication de la mesure YouTube interviendra courant septembre.

Vers un standard commun de la data média
Côté radios, la mesure s’est faite jusque-là sur l’écoute directe sur poste de radio, autoradio, ordinateur, smartphone, baladeur ou encore tablette. Depuis cette année, le « Global audio » analyse désormais l’écoute de la radio, des web radios, des podcasts natifs, des plateformes de streaming musical ou encore des livres audios (5). Data, géolocalisation et programmatique se sont installés au coeur de la stratégie de Médiamétrie, qui, avec ses data scientists, a l’ambition de créer un standard commun de la data média en France. Une nouvelle ère s’ouvre. @

Charles de Laubier

Le marché mondial du cloud est en plein boom, au risque d’échapper aux régulateurs nationaux

Les services de cloud dans le monde devraient franchir cette année la barre des 200 milliards de dollars. Les « as a service » (activité, infrastructure, application, logiciel, …) et les mégadonnées du Big Data font les affaires des prestataires du cloud computing, où les GAFAM s’en donnent à coeur joie.

« Les services en nuage bouleversent vraiment l’industrie.
Les prestataires bénéficient de plus en plus de stratégies cloud-first d’entreprises. Ce que nous voyons maintenant
n’est que le début. D’ici 2022, la croissance de l’industrie
des services infonuagiques sera près de trois fois celle de l’ensemble des services numériques », prévient Sid Nag (photo), vice-président analyste chez Gartner.

Stratégies de cloud-first, voire de cloud-only
Le marché mondial du cloud devrait encore progresser de 17,5 % durant cette année 2019 pour franchir la barre des 200 milliards de dollars, à 214,3 milliards précisément. C’est du moins ce que prévoit le cabinet d’études international Gartner, qui a fait part
de ses projections début avril. Cette croissance exponentielle à deux chiffres a de quoi faire pâlir d’autres secteurs numériques. A ce rythme, après les 200 milliards de dollars franchis cette année, la barre des 300 milliards sera allègrement dépassée en 2022.
Le segment le plus dynamique de ce marché en plein boom est celui du cloud des infrastructures systèmes, appelé IaaS (Infrastructure as a Service), suivi par le cloud des infrastructures d’applications, appelé PaaS (Platform as a Service). La troisième plus forte croissance est aussi celle du premier segment du marché des nuages numériques, à savoir le cloud des services logiciel, appelé SaaS (Software as a Service), qui pèse à lui seul 43,8 % du marché en 2018 et devrait même en représenter 44,6 % en 2022. « D’ici la fin de l’année, plus de 30 % des nouveaux investissements des fournisseurs de technologie dans les logiciels passeront du cloud-firstau cloud-only. Cela signifie que la consommation de logiciels sous licence continuera de chuter, tandis que les modèles de consommation en nuage par abonnement et le SaaS continueront de croître », prévoit Gartner. Les segments du cloud les plus techniques tels que les processus opérationnels, désignés par BPaaS (Business Process as a Service), et le management et la sécurité, désignés a fortiori par MSaaS (Management and Security as a service), continueront de progresser mais dans une moindre mesure par rapport aux autres segments. On retrouve ces tendances d’évolution du marché infonuagiques en France, qui devrait passer de 5,1 milliards de dollars/4,6 milliards d’euros en 2018
à 8,6 milliards de dollars/7,6 milliards d’euros en 2022 (voir tableau ci-dessous). Sur l’Hexagone comme ailleurs, SaaS est le plus gros segment, suivi du BPaaS, de l’IaaS, du PaaS, puis du MSaS.
Selon l’organisme de statistiques européen Eurostat, 26 % des entreprises de l’Union européenne (UE) – soit plus d’une sur quatre – ont acheté des services de cloud computing l’an dernier. La proportion est majoritaire chez les grandes entreprises
(56 %) et bien moindre chez les petites et moyennes entreprises (23 %). La première utilisation qui est faite de ces prestations à distance dans le « nuage informatique » concerne la messagerie électronique (69 %), suivie de près par le stockage des fichiers sous forme dématérialisée (68 %). Viennent ensuite la puissance de calcul achetée pour faire fonctionner leurs propres logiciels (23 %) et l’utilisation de logiciels dans le cloud pour gérer les informations sur la clientèle (29 %).
Pour les entreprises en Europe qui exploitent le Big Data, soit 12 % d’entre elles, les mégadonnées proviennent de sources de données variées : près de la moitié ont d’abord analysé les données de géolocalisation des appareils portables, tels que les smartphones, des connexions sans fil comme le Wifi ou le GPS (49 %). Ensuite, les mégadonnées sont issues des données générées par les médias sociaux et réseaux sociaux (45 %), de dispositifs ou de capteurs intelligents (29 %) ou encore de données provenant d’autres sources (26 %). Si aujourd’hui le Big Data est une expression dépassée par l’IA (l’intelligence artificielle), l’IoT (l’Internet des objets) ou encore la Blockchain, le cloud, lui, prospère tant que les données s’affirment de plus en plus comme le pétrole du XXIe siècle – comme l’a encore montré la 8e édition du Big Data Paris en mars dernier (1).

Amazon et Microsoft en tête, suivis de Google
Le nuage informatique permet aux entreprises de créer un « lac de données », ou Data Lake (stockage des données dans leurs formats originaux ou peu modifiés), à partir duquel l’analyse des données et de leur valorisation peut s’opérer (data mining, marchine learning, business intelligence, cognitive search, master data management, …). Plus de dix ans après que l’expression « Big Data » ait été prononcée – le 22 décembre 2008 dans leur livre blanc (2) par trois chercheurs universitaires de la Computing Research Association américaine –, le cloud est un marché multimilliardaire à la croissance insolente. On estime que le tournant du cloud-first a été pris au cours des années 2013-2016, avec les GAFAM qui se sont engouffrés sur ce marché porteur pour leur plus grand profit. Amazon vient de doubler ses bénéfice grâce au cloud sur le premier trimestre 2019. Sa filiale AWS (Amazon Web Services), qui compte parmi ses clients Apple, Netflix ou encore Pinterest, est le numéro un mondial du secteur. Microsoft arrive en deuxième position grâce à Azure. Google Cloud est aussi à l’offensive avec le Français Sébastien Marotte, son vice-président pour la région EMEA. Le géant du Net compte parmi ses clients européens Airbus, Alstom, Sky, BNP Paribas, Drouot Digital, GRDF, Philips ou encore Veolia (3). L’entrée en vigueur il y a près d’un an en Europe – le 25 mai 2018 – du règlement général sur la protection des données (RGPD) ne semble pas freiner les ardeurs des GAFAM qui ont plus que jamais la tête dans les nuages. « Le “Cloud Act” américain est-il une menace pour les libertés des citoyens européens ? », s’était interrogé l’avocat franco-américain Winston Maxwell dans Edition Multimédi@ après l’affaire controversée « Microsoft » (4). Le Cloud Act fut adopté aux Etats-Unis il y a plus d’un an maintenant (5) – promulgué le 23 mars 2018. Ce texte de loi fédéral et sécuritaire américain prévoit une base juridique permettant
au gouvernement des Etats-Unis de conclure des accords avec des gouvernements étrangers concernant l’accès aux données détenues par les prestataires de services américains, et vice versa. En clair : les autorités publiques et les agences de renseignement américaines sont en droit d’obtenir – des opérateurs télécoms, des fournisseurs d’accès à Internet (FAI) et des fournisseurs de services de cloud – des informations et/ou enregistrements stockés sur leurs serveurs, que ces données et contenus « soient localisés à l’intérieur ou à l’extérieur des Etats-Unis ».

Cloud Act américain et RGPD européen
En outre, ce Cloud Act permet aux Etats-Unis de passer des accords bilatéraux avec d’autres pays, lesquels pourront à leur tour obtenir des informations de la part des fournisseurs de services américains. Or l’article 48 du RGDP dispose que « toute décision d’une juridiction ou d’une autorité administrative d’un pays tiers exigeant d’un responsable du traitement ou d’un sous-traitant qu’il transfère ou divulgue des données à caractère personnel ne peut être reconnue ou rendue exécutoire de quelque manière que ce soit qu’à la condition qu’elle soit fondée sur un accord international ». Mais dans son amicus brief de 2017 dans l’affaire « Microsoft » (6), la Commission européenne estime que le RGPD tolérait – malgré son article 48 – des transmissions de données notamment sur le fondement de l’intérêt légitime ou de l’intérêt public. @

Charles de Laubier

E-démocratie : la révolution numérique détruit-elle ou enrichit-elle la décision collective?

Cette question sera débattue lors du colloque « Quel avenir pour la décision collective en démocratie ? », le 23 novembre 2018 à l’Assemblée nationale (1).
Le digital permet d’envisager une e-démocratie , mais les citoyens doivent être aptes à déjouer les jeux d’influences et d’infox.

Fabrice Lorvo*, avocat associé, FTPA.

La révolution numérique nous invite à repenser la manière dont les « décisions collectives » (2) sont prises au niveau politique. A ce jour, la décision collective s’exerce sous forme de mandat. Les électeurs désignent des représentants à l’Assemblée nationale et aussi un Président qui nomme un gouvernement. Ce mandat est représentatif (c’est-à-dire général, libre et non révocable), mais pas impératif (3).

E-élaboration des décisions et des lois
Ce système trouvait notamment sa justification dans des contraintes d’espace et de temps. Techniquement, il était impossible – puis difficile ou coûteux – de consulter tous les citoyens en même temps. La révolution numérique nous affranchit dorénavant de ces contraintes. On doit dès lors se demander si ces nouvelles capacités techniques sont de nature à justifier une mutation profonde dans la prise de décision collective.
Le numérique est un outil qui permet de renforcer la décision collective. Du point de
vue technique, la miniaturisation et le développement des télécommunications mobiles permet d’envisager la mise en place d’une démocratie numérique (4) dont l’objectif est, par l’utilisation d’Internet, d’accroître et de faciliter une plus large participation des citoyens au processus de décision et d’action politique et, ainsi, d’améliorer la transparence du processus démocratique. Parallèlement, force est de constater qu’au niveau sociologique, l’acceptation par les citoyens d’une décision prise par une autorité au nom de la collectivité est de plus en plus relative. Toute décision ayant un impact sur plusieurs individus n’est aujourd’hui acceptable que si elle a été préalablement exposée et discutée (5). Cette nouvelle aspiration démocratique s’exerce au niveau de l’information sur la décision à prendre, du débat sur son opportunité et sur son périmètre. Il existe aussi de plus en plus de revendications des citoyens pour pouvoir aussi décider directement.
En France, plusieurs initiatives politiques ont été prise en 2017 pour organiser sur Internet une élection primaire ouverte à tous les citoyens (sous certaines conditions), afin de désigner un candidat à l’élection présidentielle (6). Il y a aussi aussi une aspiration grandissante à un processus de rédaction collaborative : des consultations sont notamment organisées par certains parlementaires (7) pour associer les citoyens à la rédaction de leurs propositions de loi. Le stade ultime de cette démocratie numérique étant de pouvoir consulter en temps réel les citoyens sur tous les sujets. Au-delà de l’enthousiasme que suscite le concept de renouvellement démocratique, on doit s’interroger sur les nombreuses contraintes qu’il implique. Parmi elles : la cybersécurité, d’une part, et la participation, d’autre part. L’évolution vers une démocratie numérique n’est concevable que si elle se réalise dans un environnement informatique entièrement sécurisé : ce que l’on voit à l’écran n’est pas forcément la réalité (8).
Il faut en outre s’assurer, pour les votes électroniques, que ceux qui s’expriment ont bien la qualité d’électeurs, et donc qu’ils sont humains. Concernant la participation cette fois, promouvoir la démocratie numérique suppose une confiance dans le bon sens commun et l’intelligence collective. Elle revient aussi à spéculer sur l’envie de la collectivité des citoyens d’y participer, sachant que l’abstention est en hausse constante depuis 1958. Si l’instauration d’une démocratie numérique ne coïncide pas, simultanément, avec une mobilisation citoyenne pour y participer, il est plus que probable que la démarche sera un échec. Au pire, la décision collective ne sera plus que l’expression de la volonté d’une minorité active ou de groupes d’intérêt. Ce renouvellement pose aussi une question socialement difficile à aborder, surtout dans l’environnement narcissique créé par le numérique : tout le monde peut-il ou doit-il avoir un avis sur tout ?

Intérêt général et intérêts particuliers
Les facilités techniques offertes par le numérique sont sans effet sur la complexité du processus d’élaboration d’une décision et notamment d’une loi. Une décision ne peut être prise qu’en considération de contraintes horizontales (une décision qui semble juste dans un domaine ne doit pas avoir pour effet de créer une injustice dans un autre) et de contraintes verticales (une décision doit prendre en considération à la fois notre passé pour des questions de cohérence et l’avenir, à savoir l’intérêt des générations futures). Les facilités précitées sont aussi sans effet sur la technicité de certains sujets qui ne peut être ignorée. Enfin, on doit se demander si tous les sujets peuvent faire l’objet d’une consultation ou d’une décision collective. En principe, les décisions doivent être prises en fonction d’objectifs dictés par l’intérêt général. Or ce dernier n’est pas mathématiquement la somme des intérêts particuliers. Prenons l’exemple du tabac,
qui est probablement l’un des plus grands fléaux de santé publique : pour réduire la consommation, le gouvernement a décidé un train de hausses successives des prix jusqu’en novembre 2020. Cette décision est objectivement pertinente d’un point de
vue social, mais il est peu probable qu’elle aurait fait consensus notamment dans la catégorie des fumeurs si les citoyens avaient été consultés. Certaines décisions doivent donc être prises contre l’intérêt immédiat de leurs bénéficiaires. De la même manière, le caractère d’intérêt général peut être reconnu par les citoyens tout en étant vigoureusement refusée par ceux qui ont à le subir (9).

Influence collective et manipulation
Le numérique est aussi un outil qui permet d’influencer la décision collective. Notre démocratie repose sur le postulat que l’électeur est capable (il sait ce qu’il fait). Cependant, cette capacité peut être fortement altérée par le numérique. Au niveau international, il existe dans l’histoire récente au moins deux cas aux Etats-Unis qui semblent le suggérer : en 2016, des autorités de sécurité intérieure américaines (10) (*) (**) ainsi que le FBI (11) ont dénoncé des interventions du gouvernement russe pour influencer les élections américaines (notamment par les révélations sur les e-mails d’Hillary Clinton publiés sur les sites DCLeaks.com and Wikileaks). Toujours en 2016,
il est prétendu que l’élection de Trump a pu être favorisée par le recours au Big Data. Le candidat Trump a fait appel à la société Cambridge Analytica dont l’activité consiste à fournir aux entreprises et aux mouvements politiques des stratégies et opérations de communication clés-en-main basées sur l’analyse des données à grande échelle. Cette société annonce « utiliser les données pour changer le comportement du public » . Comme l’a reconnu Facebook (12), Cambridge Analytica aurait siphonné les données de 87 millions des utilisateurs du réseau social pour identifier et solliciter dans la société civile américaine le très fort courant anti-élites qui pouvait favoriser l’émergence d’un candidat atypique.
Ces deux événements ont, de manières différentes, participé à influencer la décision collective dans le choix d’un Président en utilisant le numérique. La première a consisté à intervenir auprès de l’opinion publique pour discréditer un candidat par l’information ; la seconde a permis d’identifier et de solliciter des électeurs qui auraient pu être passifs, et ce uniquement en les ciblant à l’aide de leur data. S’agissant de la propagande, il a toujours existé un lien intime entre opinion publique et décision collective. En conséquence, les tentatives d’influence de l’opinion ne sont pas nouvelles. Cependant ces manipulations ont, avec le numérique, une efficacité nouvelle incommensurable du fait de l’immédiateté de la diffusion, de sa mondialité et de son caractère potentiellement viral. En d’autres termes, les outils de propagande devaient, par le passé (13), être fabriqués mais leurs sources permettaient de les identifier. Aujourd’hui, Internet et les réseaux sociaux constituent un espace existant, gratuit et souvent anonyme au niveau de la source. S’agissant des données collectées dans le monde numérique, leur utilisation va exposer notre société à des maux inédits. En effet, en principe, celui qui convoite les suffrages tente de faire adhérer le public à son projet. Aujourd’hui, avec l’analyse du Big Data, ce sont les algorithmes qui vont probablement prédire les convictions à affirmer et les personnes à solliciter.
Que ce soit par les infox (fake news) ou par le profilage avec des data, le numérique rend possible une sollicitation individuelle nouvelle qui permet d’agir sur le comportement des citoyens. Ces démarches semblent permettre l’activation des comportements individuels. Dans son dernier livre (14), l’historien israélien Yuval
Noah Harari parle de possibilité de « pirater les êtres humains ».
En conclusion, il est fort probable que le renouveau démocratique espéré par l’utilisation de l’outil digital aboutisse à un double effet. D’un côté, une amélioration visible de la décision collective par la création d’un lien plus étroit entre le citoyen et son représentant, avec deux types de flux (du représentant vers le citoyen en renforçant la transparence et l’information, et du citoyen vers le représentant pour l’expression d’une opinion). De l’autre, et « en même temps », une altération invisible de la décision collective du fait des interventions sur la volonté des citoyens (en utilisant l’émotion et l’intérêt individuel plutôt que la raison et l’intérêt collectif). L’un des principaux remparts pour lutter contre la manipulation des individus par « l’information », c’est de cultiver l’esprit critique de chaque citoyen et faire de l’éducation au média. Pour ne pas subir demain les effets négatifs de la révolution numérique, il faut plus que jamais investir aujourd’hui et massivement dans l’Ecole de la république. Nous commençons aussi à payer très cher la démarche de gratuité des médias, accélérée par le numérique. S’il n’est pas contestable que la presse soit « le chien de garde » de la démocratie, il faudrait rapidement réapprendre « à nourrir le chien ».

Une réflexion éthique s’impose
S’agissant des data, leur traitement de masse va jouer un rôle décisif très prochainement au niveau politique, et donc au niveau de la décision collective. Notre société a pris conscience de l’importance des données, notamment avec le RGPD (15). Il faut aller encore plus loin dans la réflexion sur qui doit contrôler les Big Data – le secteur privé ? L’Etat ? – et jusqu’où peut-on les utiliser ? On doit conserver à l’esprit que nous maîtrisons mal la portée de la nouvelle connaissance que nous apportera le Big Data. Dans l’exploration de ce nouveau monde, les envolées techniques permises par le numérique doivent plus que jamais être contrebalancées par une réflexion éthique. @

* Fabrice Lorvo est l’auteur du livre « Numérique : de la
révolution au naufrage ? », paru en 2016 chez Fauves Editions.