L’audio digital a trouvé son public et ses marques

En fait. Le 24 janvier, au Salon de la Radio et de l’Audio digital, Marianne Le Vavasseur, directrice de la régie publicitaire de Deezer, a présenté le « Livre blanc de l’Audio digital 2020 » – publié par le Groupement des éditeurs et de services en ligne (Geste) et l’IAB France. C’est la troisième édition.

En clair. Huit ans après la toute première édition, quatre ans après la seconde, le Groupement des éditeurs et de services en ligne (Geste) et l’Interactive Advertising Bureau France (IAB France) publient la troisième édition du « Livre blanc de l’Audio digital ». Alors que le marché des podcasts replay (1) et natifs (2) explose depuis quatre ans et que les enceintes connectées avec leur assistant vocal mettent les radios, les plateformes de streaming et les agrégateurs à portée de voix, sans oublier le livre audio, un nouvel état des lieux de l’écosystème de l’audio digital est le bienvenu. « L’offre étant protéiforme et en pleine construction, il nous a semblé nécessaire de préciser les usages, les audiences, les acteurs, les évolutions technologiques et les opportunités pour les marques », justifient le Geste et l’IAB France.
Selon la mesure d’audience « Internet global Radio et Musique », publiée par ailleurs par Médiamétrie et le Geste, la barre des 40 millions d’internautes ayant visité au moins un site web ou une application de radio/musique a été franchie en septembre 2019 – soit un bond de 5 millions d’internautes de plus en un an. « Le développement de nouveaux formats et de nouveaux modes d’accès aux contenus audio laisse présager d’une poursuite de cette croissance dans les mois à venir », prévoit Marianne Le Vavasseur, coprésidente de la commission Audio digital du Geste (3). Parmi ces auditeurs de contenus, 84,1 % s’y connectent via un smartphone. Et un tiers en écoute chaque jour. En outre, 40,3 % d’entre eux ont écouté dans le mois la radio sur Internet ou webradios, 37,5 % de la musique en ligne, 22,8 % des podcasts et 5,2 % un livre audio. Le marché publicitaire, lui, s’organise : « Les achats se font majoritairement au CPM [coût pour mille impressions, ndlr]. L’achat au forfait ou le sponsoring d’un contenu permet également aux annonceurs de parrainer une série, une ou plusieurs thématiques (…). Ce sponsoring peut prendre la forme d’un format dit “host-read” sur certains podcasts natifs. C’est une annonce lue par la personne animant le podcast avant le lancement du contenu éditorial à proprement parlé », explique l’ouvrage de référence (4). Pour autant, « l’essor économique de ce marché ne pourra se faire sans une mesure d’audience fiable et partagée par tous. Ce chantier sera, sans aucun doute, celui de cette nouvelle décennie ». @

Les universitaires du Stigler Center signent un rapport accablant sur les plateformes numériques

Google, Facebook, Amazon, Apple, Microsoft, … Les plateformes digitales sont passées au crible par des universitaires du centre Stigler. Conclusion : les GAFA sont devenus tellement incontournables qu’il faut ouvrir leurs infrastructures et données aux nouveaux entrants. Réguler s’impose.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

Réunis au sein du prestigieux Stigler Center de l’université de Chicago, une trentaine d’universitaires (1) dénoncent la puissance des grandes plateformes numériques. Leur rapport intitulé « Stigler Committee on Digital Platforms » (2) compare les GAFA aux lobbies du passé (tabac, pétrole, finance, télécoms), et plaide pour une régulation, notamment pour éviter les effets d’addiction. On ne s’attendait pas à des accusations aussi virulentes venant de l’université de Chicago Business School, réputée pour ses positions anti-régulation.

Digital Platforms et « kill zones »
Le rapport « Stigler » met en exergue la difficulté pour un nouvel entrant de pénétrer un quelconque marché numérique qui concernerait l’une des grandes plateformes déjà en place. D’une part, les plateformes sont souvent des intermédiaires indispensables pour permettre à un nouvel entrant d’accéder au public, via les magasins d’application et les systèmes d’exploitation mobile. Or, cette position privilégiée permet aux plateformes numériques d’observer la progression du nouvel entrant et d’ajuster leur stratégie en conséquence (3). D’autre part, les plateformes ont tendance à racheter tout nouvel entrant qui présenterait un risque potentiel. Le rapport évoque une baisse d’investissement en capital-risque pour toute activité touchant aux domaines des « Digital Platforms » (l’acronyme GAFA n’est jamais utilisé par les auteurs). Les fonds de capital-risque considèrent ces activités hors limites (« kill zones »), où le taux de mortalité des nouveaux entrants est trop élevé pour investir. Pour remédier à ces problèmes, le rapport « Stigler » préconise un régime d’interopérabilité et d’interconnexion similaire à ce qui existe en télécommunications, et plus récemment en services de paiement, via la directive européenne « DSP2 ». Ainsi, un nouvel entrant pourrait s’appuyer en partie sur les infrastructures et données des plateformes pour proposer un nouveau service, sans que les plateformes puissent objecter, ni appliquer des redevances excessives. Sans aller jusqu’au démantèlement des GAFA, le rapport propose la création d’une autorité de régulation numérique spécialisée, à l’image de la FCC (le régulateur fédéral américain des télécoms), qui pourrait imposer des remèdes spécifiques en cas de refus d’interopérabilité. Pour empêcher les plateformes de racheter tout concurrent potentiel, les experts du Stigler Center préconisent un régime d’autorisation quasi systématique pour les opérations de concentration menées par les grandes plateformes. Actuellement, beaucoup d’opérations de fusion-acquisition tombent en dessous des seuils de notification. Les experts proposent d’abaisser ces seuils, afin que la quasi-totalité des opérations de fusions et acquisitions de grandes plateformes soient examinées.
Le rapport souligne que les services gratuits ne sont jamais gratuits, mais sont plutôt rémunérés en nature par les données fournies par les utilisateurs. Les plateformes se rémunèrent par ailleurs sur l’autre côté de leur marché biface, en appliquant des tarifs élevés d’intermédiation en matière de publicité (4). Selon le rapport, les autorités de concurrence doivent tenir compte de la qualité du service comme un élément du prix : une baisse dans la qualité du service – par exemple des conditions générales déséquilibrées, ou une faible protection des données personnelles – équivaut à une augmentation du prix pour l’utilisateur, signe d’un pouvoir sur le marché. Pour souligner la grande valeur des données générées par les utilisateurs, le rapport « Stigler » cite l’exemple de moteurs de recherche concurrents à Google qui proposent une forme de compensation aux internautes en échange de l’utilisation de leurs données, par exemple la plantation d’arbres pour lutter contre la déforestation (Ecosia) ou un programme de points de fidélité (Bing). Malgré ces incitations, la position de Google sur le marché des moteurs de recherche semble inébranlable.

Monopoles naturels et risque d’addiction
Le rapport n’exclut pas que certaines activités – par exemple, l’activité de moteur de recherche – puissent constituer des monopoles naturels, à savoir des activités pour lesquelles il serait normal et efficace de n’avoir qu’un seul opérateur. Mais dans ce cas, la régulation s’impose. Le rapport évoque l’idée d’imposer des obligations renforcées de loyauté et de transparence (fiduciary duty). Selon les sages du centre Stigler, un autre danger vient de la manipulation des usagers et de l’addiction : « Ajouter un phénomène d’addiction à une situation monopole et vous avez probablement la pire combinaison imaginable », selon eux (5). Ils demandent à ce que les phénomènes d’addiction soient étudiés à part entière, et que les plateformes ouvrent leurs données afin de faciliter ces recherches. Le rapport montre en outre que le journalisme est une victime collatérale des GAFA. La baisse de recettes publicitaires conduit à la quasi-disparition de la presse locale et régionale aux Etats-Unis. Les auteurs du rapport soulignent que la disparition de la presse locale n’est pas critiquable en soit, car de nombreuses industries disparaissent à cause de bouleversements technologiques – la « destruction créatrice » est un phénomène normal, notent les sages.

Presse : menaces sur le journalisme
Le problème réside plutôt dans l’absence d’alternatifs pour remplir le vide laissé par la presse locale, une presse qui contribue à la transparence de la politique locale et encourage l’engagement politique des citoyens. Or, les grandes plateformes ont peu d’incitations à promouvoir un journalisme d’investigation au niveau local, ni même à limiter la désinformation sur leurs réseaux. Les incitations vont plutôt dans le sens opposé, les algorithmes cherchant à maximiser l’engagement individuel de l’utilisateurs, une maximisation qui passe par la recommandation de contenus correspondant à la « bulle d’information » de l’utilisateur, et à la proposition de contenus accrocheurs voire choquants. L’absence de responsabilité des plateformes (6) crée une distorsion par rapport à la presse traditionnelle, selon les experts du Stigler Center. Ils proposent d’abolir cette protection lorsque les plateformes poussent des contenus vers l’utilisateur et bénéficient de recettes publicitaires. En ce qui concerne la protection du journalisme local, le groupe d’experts préconise l’expérimentation de différentes approches réglementaires au niveau local (7).
En matière de protection des données à caractère personnel cette fois, les auteurs du rapport « Stigler » constatent la futilité de s’appuyer sur un régime de consentement libre et éclairé. Les plateformes comprennent les faiblesses humaines et les biais en tout genre. L’une des propositions du rapport est d’imposer aux plateformes des paramètres par défaut qui correspondraient à ce que souhaiterait une majorité des utilisateurs. Un régulateur ou autre organisme indépendant conduirait des études scientifiques pour déterminer ce que souhaite la majorité des utilisateurs , et les entreprises seraient tenues d’appliquer ces préférences par défaut. Ces préconisations rejoignent l’approche européenne, à ceci près que le niveau minimum de protection serait fixé en fonction des attentes de la majorité des internautes, mesurées par des chercheurs indépendants. Le rapport souligne l’impact très positif des plateformes sur la liberté d’expression. Mais, en même temps, il s’inquiète du pouvoir sans précédent des plateformes sur le plan politique. Ses auteurs estiment que les sociétés Google et Facebook cumulent le pouvoir politique réuni d’ExxonMobil, du New York Times, de JPMorgan Chase, de la NRA (National Rifle Association) et de Boeing. De plus, cette puissance se concentre entre les mains de seulement trois individus, Mark Zuckerberg, Sergey Brin et Larry Page : « Trois personnes disposent d’un contrôle absolu sur les flux d’informations personnalisées et obscures de milliards d’individus » (8) s’inquiètent les sages. Le rapport préconise des obligations de transparence accrues, notamment sur les financements des campagnes politiques, ainsi que par rapport à toute pratique « non-neutre » à l’égard des messages politiques. Cette étude du Stigler Center est riche, bien étayée, mais surprenante par son agressivité à l’égard les GAFA, une agressivité que l’on trouve plus habituellement dans la bouche de personnages politiques, tels que la candidate démocrate à la présidence Elizabeth Warren. Surtout, les auteurs du rapport semblent oublier qu’il y a seulement quelques années, le monde académique était très divisé sur le pouvoir des GAFA et le rôle de la régulation. Une partie importante des universitaires restait prudente sur l’idée de réguler les plateformes numériques, estimant que la régulation était un outil trop rigide pour un marché en forte évolution technologique, et que le meilleur remède contre le pouvoir des plateformes était l’innovation technologique (9). Il est regrettable que le nouveau rapport n’ait pas examiné ces arguments, ne serait-ce que pour expliquer pourquoi les circonstances ont changé. @

* Winston Maxwell, ancien avocat associé du cabinet Hogan
Lovells, est depuis juin 2019 directeur d’études, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.

FOCUS

Neutralité de l’Internet : champ libre à la Californie pour légiférer
Peu après l’élection de Donald Trump, la FCC a annulé la plupart des dispositions qu’elle avait prises en matière de neutralité de l’Internet pour revenir à une position plus libérale. Ce revirement du régulateur fédéral américain des télécoms a été attaqué en justice par les défendeurs de la neutralité, dont la fondation Mozilla. Dans sa décision du 1er octobre 2019 (10), la cour d’appel a conclu que la FCC était en droit de changer sa position, puisque le texte de la loi fédérale sur les télécommunications est ambigu sur la régulation de l’Internet, et la FCC a de nouveaux arguments crédibles pour fonder son changement de position. Saluée par Donald Trump comme une victoire, la décision de la cour d’appel est en réalité un cadeau empoisonné pour la FCC, car la cour laisse le champ libre aux Etats fédérés pour adopter leurs propres lois sur la neutralité. Selon la cour, la FCC ne peut pas à la fois dire que l’Internet ne tombe pas dans son domaine de régulation, et en même temps empêcher les Etats américains de légiférer. Du coup, la Californie, qui a adopté un texte sur la neutralité du Net en 2018, se retrouve confortée dans sa législation. Comme en matière de protection des données à caractère personnel, la loi californienne deviendra peut-être la nouvelle norme nationale, à moins que la décision de la cour d’appel du 1er octobre ne soit annulée par la Cour suprême des Etats-Unis. @

Le digital sera la 1re source de revenus des auteurs

En fait. Le 7 novembre, la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac) a publié son rapport 2019 sur les collectes mondiales des droits des créateurs (musique, audiovisuel, arts visuels, spectacle vivant et littérature) : 9,65 milliards d’euros en 2018, dont 1,64 milliard d’euros via le numérique.

En clair. Au rythme où va leur croissance – près de 30 % en un an, à 1,64 milliard d’euros grâce aux succès des services de streaming musical et de vidéo à la demande par abonnement (SVOD) –, les revenus issus du numérique devraient dans quelques années devenir la première source de rémunération des créateurs. La première région du monde qui s’apprête à franchir le Rubicon est l’Asie-Pacifique (Japon, Corée, Chine, inde, Australie, …). « Après des années de croissance régulière, en 2018, le secteur numérique génère 26,3 % des revenus, soit presque autant que la catégorie TV et radio [27,5 %, ndlr]. Si cette tendance se poursuit, l’Asie-Pacifique pourrait être la première région au monde à voir que le numérique devienne la première source de revenus des créateurs », indique la Cisac (1) dans son rapport.
Ce basculement historique du centre de gravité des droits des créateurs en Asie-Pacifique vers le numérique devrait, selon l’estimation de Edition Multimédi@, intervenir dès cette année 2019. Le poids des droits collectés issus de l’exploitation digitale des œuvres atteint en effet 26,3 % des revenus de cette région du monde. Ce ratio en Asie-Pacifique est même deux fois plus élevé qu’en Europe où le numérique ne pèse que 13,3 % de la collecte européenne. La seconde région, qui pourrait voir à son tour le numérique devenir première source de revenus collectés par les sociétés de gestion collective des droits d’auteur, est le Canada-Etats-Unis : la part des revenus du numérique y est déjà de 20,8 %. Et contre toute attente, l’Afrique affiche le troisième ratio le plus important – 14,7 % – en faveur du numérique, devant les 14,4 % de l’Amérique Latine et, on l’a vu, les 13,3 % de l’Europe (2). Alors même que le Vieux Continent reste encore largement la première région contributrice en termes de collectes globales (56,4 %, à 5,4 milliards d’euros en 2018), devant les régions Canada- Etas-Unis (22,6 %) et Asie-Pacifique (14,8 %).
Certes, mis à part l’Asie-Pacifique, on en est encore loin du basculement global vers le numérique des droits collectés : la télévision et la radio (39,2 %), le direct live (concerts et de festivals) et la musique d’ambiance (28,6 %), continuent de générer l’essentiel de la collecte mondiale. Viennent ensuite le numérique (17 %), les CD et la vidéo sur support physique (6,8 %) ; la copie privée (3,8 %) et autres (4,6 %). A suivre. @

« Souveraineté numérique » : nationalisme digital ?

En fait. Le 3 octobre, la commission d’enquête du Sénat sur « la souveraineté numérique » a rendu son rapport rédigé par Gérard Longuet (LR) et Franck Montaugé (PS). Le problème est que la définition même de « souveraineté numérique » reste toujours floue à l’heure de l’Internet sans frontières.

En clair. On se souvient des Assises de la souveraineté numérique que l’agence de relations publiques Aromates a organisées de 2014 à 2017. « A l’ère de l’Internet des objets et de la blockchain, la vision naïve ou romantique d’un numérique libertaire est devenu dangereuse et il est grand temps que la France se dote d’une véritable et ambitieuse politique de souveraineté numérique », prévenait son président Jacques Marceau, lors de la quatrième et dernière édition de ces Assises de la souveraineté numérique (1). Le problème de la « souveraineté numérique » est son absence de définition. Aujourd’hui, avec le rapport sénatorial sur la souveraineté numérique rendu public le 3 octobre par Gérard Longuet (LR) et Franck Montaugé (PS), la signification de la souveraineté numérique laisse encore à désirer. S’agit-il d’une « souveraineté numérique national » (abordée cinq fois dans le rapport), de son équivalente « souveraineté numérique française » (évoquée six fois), voire d’un « nationalisme numérique » (dont il est question une fois) ? Ou bien parle-t-on de « souveraineté numérique européenne » (mentionnée qu’une fois) ? Et que recouvre-t-elle au juste cette « souveraineté numérique » ?
Est-elle partie intégrante de la « souveraineté nationale » (citée dix fois) ? Bref, le concept est à géométrie variable et floue, voire nationalistes (2). A l’heure du cyberespace sans frontières qu’est l’Internet, la souveraineté numérique sonne comme une ligne Maginot virtuelle qui relève plus de l’utopie défensive que de la Realpolitik offensive. La souveraineté numérique, est-ce instaurer « des frontières pour arrêter les nuages ? », pour reprendre le titre d’une tribune (3) de Jacques Marceau parue en 2014. Va-t-on vers un « patriotisme numérique » dans la foulée du « patriotisme économique » aux arrières-pensées protectionnistes ?
Le rapport sénatorial (4), qui rappelle l’échec du « cloud souverain » français, laisse toujours perplexe sur la notion de souveraineté numérique : « L’homme est moins un citoyen et un sujet de droit, mais de plus en plus une somme de données à exploiter. Ce n’est pas notre conception de la personne humaine, ce n’est pas non plus le modèle de société que nous portons et dans lequel s’incarnent nos valeurs de respect de tous et de chacun. La souveraineté numérique est donc la condition nécessaire et indispensable à la préservation de ces valeurs ». @

Commission européenne : la face digitale d’UVDL

En fait. Le 16 juillet, l’Allemande Ursula von der Leyen (UVDL) a été élue par les eurodéputés – d’une courte majorité (52,25 %) – à la présidence de la Commission européenne, où elle remplacera le 1er novembre prochain Jean-Claude Juncker.
Elle a présenté son agenda 2019-2024 pour l’Europe, encore plus digitale.

En clair. C’est la première femme élue à la tête de la Commission européenne (1). Il y a dix ans, alors ministre du Travail d’Angela Merkel, Ursula von der Leyen (UVDL) faisait du blocage de sites web pédopornographiques son cheval de bataille. Ce qui lui a valu le surnom de « Zensursula » (2). C’est face à elle que le Parti pirate allemand rencontre un succès électoral, jusqu’à son apogée en 2013. Avec aujourd’hui la lutte contre les contenus illicites en ligne et la cyberhaine, la chasse aux fausses nouvelles ou encore les mesures contre le piratage des œuvres protégées par le droit d’auteur, c’est à se demander si « Censursula » n’est finalement pas la bonne personne pour prendre la tête de la Commission européenne. Pour l’heure, l’ex-ministre allemande de la Défense (décembre 2013-juillet 2019) – issue du parti conservateur des chrétiens démocrates (CDU) – fait du numérique une de ses six priorités de son quinquennat européen (novembre 2019-novembre 2024). Dans ses « orientations politiques pour la prochaine Commission européenne » qu’elle a détaillées devant les eurodéputés le 16 juillet (3), le digital apparaît en troisième place de ses six ambitions. UVDL déclare que « l’Europe doit mener la transition vers une planète saine et un nouveau monde numérique ». Alors que la « taxe Moscovici » applicable aux GAFA est déjà sur son bureau à Bruxelles (lire en Une), elle se veut déterminée : « Je défendrai l’équité fiscale, que ce soit pour les entreprises physiques ou numériques, et je veillerai à ce que la fiscalité des Big Tech soit une priorité ».
Et de prévenir : « Si d’ici la fin de 2020 il n’y a toujours pas de solution mondiale [via l’OCDE, ndlr] pour une taxe numérique équitable, l’UE devrait agir seule ». Sous le leitmotiv « Une Europe digne de l’ère numérique », UVDL entend faire de l’intelligence artificielle (IA), de l’Internet des objets, des réseaux 5G ou encore de la blockchain, sur fond de « souveraineté technologique », des leviers de croissance pour l’Europe. « Au cours de mes 100 premiers jours au pouvoir, je proposerai une législation pour une approche européenne coordonnée sur les implications humaines et éthiques de l’intelligence artificielle. (…) Une nouvelle loi sur les services numériques – Digital Services Act – améliorera nos règles de responsabilité et de sécurité pour les plateformes, les services et les produits numériques », a-t-elle promis. @