La SD Association (SDA), l’alliance industrielle des fameuses cartes SD, fête ses vingt ans… avec Huawei

En deux décennies d’existence, les cartes SD se sont vendues à plus de 5 milliards d’unités à travers le monde. La SD Association (SDA), qui en a fait un standard mondial lucratif pour ses industriels fondateurs (dont SanDisk et Panasonic), fête ses vingt ans. Leur puissance continue d’augmenter.

Qui ne connaît pas les cartes SD ? Ces petites cartes mémoire à grandes capacités devenues si familières à tous au fil de deux décennies. La SD Association (SDA), qui en fait la promotion mondiale, depuis l’invention en 1999 par SanDisk, Matsushita, et Toshiba de ce support de stockage dit Secure Digital (SD), fête ses vingt ans d’existence. La SDA, aujourd’hui présidée par Hiroyuki Sakamoto au côté de Yosi Pinto (photo), son président du conseil d’administration (1), fut créée en janvier 2000 et annoncée lors du CES de Las Vegas.

Huawei, brièvement évincé des membres
La carte SD, elle, a été conçue à partir de la MultiMediaCard (MMC) et a fourni la gestion des droits numériques basée sur la norme Secure Digital Music Initiative (SDMI). A l’origine, cette petite mémoire était destinée à concurrencer la Memory Stick qu’avait lancée Sony fin 1998 pour répondre aux exigences de DRM (Digital Rights Management) des professionnels de la musique pour se protéger du piratage numérique. Il y a dix ans, Sony a commencé à adopter le format SD sans pour autant laisser tomber sa « MS », qui disparaît cependant peu à peu. Composées des trois industriels fondateurs d’il y a vingt ans – Matsushita ayant été rebaptisé Panasonic, Sandisk étant devenu une filiale de Western Digital, et Toshiba s’étant séparé de sa division mémoire devenue Kioxia –, l’association SDA compte aujourd’hui 850 entreprises membres.
L’an dernier, Huawei a failli être définitivement chassé de l’organisation américaine basée en Californie à San Ramon (2). En prenant un décret le 15 mai 2019 interdisant aux opérateurs télécoms et aux entreprises de technologies américains de se fournir en équipements auprès de sociétés étrangères « à risque », Donald Trump a mis d’office le chinois sur liste noire. A l’instar de Google (licence Android) et d’autres Big Tech des Etats-Unis, la SDA avait exclu la firme de Shenzhen de ses membres. Mais, très rapidement l’association est revenue sur sa décision : « Huawei est membre de la SDA. Son accès à certains renseignements réservés à certains membres, comme les spécifications et les réunions techniques, a récemment été suspendu pour s’assurer de la conformité avec le règlement administratif des exportations des Etats-Unis. Le nom de Huawei était temporairement absent de notre liste de membres en raison d’un problème technique, qui a maintenant été corrigé », avait dû clarifier la SDA le 31 mai 2019 pour se justifier (3). Huawei est donc de la partie pour fêter les vingt ans de l’association de la carte SD. Cet anniversaire correspond aussi au franchissement de la barre des 5 milliards de ces petites cartes mémoire – SD, microSD et ultra-compact microSD (4) – vendues à ce jour à travers le monde. En sont dotés : smartphones, ordinateurs, consoles de jeux, appareils photo, caméras vidéo, tablettes, drones, téléviseurs, lecteurs audio, systèmes automobiles, ou encore de nombreux appareils de l’Internet des objets. « La norme SD est le choix numéro un des consommateurs ; elle a gagné plus de 90% du marché des cartes mémoire grâce à son interopérabilité fiable et à son format facile à utiliser », se félicite Hiroyuki Sakamoto. En deux décennie, la carte SD s’est imposée comme une norme quasi universelle aux performances étonnantes (5). La première carte SD vendue il y a vingt ans offrait une capacité de stockage de seulement 8 mégaoctets (Mo). Aujourd’hui, des cartes SDXC ou microSDXC sont disponibles à 1 téraoctet (To) (6).
Les récentes cartes ultra puissantes telles que la SD Express (juin 2018), la microSD Express (février 2019) ou encore la SDUC (pour Ultra Capacity) montrent que le filon de la carte SD n’est pas prêt de se tarir. Les spécifications SDUC, mais aussi SDHC et SDXC, permettent d’atteindre jusqu’à 128 To de capacité de stockage ! L’arrivée prochaine de la 5G devrait booster les ventes de la microSD Express. La rapidité du traitement des données (bus speed) a aussi augmenté, passant de 12 Mbits/s en 2000 à 985 Mbits/s en 2019. « Les données générées par les consommateurs et les entreprises dépendent des cartes mémoire SD pour garder leurs musiques, films, émissions télévisées, jeux et photos en sécurité et toujours à portée de main », souligne la SDA. En France, ces supports sont taxés « copie privée », avec un nouveau barème depuis le 1er février (7).

Standard mondial breveté et payant
Il y a vingt ans, l’utilisateur était confronté à environ une demi-douzaine de types de cartes mémoire, la plupart propriétaires et incompatibles entre elles et non-interopérables entre les différents appareils. La carte SD est devenue un standard du marché. Mais cette technologie est protégée par des brevets commerciaux et ses licences sont payantes (8). Elle est donc très éloignée d’un système ouvert (open source) comme la CompactFlash ou la mémoire flash USB, lesquelles n’imposent pas de royalties aux fabricants. @

Charles de Laubier

Quid au juste du Brexit numérique et audiovisuel ?

En fait. Le 31 janvier, à minuit, le Royaume-Uni a quitté l’Union européenne (UE) et ne fait donc plus partie des Etats membres, lesquels sont désormais vingt-sept. Une période transitoire s’est ouverte jusqu’au 31 décembre 2020, durant laquelle le droit de l’UE continuera de s’appliquer au Royaume-Uni. Et après ?

En clair. La date historique du 31 janvier 2020 est purement symbolique car rien ne change d’ici le 31 décembre prochain. L’Union européenne et le Royaume-Uni ont encore un peu plus de dix mois pour se mettre d’accord sur un nouveau partenariat. La Commission européenne, elle, adoptera le 3 février un projet de « directives de négociation complètes ». Rien ne change donc d’ici la fin de l’année. Mais que se passera-t-il à partir du 1er janvier 2021, si la période transitoire n’est pas prolongée pour une durée maximale d’un à deux ans ?
• Données personnelles : le Royaume-Uni continuera d’appliquer les règles européennes en matière de protection des données, dont le RGPD (1) avec le consentement sur les cookies, au « stock de données à caractère personnel » collectées lorsqu’il était encore un Etat membre. Et ce, jusqu’à ce que la Commission européenne constate formellement que les conditions de protection des données au Royaume-Uni sont « essentiellement équivalentes » à celles de l’UE.
• Frais d’itinérance (roaming) : les opérateurs mobiles des Vingt-sept seront en droit de réinstaurer avec le Royaume-Uni des frais d’itinérance pour les appels téléphoniques et les
communications SMS/MMS/Internet. Ces surcoûts pour les Européens avaient été supprimés en 2017 par la Commission européenne. A moins qu’un accord entre Londres et Bruxelles ne soit trouvé pour maintenir la gratuité du roaming.
• Droit d’auteur et droit voisin : les Etats membres de l’UE ont jusqu’au 7 juin 2021 pour transposer la directive de 2019 sur le droit d’auteur et le droit voisin « dans le marché unique numérique ». Or la Grande-Bretagne a fait savoir le 21 janvier dernier, par la voix de son secrétaire d’Etat Chris Skidmore (2), qu’elle n’a pas l’intention de le faire et donc de l’appliquer (3).
• Services de médias audiovisuel (SMA) : la directive européenne SMA, actualisée en 2018 pour prendre en compte les services à la demande (SMAd) tels que Netflix, Amazon Prime Video ou encore Disney+, ne sera plus appliquée outre-Manche. Disparaîtra aussi le principe du pays d’origine, sauf accord.
• Portabilité transfrontalière des services audiovisuels : le règlement européen de 2017 sur « la portabilité transfrontalière des services de contenu en ligne », applicable depuis le 20 mars 2018, sera lui aussi inopérant pour les Européens en Grande-Bretagne, sauf accord là aussi. @

L’audio digital a trouvé son public et ses marques

En fait. Le 24 janvier, au Salon de la Radio et de l’Audio digital, Marianne Le Vavasseur, directrice de la régie publicitaire de Deezer, a présenté le « Livre blanc de l’Audio digital 2020 » – publié par le Groupement des éditeurs et de services en ligne (Geste) et l’IAB France. C’est la troisième édition.

En clair. Huit ans après la toute première édition, quatre ans après la seconde, le Groupement des éditeurs et de services en ligne (Geste) et l’Interactive Advertising Bureau France (IAB France) publient la troisième édition du « Livre blanc de l’Audio digital ». Alors que le marché des podcasts replay (1) et natifs (2) explose depuis quatre ans et que les enceintes connectées avec leur assistant vocal mettent les radios, les plateformes de streaming et les agrégateurs à portée de voix, sans oublier le livre audio, un nouvel état des lieux de l’écosystème de l’audio digital est le bienvenu. « L’offre étant protéiforme et en pleine construction, il nous a semblé nécessaire de préciser les usages, les audiences, les acteurs, les évolutions technologiques et les opportunités pour les marques », justifient le Geste et l’IAB France.
Selon la mesure d’audience « Internet global Radio et Musique », publiée par ailleurs par Médiamétrie et le Geste, la barre des 40 millions d’internautes ayant visité au moins un site web ou une application de radio/musique a été franchie en septembre 2019 – soit un bond de 5 millions d’internautes de plus en un an. « Le développement de nouveaux formats et de nouveaux modes d’accès aux contenus audio laisse présager d’une poursuite de cette croissance dans les mois à venir », prévoit Marianne Le Vavasseur, coprésidente de la commission Audio digital du Geste (3). Parmi ces auditeurs de contenus, 84,1 % s’y connectent via un smartphone. Et un tiers en écoute chaque jour. En outre, 40,3 % d’entre eux ont écouté dans le mois la radio sur Internet ou webradios, 37,5 % de la musique en ligne, 22,8 % des podcasts et 5,2 % un livre audio. Le marché publicitaire, lui, s’organise : « Les achats se font majoritairement au CPM [coût pour mille impressions, ndlr]. L’achat au forfait ou le sponsoring d’un contenu permet également aux annonceurs de parrainer une série, une ou plusieurs thématiques (…). Ce sponsoring peut prendre la forme d’un format dit “host-read” sur certains podcasts natifs. C’est une annonce lue par la personne animant le podcast avant le lancement du contenu éditorial à proprement parlé », explique l’ouvrage de référence (4). Pour autant, « l’essor économique de ce marché ne pourra se faire sans une mesure d’audience fiable et partagée par tous. Ce chantier sera, sans aucun doute, celui de cette nouvelle décennie ». @

Les universitaires du Stigler Center signent un rapport accablant sur les plateformes numériques

Google, Facebook, Amazon, Apple, Microsoft, … Les plateformes digitales sont passées au crible par des universitaires du centre Stigler. Conclusion : les GAFA sont devenus tellement incontournables qu’il faut ouvrir leurs infrastructures et données aux nouveaux entrants. Réguler s’impose.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

Réunis au sein du prestigieux Stigler Center de l’université de Chicago, une trentaine d’universitaires (1) dénoncent la puissance des grandes plateformes numériques. Leur rapport intitulé « Stigler Committee on Digital Platforms » (2) compare les GAFA aux lobbies du passé (tabac, pétrole, finance, télécoms), et plaide pour une régulation, notamment pour éviter les effets d’addiction. On ne s’attendait pas à des accusations aussi virulentes venant de l’université de Chicago Business School, réputée pour ses positions anti-régulation.

Digital Platforms et « kill zones »
Le rapport « Stigler » met en exergue la difficulté pour un nouvel entrant de pénétrer un quelconque marché numérique qui concernerait l’une des grandes plateformes déjà en place. D’une part, les plateformes sont souvent des intermédiaires indispensables pour permettre à un nouvel entrant d’accéder au public, via les magasins d’application et les systèmes d’exploitation mobile. Or, cette position privilégiée permet aux plateformes numériques d’observer la progression du nouvel entrant et d’ajuster leur stratégie en conséquence (3). D’autre part, les plateformes ont tendance à racheter tout nouvel entrant qui présenterait un risque potentiel. Le rapport évoque une baisse d’investissement en capital-risque pour toute activité touchant aux domaines des « Digital Platforms » (l’acronyme GAFA n’est jamais utilisé par les auteurs). Les fonds de capital-risque considèrent ces activités hors limites (« kill zones »), où le taux de mortalité des nouveaux entrants est trop élevé pour investir. Pour remédier à ces problèmes, le rapport « Stigler » préconise un régime d’interopérabilité et d’interconnexion similaire à ce qui existe en télécommunications, et plus récemment en services de paiement, via la directive européenne « DSP2 ». Ainsi, un nouvel entrant pourrait s’appuyer en partie sur les infrastructures et données des plateformes pour proposer un nouveau service, sans que les plateformes puissent objecter, ni appliquer des redevances excessives. Sans aller jusqu’au démantèlement des GAFA, le rapport propose la création d’une autorité de régulation numérique spécialisée, à l’image de la FCC (le régulateur fédéral américain des télécoms), qui pourrait imposer des remèdes spécifiques en cas de refus d’interopérabilité. Pour empêcher les plateformes de racheter tout concurrent potentiel, les experts du Stigler Center préconisent un régime d’autorisation quasi systématique pour les opérations de concentration menées par les grandes plateformes. Actuellement, beaucoup d’opérations de fusion-acquisition tombent en dessous des seuils de notification. Les experts proposent d’abaisser ces seuils, afin que la quasi-totalité des opérations de fusions et acquisitions de grandes plateformes soient examinées.
Le rapport souligne que les services gratuits ne sont jamais gratuits, mais sont plutôt rémunérés en nature par les données fournies par les utilisateurs. Les plateformes se rémunèrent par ailleurs sur l’autre côté de leur marché biface, en appliquant des tarifs élevés d’intermédiation en matière de publicité (4). Selon le rapport, les autorités de concurrence doivent tenir compte de la qualité du service comme un élément du prix : une baisse dans la qualité du service – par exemple des conditions générales déséquilibrées, ou une faible protection des données personnelles – équivaut à une augmentation du prix pour l’utilisateur, signe d’un pouvoir sur le marché. Pour souligner la grande valeur des données générées par les utilisateurs, le rapport « Stigler » cite l’exemple de moteurs de recherche concurrents à Google qui proposent une forme de compensation aux internautes en échange de l’utilisation de leurs données, par exemple la plantation d’arbres pour lutter contre la déforestation (Ecosia) ou un programme de points de fidélité (Bing). Malgré ces incitations, la position de Google sur le marché des moteurs de recherche semble inébranlable.

Monopoles naturels et risque d’addiction
Le rapport n’exclut pas que certaines activités – par exemple, l’activité de moteur de recherche – puissent constituer des monopoles naturels, à savoir des activités pour lesquelles il serait normal et efficace de n’avoir qu’un seul opérateur. Mais dans ce cas, la régulation s’impose. Le rapport évoque l’idée d’imposer des obligations renforcées de loyauté et de transparence (fiduciary duty). Selon les sages du centre Stigler, un autre danger vient de la manipulation des usagers et de l’addiction : « Ajouter un phénomène d’addiction à une situation monopole et vous avez probablement la pire combinaison imaginable », selon eux (5). Ils demandent à ce que les phénomènes d’addiction soient étudiés à part entière, et que les plateformes ouvrent leurs données afin de faciliter ces recherches. Le rapport montre en outre que le journalisme est une victime collatérale des GAFA. La baisse de recettes publicitaires conduit à la quasi-disparition de la presse locale et régionale aux Etats-Unis. Les auteurs du rapport soulignent que la disparition de la presse locale n’est pas critiquable en soit, car de nombreuses industries disparaissent à cause de bouleversements technologiques – la « destruction créatrice » est un phénomène normal, notent les sages.

Presse : menaces sur le journalisme
Le problème réside plutôt dans l’absence d’alternatifs pour remplir le vide laissé par la presse locale, une presse qui contribue à la transparence de la politique locale et encourage l’engagement politique des citoyens. Or, les grandes plateformes ont peu d’incitations à promouvoir un journalisme d’investigation au niveau local, ni même à limiter la désinformation sur leurs réseaux. Les incitations vont plutôt dans le sens opposé, les algorithmes cherchant à maximiser l’engagement individuel de l’utilisateurs, une maximisation qui passe par la recommandation de contenus correspondant à la « bulle d’information » de l’utilisateur, et à la proposition de contenus accrocheurs voire choquants. L’absence de responsabilité des plateformes (6) crée une distorsion par rapport à la presse traditionnelle, selon les experts du Stigler Center. Ils proposent d’abolir cette protection lorsque les plateformes poussent des contenus vers l’utilisateur et bénéficient de recettes publicitaires. En ce qui concerne la protection du journalisme local, le groupe d’experts préconise l’expérimentation de différentes approches réglementaires au niveau local (7).
En matière de protection des données à caractère personnel cette fois, les auteurs du rapport « Stigler » constatent la futilité de s’appuyer sur un régime de consentement libre et éclairé. Les plateformes comprennent les faiblesses humaines et les biais en tout genre. L’une des propositions du rapport est d’imposer aux plateformes des paramètres par défaut qui correspondraient à ce que souhaiterait une majorité des utilisateurs. Un régulateur ou autre organisme indépendant conduirait des études scientifiques pour déterminer ce que souhaite la majorité des utilisateurs , et les entreprises seraient tenues d’appliquer ces préférences par défaut. Ces préconisations rejoignent l’approche européenne, à ceci près que le niveau minimum de protection serait fixé en fonction des attentes de la majorité des internautes, mesurées par des chercheurs indépendants. Le rapport souligne l’impact très positif des plateformes sur la liberté d’expression. Mais, en même temps, il s’inquiète du pouvoir sans précédent des plateformes sur le plan politique. Ses auteurs estiment que les sociétés Google et Facebook cumulent le pouvoir politique réuni d’ExxonMobil, du New York Times, de JPMorgan Chase, de la NRA (National Rifle Association) et de Boeing. De plus, cette puissance se concentre entre les mains de seulement trois individus, Mark Zuckerberg, Sergey Brin et Larry Page : « Trois personnes disposent d’un contrôle absolu sur les flux d’informations personnalisées et obscures de milliards d’individus » (8) s’inquiètent les sages. Le rapport préconise des obligations de transparence accrues, notamment sur les financements des campagnes politiques, ainsi que par rapport à toute pratique « non-neutre » à l’égard des messages politiques. Cette étude du Stigler Center est riche, bien étayée, mais surprenante par son agressivité à l’égard les GAFA, une agressivité que l’on trouve plus habituellement dans la bouche de personnages politiques, tels que la candidate démocrate à la présidence Elizabeth Warren. Surtout, les auteurs du rapport semblent oublier qu’il y a seulement quelques années, le monde académique était très divisé sur le pouvoir des GAFA et le rôle de la régulation. Une partie importante des universitaires restait prudente sur l’idée de réguler les plateformes numériques, estimant que la régulation était un outil trop rigide pour un marché en forte évolution technologique, et que le meilleur remède contre le pouvoir des plateformes était l’innovation technologique (9). Il est regrettable que le nouveau rapport n’ait pas examiné ces arguments, ne serait-ce que pour expliquer pourquoi les circonstances ont changé. @

* Winston Maxwell, ancien avocat associé du cabinet Hogan
Lovells, est depuis juin 2019 directeur d’études, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.

FOCUS

Neutralité de l’Internet : champ libre à la Californie pour légiférer
Peu après l’élection de Donald Trump, la FCC a annulé la plupart des dispositions qu’elle avait prises en matière de neutralité de l’Internet pour revenir à une position plus libérale. Ce revirement du régulateur fédéral américain des télécoms a été attaqué en justice par les défendeurs de la neutralité, dont la fondation Mozilla. Dans sa décision du 1er octobre 2019 (10), la cour d’appel a conclu que la FCC était en droit de changer sa position, puisque le texte de la loi fédérale sur les télécommunications est ambigu sur la régulation de l’Internet, et la FCC a de nouveaux arguments crédibles pour fonder son changement de position. Saluée par Donald Trump comme une victoire, la décision de la cour d’appel est en réalité un cadeau empoisonné pour la FCC, car la cour laisse le champ libre aux Etats fédérés pour adopter leurs propres lois sur la neutralité. Selon la cour, la FCC ne peut pas à la fois dire que l’Internet ne tombe pas dans son domaine de régulation, et en même temps empêcher les Etats américains de légiférer. Du coup, la Californie, qui a adopté un texte sur la neutralité du Net en 2018, se retrouve confortée dans sa législation. Comme en matière de protection des données à caractère personnel, la loi californienne deviendra peut-être la nouvelle norme nationale, à moins que la décision de la cour d’appel du 1er octobre ne soit annulée par la Cour suprême des Etats-Unis. @

Le digital sera la 1re source de revenus des auteurs

En fait. Le 7 novembre, la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac) a publié son rapport 2019 sur les collectes mondiales des droits des créateurs (musique, audiovisuel, arts visuels, spectacle vivant et littérature) : 9,65 milliards d’euros en 2018, dont 1,64 milliard d’euros via le numérique.

En clair. Au rythme où va leur croissance – près de 30 % en un an, à 1,64 milliard d’euros grâce aux succès des services de streaming musical et de vidéo à la demande par abonnement (SVOD) –, les revenus issus du numérique devraient dans quelques années devenir la première source de rémunération des créateurs. La première région du monde qui s’apprête à franchir le Rubicon est l’Asie-Pacifique (Japon, Corée, Chine, inde, Australie, …). « Après des années de croissance régulière, en 2018, le secteur numérique génère 26,3 % des revenus, soit presque autant que la catégorie TV et radio [27,5 %, ndlr]. Si cette tendance se poursuit, l’Asie-Pacifique pourrait être la première région au monde à voir que le numérique devienne la première source de revenus des créateurs », indique la Cisac (1) dans son rapport.
Ce basculement historique du centre de gravité des droits des créateurs en Asie-Pacifique vers le numérique devrait, selon l’estimation de Edition Multimédi@, intervenir dès cette année 2019. Le poids des droits collectés issus de l’exploitation digitale des œuvres atteint en effet 26,3 % des revenus de cette région du monde. Ce ratio en Asie-Pacifique est même deux fois plus élevé qu’en Europe où le numérique ne pèse que 13,3 % de la collecte européenne. La seconde région, qui pourrait voir à son tour le numérique devenir première source de revenus collectés par les sociétés de gestion collective des droits d’auteur, est le Canada-Etats-Unis : la part des revenus du numérique y est déjà de 20,8 %. Et contre toute attente, l’Afrique affiche le troisième ratio le plus important – 14,7 % – en faveur du numérique, devant les 14,4 % de l’Amérique Latine et, on l’a vu, les 13,3 % de l’Europe (2). Alors même que le Vieux Continent reste encore largement la première région contributrice en termes de collectes globales (56,4 %, à 5,4 milliards d’euros en 2018), devant les régions Canada- Etas-Unis (22,6 %) et Asie-Pacifique (14,8 %).
Certes, mis à part l’Asie-Pacifique, on en est encore loin du basculement global vers le numérique des droits collectés : la télévision et la radio (39,2 %), le direct live (concerts et de festivals) et la musique d’ambiance (28,6 %), continuent de générer l’essentiel de la collecte mondiale. Viennent ensuite le numérique (17 %), les CD et la vidéo sur support physique (6,8 %) ; la copie privée (3,8 %) et autres (4,6 %). A suivre. @