Le CFC va lancer sa plateforme Distre-presse

En fait. Le 16 mars, le Centre français d’exploitation du droit de copie (CFC)
a indiqué à EM@ que les tests techniques de sa plateforme Distre-presse – destinée à distribuer les journaux numériques et les sites d’informations (reproductions, panoramas de presse, …) – sont à présent achevés.

En clair. Dix ans après avoir commencé à gérer les droits numériques des journaux, en 2002, le CFC – organisme agréé par le ministère de la Culture et Communication – va lancer sa plateforme numérique de distribution de flux numériques d’articles de presse à destination d’entreprises, des administrations et des sociétés spécialisées (1) dans la veille d’information pour le compte de tiers (panoramas de presse, clippings, …). La copie d’articles par toute organisation est soumise à redevances que seul le CFC est officiellement mandaté à percevoir. Baptisée Distre-presse (voir le logo ci-contre), cette plateforme s’appuie sur la solution développée par l’agence britannique NLA (2) pour sa plateforme numérique eClips (3). « Les tests techniques sont à présent achevés, et nous reviendrons vers vous très prochainement pour (…) son lancement », nous a répondu Sandra Chastanet, responsable des relations ayants droits et internationales du CFC.
Les tests sur le pilote de la plateforme – menés sur plusieurs mois avec des éditeurs
(Le Monde, Le Figaro, L’Express, Les Echos, …) et des prestataires de veille de l’information – ont finalement duré plus longtemps que prévu. Le lancement de Distre-presse était initialement envisagé en juin 2011, puis à l’automne dernier (4). La plateforme donnera la possibilité aux éditeurs de gérer en ligne de flux de leurs articles et de les partager au format standard XML ou en PDF. Cette plateforme offre en outre aux éditeurs l’accès à une interface de partage documentaire baptisée Distredoc.
Distre-presse devrait accélérer la croissance des redevances numériques, qui s’élèvent
à 12,44 millions d’euros pour l’année 2011 (+ 10 % sur un an) et pèsent plus de 27 % du total des redevances perçues par le CFC (45,78 millions d’euros l’an dernier, en croissance de 5,5 %). A cela s’ajoute la dimension numérique de la copie privée, dont la rémunération (2,43 millions) est perçue par Copie France mais désormais reversée par le CFC aux éditeurs de presse. En 2011, les agents assermentés du CFC ont effectué plus de 440 contrôles dans différentes organisations pour s’assurer qu’il n’y a pas « photocopillage » numérique et papier… @

e-Libraire cherche e-Lecteur

En ce samedi matin ensoleillé, après avoir bu un café en terrasse accompagné d’un journal sur tablette, j’ai poussé
la porte de ma librairie préférée. Mais ce rêve nostalgique s’évapore au réveil. C’est presque un cauchemar pour
moi qui aie toujours entretenu avec les livres une relation particulière grâce à la médiation des présentoirs des librairies : entrer au Furet du Nord, chez Mollat ou chez Sauramps, et au hasard d’un rayon se laisser attirer par
un titre, une couverture, un auteur, pour repartir avec ce
qui se révélera être un trésor pour le modeste prix d’une édition de poche. Le lent déclin de la librairie s’est encore accéléré après une longue histoire. Au XVIIIe siècle, le métier de libraire se sépara de celui d’éditeur pour éclore progressivement au XXe. Le temps que l’alphabétisation gagne du terrain et le livre devienne plus accessible. Durant une période assez courte, qui fût sans doute son âge d’or, la librairie accueillait de nombreux lecteurs heureux de pouvoir se créer à domicile leur propre bibliothèque personnelle. Ce qui fut l’apanage des lettrés durant de longs siècles, de l’antiquité à la renaissance. Si être Montaigne n’est toujours pas donné à tous, s’entourer de ses livres préférés devenait enfin un objectif raisonnable.

« Nous avons découvert que le livre pouvait aussi se lire en streaming, le monde de la littérature adoptant le modèle déjà existant dans la musique. »

La quasi disparition des libraires de notre paysage urbain s’explique par la baisse du nombre de lecteurs, antérieure à l’Internet. Ceux qui ne lisent qu’un à quatre livres par
an sont désormais largement supérieur à 50 % de la population. Elle est loin cette génération des baby-boomers du XXe siècle qui manifestait pour les livres un si vif
intérêt. La grande distribution a ensuite concurrencé les librairies. La dématérialisation
de la vente sur Internet, symbolisée par l’irruption d’Amazon en 1994, a mis au bout des doigts des internautes l’accès à des millions de titres. Puis ce fut la dématérialisation
du livre lui-même. Comme pour le disque en son temps, les résistances ont été fortes, relevant d’ailleurs plus de la filière que des auteurs, lesquels sont toujours perdants
dans le partage du gâteau. Les lecteurs, eux, comprennent désormais qu’un livre papier
à 20 euros finance plus une économie de l’emballage et du pilonnage que les auteurs
eux mêmes.
Nous autres lecteurs, nous recherchons aujourd’hui un service complet et intégré, qui était encore éclaté en 2012. Pour lire ses ebooks sur tous les terminaux, on pouvait les archiver sur Dropbox ou Ubuntu comme alternatives libres aux solutions propriétaires
de stockage en ligne de l’époque – voire dans un « nuage ». Nous avons découvert que
le livre pouvait aussi se lire en streaming : Youboox fut le premier en France à appliquer au monde de la littérature le modèle déjà existant dans la musique de Deezer ou Spotify. Pour gérer sa bibliothèque numérique, on pouvait utiliser les services d’un Calibre afin de synchroniser ses appareils de lecture et lire sous de nombreux formats. Pour m’aider à choisir, j’avais accès à des critiques de journalistes mais aussi de lecteurs, décuplées
par la puissance du bouche-à-oreille des réseaux sociaux spécialisés comme Babelio
ou Bookish – véritables club de lecture en mode 2.0. Sans parler de la multitude de sites bibliophiles comme Booknode, Libfly ou Livraddict.
La constitution de plateformes de services intégrés fut la grande affaire de la dernière décennie. Face aux géants du Net, d’Amazon à Google eBookstore, s’opposent les derniers réseaux nationaux puissants comme La Fnac ou Barnes & Noble. Même Priceminister affichait en 2012 plus de 5 millions de livres neufs ou d’occasion, quand
un Gibert en proposait seulement un peu plus de 1 million, sans parler des hypermarchés en ligne qui se sont mis à la page. Face à cette concurrence puissante, les libraires indépendants ont cherché leur salut dans des plateformes collectives telles que 1001libraires, ou en se réinventant comme le fit la mythique librairie Kepler de Menlo Park, mi-commercial mi-associatif au service d’une communauté de lecteurs et d’auteurs militants. George Bernard Shaw n’écrivait-il pas que « pour produire un livre, seuls
l’auteur et le libraire sont nécessaires. Sans parasites intermédiaires » ? @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : TNT 2.0
* Directeur général adjoint
du DigiWorld Institute by IDATE.
Sur le même thème, l’institut vient de publier
son étude« eBooks : Marchés et prévisions 2015 »,
par Sophie Lubrano.

La convergence sur un marché oligopolistique : un nouveau défi pour la régulation

Le marché des communications électroniques présente une certaine maturité
de la concurrence, mais celle-ci est fragilisée par la concentration du secteur et
le développement des offres multiservices. Au risque de porter atteinte à la fluidité du marché, malgré l’arrivée de Free.

Par Katia Duhamel, avocat, cabinet Bird & Bird

Quinze ans après la libéralisation totale du secteur, le marché français des télécoms est passé d’une situation de monopole
à celle d’un oligopole avec les effets pervers attachés à ce type de situation. Et ce, notamment parce que les entreprises concernées préfèrent, en général, y conserver leur part de marché respective – c’est-à-dire leur aire d’influence, voire leur rente de situation – et par voie de conséquence leurs profits, plutôt que de se lancer dans une politique d’innovation ou de conquête fondée sur les prix.

Du monopole à l’oligopole
Dans l’intervalle, nous avons assisté à une courte récréation pendant laquelle le marché s’est atomisé autour d’un plus grand nombre d’acteurs aujourd’hui disparus, soit parce qu’ils n’ont pas survécu, soit parce qu’ils ont été absorbés par les opérateurs les plus solides dans le mouvement de consolidation observé depuis le milieu des années 2000 (1). Cette tendance a été accentuée par le choix de régulation retenu en Europe, et en particulier en France. A savoir : ne pas séparer le réseau et les services des opérateurs historiques et privilégier la concurrence par les infrastructures. La réglementation
s’est donc concentrée sur les conditions de l’accès des opérateurs tiers aux réseaux historiques, tout en incitant à investir dans les infrastructures. En conséquence,
atteindre une taille critique au niveau local est devenu obligatoire afin d’effectuer les investissements requis dans le déploiement de nouveaux réseaux, en particulier en fibre optique, et acquérir des contenus attractifs. Cette politique a eu un relatif succès dans le fixe avec le dégroupage et elle a totalement échoué dans le mobile avec les MVNO (2). Enfin, elle a abouti a un effet prévisible : la consolidation du secteur sous forme d’un oligopole composé d’Orange, SFR et Bouygues qui, jusqu’à l’arrivé de Free, contrôlait plus de 90 % du marché mobile (3).
Les progrès de la technologie et le succès de la téléphonie mobile ont facilité l’entrée des opérateurs télécoms sur d’autres marchés que leur marché initial. La diversification de ces opérateurs sur des marchés connexes (4) conduit à un modèle de plus en plus répandu, celui d’« opérateur universel » qui est présent à la fois sur le marché fixe (téléphone, accès à Internet, distribution audiovisuel en IPTV (5)) et sur le marché mobile (téléphone, accès à Internet, services multimédias). Or, il est clair que cette évolution pourrait conduire soit à des distorsions de concurrence, soit a minima au verrouillage
de nombreux consommateurs découragés de changer d’opérateur au regard des coûts élevés qu’ils auraient à subir, en termes de pertes d’avantages, voire de pénalités dans l’hypothèse d’un tel changement.
Il n’est pas non plus inutile de souligner qu’aux pratiques de couplage commercial
(offres multiservices de type triple play ou quadruple play) et technique (femtocell,
cloud computing), les opérateurs peuvent ajouter des offres générant des « effets de
club » (offre on-net comme l’illimité au sein du réseau) et renforcer leur politique de fidélisation, pratiques venant elles aussi compromettre la fluidité du marché. L’Autorité
de la concurrence ne s’y est pas trompée lorsqu’elle a décidé, de sa propre initiative,
de rendre un avis en 2010 sur la question de l’utilisation croisée de bases de clientèle (dites de « cross selling ») et plus spécifiquement sur les effets possibles de ce type
de pratiques (6).

Vers l’opérateur universel
Ainsi, dans cet avis, le gendarme de la concurrence note que si « de façon générale, l’utilisation croisée des bases de clientèle et les offres de couplage sont bénéfiques pour les consommateurs (…), elles peuvent cependant produire des effets anticoncurrentiels lorsqu’elles sont utilisées par une entreprise en position dominante, agissant par effet de levier pour évincer ses concurrents ».
S’attachant plus particulièrement au cas d’Orange, en position dominante sur le marché du fixe, les sages de la rue de l’Echelle listent donc les inconvénients de la mise sur le marché d’offres de convergence – du moins précise-t-elle « tant que la situation restera bloquée sur le marché mobile » – et les risques d’accroître encore les coûts de changement d’opérateur pour le consommateur.
Il en va ainsi : des durées longues d’engagement et l’augmentation des services à
valeur ajoutée proposés (applications, téléchargements audio, vidéo ou de jeux, espace de stockage, …) sur le marché mobile ; de la crainte de voir l’accès Internet interrompu
à cause du délai de raccordement par le nouvel opérateur sur le marché de l’accès à Internet haut débit ; de la subsistance de difficultés s’agissant de la portabilité des numéros de téléphone de manière plus générale.

Convergence et verrouillage
L’Autorité de la concurrence relève également le risque de voir les offres de convergence verrouiller, non plus uniquement des clients, mais surtout des foyers compte tenu des avantages techniques ou tarifaires attachés aux nouvelles offres, lesquelles incitent les membres d’une même famille à migrer vers le même opérateur pour tous leurs besoins. D’où un « effet club » qui avantage les opérateurs disposant des meilleures parts de marché.
C’est du reste au terme de ce raisonnement que l’Autorité de la concurrence préconisait, dans le même avis, que Free bénéficie « rapidement d’une prestation d’itinérance sur l’un des réseaux en place, non seulement pour la 2G mais aussi pour la 3G », afin d’être en mesure de se battre à armes égales avec des opérateurs proposant au consommateur des offres « tout-en-un », dès son entrée sur le marché. Pour l’instant, l’histoire semble
lui avoir donné raison.
En pratique, c’est surtout du coté du droit de la consommation que l’Autorité de la concurrence voit des moyens d’améliorer la fluidité des marchés et de prévenir les risques de verrouillage.
C’est ainsi que dans le même avis de 2010, elle préconisait notamment la réduction
des durées d’engagements, la vigilance sur les conditions de réengagement des clients souscrivant à une offre de couplage et la synchronisation du terme des abonnements
aux services haut débit et mobile.
D’autres mesures plus techniques y étaient suggérées : « La standardisation de certaines fonctionnalités pour en assurer l’interopérabilité, ainsi que la portabilité des services convergents actuels et futurs (numéro unique ou applications distantes par exemple)
à destination des consommateurs qui détiennent des abonnements multiples auprès d’un même fournisseur et souhaitent en changer » (7). Presque deux ans après la publication de l’avis de l’Autorité de la concurrence, il semble que Free soit l’opérateur le plus respectueux de ces recommandations en matière commerciale (8). Et que son entrée fracassante sur le marché bouscule l’oligopole, mais jusqu’à quand et avec quel résultat
à terme sur la structure du marché ? Plusieurs scénarios viennent à l’esprit en attendant que l’avenir nous en dise plus :
• 1er scénario. La répartition des parts de marché entre opérateurs reste déséquilibrée (9). Free recrute ses clients auprès des trois opérateurs existants en proportion de leur parc respectif. L’écart de taille entre les opérateurs du marché reste significatif et Free parvient à se classer 3e ou 4e selon ses performances, avec un revenu par client inférieur mais des coûts qui le sont aussi. La situation n’est pas sensiblement différente
de celle d’aujourd’hui, mais elle est plus acceptable politiquement pour les autorités de
la concurrence.
• 2e scénario. La répartition des parts de marché entre opérateurs est modifiée selon deux variantes. Soit Free prend proportionnellement plus de clients aux plus gros opérateurs. Du point de vue de la concurrence, ce serait la situation quasi idéale
dans laquelle les écarts de parts de marché, en se réduisant, cessent de peser significativement sur la situation des opérateurs au regard de leurs coûts fixes, le tout dans un marché où les prix ont très fortement baissé. La concurrence sur les mérites fonctionne totalement. Soit Free trouve ses clients dans une proportion plus importante auprès du plus petit des trois opérateurs historiques et dans la proportion la plus faible auprès du plus gros qui, de surcroît, bénéficie de l’avantage supplémentaire de percevoir les revenus de l’itinérance accordée à Free. En réalité, on revient ici au scénario précédent dans une version plus contrastée, voire plus dangereuse pour celui qui
restera le plus petit des quatre opérateurs.

Free : un coup d’épée dans l’eau ?
Conclusion : A moins d’un rééquilibrage des parts de marché entre les trois principaux opérateurs, l’arrivée de Free ne changera probablement pas fortement le principe de l’oligopole et ses effets pervers, même si elle peut en faire évoluer les apparences.
Or un tel rééquilibrage ne se fera pas « tout seul », et il reste encore à imaginer des actions pour y « pousser » le marché. @

La fibre pourrait accélérer le « contournement » des opérateurs télécoms, dissuadés d’investir

Les régulateurs (CSA, Arcep, Hadopi,) et le gouvernement (DGMIC, DGCIS, CNC) voudraient décourager les opérateurs télécoms d’investir massivement dans la fibre optique qu’ils ne s’y prendraient pas autrement : une étude sur le très haut débit semble les en dissuader !

« Les opérateurs pourraient en être réduits à de simples transporteurs de contenus, contournés (ou « désintermédiés ») par les services en accès direct (ou services ‘’over-the-top’’). Cette menace peut freiner les opérateurs dans leurs déploiements des réseaux très haut débit », met en garde l’étude de Analysys Mason, commanditée par l’Arcep (1), le CSA (2), l’Hadopi (3), le CNC (4), la DGMIC (5) et la DGCIS (6), lesquels ont « décidé de rendre public l’essentiel ».

21 Mds €: cela en vaut-il la chandelle ?
Or selon nos constatations, le libellé initial de l’étude tel que paru à l’époque au BOAMP (7), en octobre 2010, était : « les nouveaux usages et services sur les réseaux très haut débit et leur impact sur le modèle économique de la fibre » (8). Bien que reformulé
« étude sur le très haut débit : nouveaux services, nouveaux usages et leur effet sur la chaîne de la valeur », le déploiement de la fibre optique à domicile – qui a été chiffré par l’Arcep à 21 milliards d’ici à 2025 pour couvrir 100 % des foyers français, selon la décision de Nicolas Sarkozy (9) – est bien au coeur de cette étude finalisée en 2011.
« Au vu des forts investissements nécessaires pour le passage au très haut débit, le financement des réseaux par les opérateurs semble complexe dans un contexte d’évolutions significatives de la chaîne de valeur », souligne-t-on encore. D’autant que les nouveaux éditeurs de services audiovisuels et les fournisseurs de contenus Web sont, est-il rappelé, « globalement réticents à être impliqués dans le financement des réseaux, y compris très haut débit ». Les opérateurs de réseaux sont ainsi, avec les fournisseurs d’accès à Internet (FAI), les premiers à être directement « menacés » par des acteurs comme Google/YouTube, Yahoo, Apple/iTunes, Microsoft, Sony, Samsung, Netflix et bien d’autres nouveaux entrants dans la chaîne de valeur de la convergence – chez les acteurs du Web comme du côté des fabricants de terminaux/téléviseurs connectés (10).
« Le développement des modèles de services en accès direct et l’arrivée massive des téléviseurs connectables dans les foyers, créent une menace sur le revenu additionnel que les opérateurs pourraient générer avec le très haut débit », prévient l’étude du groupement de commande publique. Sans oublier la Xbox 360 (Microsoft), la PlayStation 3 (Sony) ou la Wii (Nintendo), qui sont aussi connectables dans le salon ! Au peu d’entrain des opérateurs à investir dans le FTTH (voir encadré) s’ajoute l’hésitation des foyers à s’abonner au FTTH : au 31 décembre 2011, seuls 200.000 foyers ont souscrit un abonnement à la fibre malgré une hausse de 70 % sur un an (voir indicateur p. 11), les 465.000 autres abonnés au très haut débit le sont par Numericable au câble coaxial limité. Surtout que la France dispose d’un réseau ADSL de bonne qualité et utilisé par 95 % des abonnés haut débit, près de 60 % d’entre eux recevant la télévision sur cette paire de cuivre (IPTV).
Et, en plus, comme le relève l’étude CSA-Arcep-Hadopi- DGMIC-DGCIS-CNC, « les offres très haut débit (…) n’amènent pas de services supplémentaires par rapport au haut débit. (…) Il ne semble pas qu’il existe pour l’instant d’apport fonctionnel du très haut débit au niveau des offres. (…) Il est donc possible pour un abonné [haut débit]
de disposer de la même gamme de services ». Résultat : « Au vu du nombre limité de services spécifiques au très haut débit, pour lesquels les utilisateurs sont actuellement prêts à payer, il est difficile d’estimer précisément les revenus incrémentaux du très haut débit permettant d’assurer le financement [de ces] réseaux ». Pire :
« L’accroissement des revenus complémentaires sur les services audiovisuels semble menacé par le risque de désintermédiation des FAI au profit des fournisseurs de services ‘’over-the-top’’ (risque plus fort encore en FTTH qu’en haut débit) ». La fibre optique n’apporte donc pas grand-chose de plus que le fil de cuivre ! L’étude rappelle en outre le reproche que font régulièrement Orange, SFR, Free ou Bouygues Telecom : « La réglementation en vigueur cherchant à éviter les monopoles locaux ne permet pas aux opérateurs qui déploient le très haut débit de profiter d’une prime au premier entrant, car il existe une obligation de donner accès au réseau terminal FTTH à ses concurrents ». @

Charles de Laubier

FOCUS

Fibre : quelques millions au lieu de plusieurs milliards

Orange, qui avait fixé son investissement total dans la fibre à 2 milliards d’euros d’ici
2015, a dit – par la voix de son DG Stéphane Richard le 22 février – vouloir « doubler
en 2012 » les 151 millions d’euros consacrés au FTTH (11) en 2011. Free, lui, a déjà
investi 500 millions d’euros (dont 156,1 millions en 2011 et 193,7 millions en 2010). Bouygues Télécom et SFR vont mutualiser leur déploiement fibre dans les zones très denses, le second allant dans les zones moins denses. Quant au câblo-opérateur Numericable, « il ne semble pas vouloir à ce stade évoluer vers la technologie FTTH », indique l’étude. @

La TNT 2.0 n’attend plus qu’un appel à candidatures

En fait. Le 9 mars, l’Association pour le développement des services TV évolués
et interactifs (Afdesi) a présenté les premiers résultats de l’expérimentation
« Mes Services TV » diffusé sur la TNT avec le standard HbbTV (1). Une quinzaine d’éditeurs ont joué le jeu. La balle est maintenant dans le camp du CSA.

En clair. Selon nos informations, le Conseil supérieur de l’audiovisuel (CSA) devrait lancer au printemps, un appel à candidatures en vue d’ouvrir commercialement à l’automne prochain un portail de services et de publicités interactifs sur la TNT. L’Association pour le développement des services TV évolués et interactifs (Afdesi)
est en train de convaincre le CSA de la viabilité du projet et de l’existence d’un nouveau marché audiovisuel interactif. L’appétence des téléspectateurs connectés semble au rendez-vous. L’association Mes Services TV, créée pour accueillir les partenaires, a
testé de juillet 2011 à fin février 2012 avec TDF (2) à Auxerre (canal 29) le premier
portail estampillé « TNT 2.0 » (3). Son rapport d’expérimentation, remis au CSA, analyse les usages sur un panel d’utilisateurs constitué en début d’année en Bourgogne. Une quinzaine d’éditeurs de contenus ont participé à ce premier bouquet interactif de TV connectée : TV5Monde pour la vidéo à la demande (VOD), Rovi (DivX compris) pour un guide programme, Playin TV pour des jeux en ligne, RFI pour la radio, L’Equipe TV (Amaury) et Equidia (PMU) pour le sport, France 24 et La Chaîne Météo (Le Figaro) pour l’actualité, Infotrafic, Cadremploi et BNP Paribas pour des services pratiques, Only Lifestyle et Casino pour la vie pratique, ainsi que Figaro Classifieds pour les petites annonces.
Toujours selon nos informations, pour être présents sur le portail HbbTV de l’Afdesi, chaque éditeur participe à la plateforme à hauteur de 7.000 euros (auxquels s’ajoutent 1.050 euros d’adhésion à l’association Mes Services TV). L’Afdesi participe, en outre,
au groupe de travail de Cap Digital sur la publicité interactive. Une étude menée l’an dernier par MPanel montre que les téléspectateurs sont demandeurs de services pratiques (météo, trafic info) à 56 %, de fiches techniques de films ou de séries à 55 %, d’accès à des sites pour 54 % d’entre eux, et d’affichage d’informations complémentaires pour 50 %. En attendant plus de VOD et l’arrivée de la
catch up TV sur la TNT. D’ici la fin 2012, 2 millions de téléviseurs devraient avoir le label « TNT 2.0 ». @