Fusion CSA-Arcep : grande loi audiovisuelle en vue

En fait. Le 21 août, le Premier ministre Jean-Marc Ayrault a demandé à Arnaud Montebourg (Redressement productif), Aurélie Filippetti (Culture et Communication) et Fleur Pellerin (notamment Economie numérique) de « lui faire [d’ici fin novembre] des propositions de rapprochement entre le CSA et l’Arcep ».

En clair. Dix ans après la loi historique sur la communication audiovisuelle du 29 juillet 1982, élaborée par le premier gouvernement socialiste de François Mitterrand, le premier gouvernement socialiste de François Hollande prépare une nouvelle grande loi audiovisuelle qui pourrait, à son tour, marquer son époque. Autant l’ancienne loi portée
par Georges Fillioud (1) – décédé il y a un an – a libéralisé le marché de l’audiovisuel
en abolissant le monopole d’Etat de radiodiffusion, autant la future loi du « PAF » que défendra le gouvernement Ayrault devra, cette fois, s’adapter à la convergence numérique en réformant la réglementation et la régulation, tout en préparant le terrain au financement de la création culturelle par tous les acteurs du Web. C’est dire que les conclusions de trois missions seront très attendues : la première a été confiée avant l’été à Pierre Lescure pour remplacer l’Hadopi et préparer l’« acte II de l’exception culturelle » (lire EM@58) ; la seconde est menée par le duo Pierre Collin-Nicolas Colin pour « créer les conditions d’une contribution à l’effort fiscal du secteur [du numérique] mieux répartie entre ses différents acteurs » (2) ; la dernière en date relève du trio Arnaud Montebourg-Aurélie Filippetti-Fleur Pellerin pour faire des « propositions de rapprochement entre le CSA et l’Arcep ». Alors que les propositions « Lescure » sont initialement prévues pour mars 2013, celles de la mission « Montebourg-Filippetti-Pellerin » sont demandées par le Premier ministre d’ici fin novembre 2012. « Cette réflexion s’appuiera sur les positions de l’Arcep et du CSA et sera coordonnée avec celle conduite par Pierre Lescure sur l’acte II de l’exception culturelle », précise Matignon. Le calendrier s’accélère donc pour Pierre Lescure.
D’autant que l’Hadopi pourrait être absorbée dans une éventuelle fusion CSA-Arcep (3). Une chose est sûre : il y aura à l’automne un projet de loi audiovisuelle qui portera notamment sur une réforme du CSA et, partant, de l’Arcep. Rappelons que le 3 juillet dernier devant l’Assemblée nationale, Jean-Marc Ayrault avait promis – dans son discours de politique générale – une loi sur l’audiovisuel « avant la fin de l’année 2012 » (adoption prévue en janvier 2013). Quant à l’acte II de l’exception culturelle, il devrait
aussi faire l’objet d’une grande loi complémentaire au printemps 2013. @

Vivendi : la logique boursière devant la convergence

En fait. Le 16 juillet, Vivendi a annoncé le « succès de l’augmentation de capital réservée aux salariés » qui, cette année, atteint « un nombre record de 12,3 millions d’actions nouvelles ». Or moins de 10.000 salariés sur les 58.300 que compte le conglomérat ont souscrit à l’offre, soit environ 15 %.

En clair. Une majorité des salariés de Vivendi n’a pas participé à l’augmentation du capital de leur entreprise. Bien que présentés comme « 4e actionnaire du groupe »,
les salariés actionnaires représentent à peine 3,4 % du capital. « La mobilisation des salariés du groupe est une preuve de la confiance qu’ils témoignent à leur entreprise et à ses perspectives de croissance dans un contexte économique difficile », affirme tout de même le directoire de Vivendi, présidé par Jean-François Dubos, lequel a succédé le 29 juin à Jean-Bernard Lévy. Pourtant, la « confiance » et les « perspectives » du groupe n’ont jamais été aussi floues. Il faut remonter à il y a dix ans, lorsque Jean-Marie Messier a été évincé après avoir mis le groupe en faillite, pour retrouver une telle incertitude stratégique. Jean-Bernard Lévy est parti pour « divergence stratégique » avec Jean-René Fourtou, le président du conseil d’administration : le premier était pour accroître les synergies entre les activités médias et les réseaux. « Le monde des réseaux et du contenu sont en train de fusionner », avait déclaré Jean-Bernard Lévy dans le Wall Street Journal du 14 décembre 2010. « Nos investissements dans les réseaux, les plates-formes et les contenus s’accompagnent d’efforts soutenus pour développer les partages d’expertises et les projets communs entre nos métiers », avait-il insisté le 1er mars 2011 (1). La voie est maintenant libre au démantèlement du groupe. La raison ? Le cours de Bourse de Vivendi, qui, selon Jean-René Fourtou serait sous-évalué. « Faut-il vendre des activités ou séparer le groupe en deux, voire trois ? Cette question n’est pas taboue », avait-il écrit aux actionnaires fin mars. Le délestage pourrait commencer par la filiale Activision Blizzard, numéro un mondial des jeux vidéo (2). L’été sera chaud pour les 58.300 salariés du groupe Vivendi, dont les 16.000 des filiales françaises (3) qui ont reçu chacun en prime 50 actions gratuites. Est-ce pour acheter la paix sociale ? « La fin d’année 2012 et surtout l’année 2013 s’annoncent mouvementées sur le plan social. SFR tout d’abord, Canal+ ensuite, mais aussi la musique ou les jeux. L’ensemble de ces business de Vivendi pourrait être impacté socialement, en France et à l’étranger par les décisions qui vont être prises dans les prochaines semaines », craint par exemple le syndicat CFE-CGC. @

La convergence sur un marché oligopolistique : un nouveau défi pour la régulation

Le marché des communications électroniques présente une certaine maturité
de la concurrence, mais celle-ci est fragilisée par la concentration du secteur et
le développement des offres multiservices. Au risque de porter atteinte à la fluidité du marché, malgré l’arrivée de Free.

Par Katia Duhamel, avocat, cabinet Bird & Bird

Quinze ans après la libéralisation totale du secteur, le marché français des télécoms est passé d’une situation de monopole
à celle d’un oligopole avec les effets pervers attachés à ce type de situation. Et ce, notamment parce que les entreprises concernées préfèrent, en général, y conserver leur part de marché respective – c’est-à-dire leur aire d’influence, voire leur rente de situation – et par voie de conséquence leurs profits, plutôt que de se lancer dans une politique d’innovation ou de conquête fondée sur les prix.

Du monopole à l’oligopole
Dans l’intervalle, nous avons assisté à une courte récréation pendant laquelle le marché s’est atomisé autour d’un plus grand nombre d’acteurs aujourd’hui disparus, soit parce qu’ils n’ont pas survécu, soit parce qu’ils ont été absorbés par les opérateurs les plus solides dans le mouvement de consolidation observé depuis le milieu des années 2000 (1). Cette tendance a été accentuée par le choix de régulation retenu en Europe, et en particulier en France. A savoir : ne pas séparer le réseau et les services des opérateurs historiques et privilégier la concurrence par les infrastructures. La réglementation
s’est donc concentrée sur les conditions de l’accès des opérateurs tiers aux réseaux historiques, tout en incitant à investir dans les infrastructures. En conséquence,
atteindre une taille critique au niveau local est devenu obligatoire afin d’effectuer les investissements requis dans le déploiement de nouveaux réseaux, en particulier en fibre optique, et acquérir des contenus attractifs. Cette politique a eu un relatif succès dans le fixe avec le dégroupage et elle a totalement échoué dans le mobile avec les MVNO (2). Enfin, elle a abouti a un effet prévisible : la consolidation du secteur sous forme d’un oligopole composé d’Orange, SFR et Bouygues qui, jusqu’à l’arrivé de Free, contrôlait plus de 90 % du marché mobile (3).
Les progrès de la technologie et le succès de la téléphonie mobile ont facilité l’entrée des opérateurs télécoms sur d’autres marchés que leur marché initial. La diversification de ces opérateurs sur des marchés connexes (4) conduit à un modèle de plus en plus répandu, celui d’« opérateur universel » qui est présent à la fois sur le marché fixe (téléphone, accès à Internet, distribution audiovisuel en IPTV (5)) et sur le marché mobile (téléphone, accès à Internet, services multimédias). Or, il est clair que cette évolution pourrait conduire soit à des distorsions de concurrence, soit a minima au verrouillage
de nombreux consommateurs découragés de changer d’opérateur au regard des coûts élevés qu’ils auraient à subir, en termes de pertes d’avantages, voire de pénalités dans l’hypothèse d’un tel changement.
Il n’est pas non plus inutile de souligner qu’aux pratiques de couplage commercial
(offres multiservices de type triple play ou quadruple play) et technique (femtocell,
cloud computing), les opérateurs peuvent ajouter des offres générant des « effets de
club » (offre on-net comme l’illimité au sein du réseau) et renforcer leur politique de fidélisation, pratiques venant elles aussi compromettre la fluidité du marché. L’Autorité
de la concurrence ne s’y est pas trompée lorsqu’elle a décidé, de sa propre initiative,
de rendre un avis en 2010 sur la question de l’utilisation croisée de bases de clientèle (dites de « cross selling ») et plus spécifiquement sur les effets possibles de ce type
de pratiques (6).

Vers l’opérateur universel
Ainsi, dans cet avis, le gendarme de la concurrence note que si « de façon générale, l’utilisation croisée des bases de clientèle et les offres de couplage sont bénéfiques pour les consommateurs (…), elles peuvent cependant produire des effets anticoncurrentiels lorsqu’elles sont utilisées par une entreprise en position dominante, agissant par effet de levier pour évincer ses concurrents ».
S’attachant plus particulièrement au cas d’Orange, en position dominante sur le marché du fixe, les sages de la rue de l’Echelle listent donc les inconvénients de la mise sur le marché d’offres de convergence – du moins précise-t-elle « tant que la situation restera bloquée sur le marché mobile » – et les risques d’accroître encore les coûts de changement d’opérateur pour le consommateur.
Il en va ainsi : des durées longues d’engagement et l’augmentation des services à
valeur ajoutée proposés (applications, téléchargements audio, vidéo ou de jeux, espace de stockage, …) sur le marché mobile ; de la crainte de voir l’accès Internet interrompu
à cause du délai de raccordement par le nouvel opérateur sur le marché de l’accès à Internet haut débit ; de la subsistance de difficultés s’agissant de la portabilité des numéros de téléphone de manière plus générale.

Convergence et verrouillage
L’Autorité de la concurrence relève également le risque de voir les offres de convergence verrouiller, non plus uniquement des clients, mais surtout des foyers compte tenu des avantages techniques ou tarifaires attachés aux nouvelles offres, lesquelles incitent les membres d’une même famille à migrer vers le même opérateur pour tous leurs besoins. D’où un « effet club » qui avantage les opérateurs disposant des meilleures parts de marché.
C’est du reste au terme de ce raisonnement que l’Autorité de la concurrence préconisait, dans le même avis, que Free bénéficie « rapidement d’une prestation d’itinérance sur l’un des réseaux en place, non seulement pour la 2G mais aussi pour la 3G », afin d’être en mesure de se battre à armes égales avec des opérateurs proposant au consommateur des offres « tout-en-un », dès son entrée sur le marché. Pour l’instant, l’histoire semble
lui avoir donné raison.
En pratique, c’est surtout du coté du droit de la consommation que l’Autorité de la concurrence voit des moyens d’améliorer la fluidité des marchés et de prévenir les risques de verrouillage.
C’est ainsi que dans le même avis de 2010, elle préconisait notamment la réduction
des durées d’engagements, la vigilance sur les conditions de réengagement des clients souscrivant à une offre de couplage et la synchronisation du terme des abonnements
aux services haut débit et mobile.
D’autres mesures plus techniques y étaient suggérées : « La standardisation de certaines fonctionnalités pour en assurer l’interopérabilité, ainsi que la portabilité des services convergents actuels et futurs (numéro unique ou applications distantes par exemple)
à destination des consommateurs qui détiennent des abonnements multiples auprès d’un même fournisseur et souhaitent en changer » (7). Presque deux ans après la publication de l’avis de l’Autorité de la concurrence, il semble que Free soit l’opérateur le plus respectueux de ces recommandations en matière commerciale (8). Et que son entrée fracassante sur le marché bouscule l’oligopole, mais jusqu’à quand et avec quel résultat
à terme sur la structure du marché ? Plusieurs scénarios viennent à l’esprit en attendant que l’avenir nous en dise plus :
• 1er scénario. La répartition des parts de marché entre opérateurs reste déséquilibrée (9). Free recrute ses clients auprès des trois opérateurs existants en proportion de leur parc respectif. L’écart de taille entre les opérateurs du marché reste significatif et Free parvient à se classer 3e ou 4e selon ses performances, avec un revenu par client inférieur mais des coûts qui le sont aussi. La situation n’est pas sensiblement différente
de celle d’aujourd’hui, mais elle est plus acceptable politiquement pour les autorités de
la concurrence.
• 2e scénario. La répartition des parts de marché entre opérateurs est modifiée selon deux variantes. Soit Free prend proportionnellement plus de clients aux plus gros opérateurs. Du point de vue de la concurrence, ce serait la situation quasi idéale
dans laquelle les écarts de parts de marché, en se réduisant, cessent de peser significativement sur la situation des opérateurs au regard de leurs coûts fixes, le tout dans un marché où les prix ont très fortement baissé. La concurrence sur les mérites fonctionne totalement. Soit Free trouve ses clients dans une proportion plus importante auprès du plus petit des trois opérateurs historiques et dans la proportion la plus faible auprès du plus gros qui, de surcroît, bénéficie de l’avantage supplémentaire de percevoir les revenus de l’itinérance accordée à Free. En réalité, on revient ici au scénario précédent dans une version plus contrastée, voire plus dangereuse pour celui qui
restera le plus petit des quatre opérateurs.

Free : un coup d’épée dans l’eau ?
Conclusion : A moins d’un rééquilibrage des parts de marché entre les trois principaux opérateurs, l’arrivée de Free ne changera probablement pas fortement le principe de l’oligopole et ses effets pervers, même si elle peut en faire évoluer les apparences.
Or un tel rééquilibrage ne se fera pas « tout seul », et il reste encore à imaginer des actions pour y « pousser » le marché. @

Bouygues Telecom joue son va-tout au printemps

En fait. Le 29 février, Bouygues Telecom – qui prévoit une baisse de 10 % de
son chiffre d’affaires cette année (notamment due à Free) – a présenté un plan
de réductions de coûts de 300 millions d’euros et prépare « une refonte » de ses offres et des baisses de tarifs. Son salut : le quadruple play avec TF1.

En clair. Après avoir été le premier à se lancer dans le quadruple play (1), le 25 mai 2009 (2), Bouygues Telecom espère reprendre la main avec la prochaine génération de sa box. « Nous lancerons au printemps notre nouvelle Bbox Sensation qui sera dotée du WiFi le plus efficace qui soit et de possibilités de console de jeux uniques en France, et même en Europe », a déclaré Olivier Roussat, DG de Bouygues Télécom, le 28 février, lors de son audition par la commission des Affaires économiques de l’Assemblée nationale.
En ajoutant plus de services dans cette offre tout-en-un, Bouygues Telecom espère retenir les abonnés au mobile (1,2 million totalisé depuis novembre 2008) et séduire de nouveaux clients dans le fixe (11,3 millions accumulés depuis mais 1996). Car, depuis l’arrivée du quatrième opérateur mobile Free, la filiale du groupe de Martin Bouygues accuse le coup (3) et n’a d’autre choix que de trouver de nouveaux relais de croissance dans le fixe. « Nous le faisons [le quadruple play] régulièrement évoluer pour intégrer les services (…) : appels illimités vers les mobiles, très haut débit, vidéo à la demande et, demain, cloud gaming avec la Bbox Sensation qui (…) sera la plus puissante du
marché », a promis Olivier Roussat. Depuis novembre 2009, la BBox donne accès au portail MyTF1 (lire EM@11, p. 3). « Elle proposera par ailleurs le catalogue de vidéo à la demande le plus large du marché (…). Ce catalogue a été conçu avec TF1, qui a passé des accords avec l’ensemble des studios. Il n’y aura ainsi plus qu’un seul point d’entrée au lieu de dix portails différents », a encore indiqué Olivier Roussat. La nouvelle box sera fabriquée par le coréen Samsung (4), qui a déjà signé avec la filiale sœur TF1 un accord « TV connectée » sur trois ans (2010-2012).
La future Bbox sera dotée d’un disque dur de 320 Go (contre 250 pour la Freebox Revolution), d’un processeur multimédia Intel, ainsi que d’une nouvelle puce WiFi capable de diffuser simultanément plusieurs flux vidéo HD vers différents écrans du foyer. Elle sera, en outre, compatible avec la fibre que Bouygues Telecom co-déploie avec SFR et France Télécom. @

 

Apps contre Web : bataille ou convergence ?

Comme l’Antiquité a été jalonnée de ces grandes guerres mémorables aux noms évocateurs – guerres médiques, puniques ou guerre des Gaules… – les premiers âges de l’Internet fixe auront également été rythmés par leurs propres conflits : guerres des portails, guerre du search ou guerre du social graph. Le basculement d’Internet vers le mobile au tournant des années 2010, à également ouvert un nouveau front. Les premiers pas du Web mobile ayant laissé à désirer, un nouvel entrant imposa à tous un raccourci plébiscité par les utilisateurs. Apple utilisa le concept d’applications comme moyen de contourner les trop lourdes adaptations des sites web au nouvel écosystème mobile.
Les Apps préexistèrent dès 2002, avec le lancement de kits pour développeurs fournis par Symbian, Brew (Qualcomm) et Java ME, mais elles restèrent globalement ignorées
du grand public.
Et c’est en 2008, à l’occasion du lancement de son iPhone 3G, que Steve Jobs déclencha la guerre des « App Stores ». L’appel d’air fut gigantesque : le nombre d’applications passa de 500 au début à plus de 500.000 quatre ans plus tard, pour atteindre un record
en février 2012 avec la 25 milliardième application téléchargée !

« Les cinq dernières années ont en fait ouvert une période passionnante de convergence entre Web et Apps. »

Google lança dans la foulée, avec Android son OS mobile triomphant, son propre magasin d’« applis ». Le succès fut au rendez-vous, dépassant même le nombre d’applications de la marque à la pomme. Les autres ont essayé de populariser leurs propres App Stores
sur le marché des smartphones : RIM avec BB App World pour maintenir son précurseur Blackberry dans la course, Nokia avec Ovi Store abandonné dans l’urgence pour Windows Phone Marketplace, ou Samsung Appstore jouant la carte d’Android Market. La contagion était telle que certains préfèrent appeler le terminal mobile « app-phones » plutôt que « smart-phones ».
La rogne des tenants d’un Internet ouvert, inquiet de voir se cloisonner l’Internet Mobile naissant, ne pesa pas lourd face au succès public. L’engouement pour la simplicité d’usage apportée par les Applis fut tel que le phénomène déborda rapidement l’univers strict du mobile. La barre de navigation des Mac s’est rapidement enrichie de liens vers les « Apps » tandis que Windows 8, lancé en 2012, embarquait Windows Store Apps. L’utilisateur retrouvait ainsi l’ensemble de ses applis dans un endroit unifié, mais dans la limite de cinq terminaux. Après les ordinateurs, les consoles s’y sont mises à leur tour à l’instar de Nintendo proposant, dès mi-2012, sa Wii U en association avec un App Store consultable via une tablette tactile fournie avec la console. Même Amazon a lancé son magasin avec sa propre tablette, tout en inaugurant un mode de rémunération innovant
où c’est l’outil qui affine le prix de vente à partir de celui fixé par le développeur et un algorithme maison.
Cette frénésie a rapidement gagné tous les écrans, y compris les TV connectées, donnant en partie raison aux Cassandres qui pronostiquaient la mort du Web. Mais les effets pervers du tout-Apps se firent sentir dès 2015. La prolifération des applications finit par engendrer une grande complexité à laquelle les « Meta-Apps » ne répondaient que partiellement. Adapter chaque application à de plus en plus d’App Stores a d’abord été
un frein pour de nombreux développeurs, malgré des outils de duplication. Enfin, la
logique « fermée » des App Stores ne se soumettaient que péniblement a la demande d’interopérabilité des utilisateurs. C’était d’ailleurs un des axes de la stratégie d’un Facebook, qui, dès 2011, avait annoncé qu’il resterait « App Store Agnostic », afin de jouer un rôle-clés dans le décloisonnement et dans la sélection des applications par la force des recommandations. Le Web ouvert avec ses qualités natives de navigation et d’interconnexion, s’est finalement complètement renouvelé grâce à la banalisation – bien avant 2015 – de l’HTLM 5, nouvel environnement de programmation du Net, adapté tout autant aux applications fixes que mobiles. Les cinq dernières années ont en fait ouvert une période passionnante de convergence entre Web et Apps. Une nouvelle bataille,
où les Apps bien à l’abri derrière leur « mur d’Hadrien » affrontent les nouvelles avancées du Web ouvert. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Librairies en ligne
* Directeur général adjoint
du DigiWorld Institute by IDATE.
Sur le même thème, l’institut vient de publier son étude
« Apps and the Mobile Internet », par Soichi Nakajima.