Sites web, applis et bientôt vidéo : comment la mesure d’audience de l’Internet devient « globale »

Médiamétrie intègre désormais les mesures d’audiences des tablettes à celles, déjà fusionnées depuis deux ans, des ordinateurs et des smartphones. Les premiers chiffres « Internet global » seront publiés fin mars. Sites web et applis sont concernés, et bientôt la vidéo.

Par Charles de Laubier

Coralie FourmentrauxLe triptyque « ordinateur+mobile+tablette » a désormais sa mesure d’audience globale sur Internet. Les résultats obtenus sur janvier 2015 seront publiés pour la première fois par Médiamétrie en
mars prochain. D’ici là, courant février, médias, annonceurs et professionnels de la publicité en ligne concernés ont accès de façon confidentielle aux résultats tests effectués sur le mois de décembre 2014. Près de deux mois sont en effet nécessaires pour « fusionner » les données provenant à la fois des ordinateurs (mesures site centric et panel de 20.000 personnes), des smartphones (logs opérateurs mobiles et panel de 10.000 individus) et maintenant des tablettes (panel de 1.500 et, selon nos informations, bientôt mesures site centric).

Internet global « single source » en 2016
Les tablettes, que les panélistes soient sous Android ou sur iOS, complètent ainsi l’ « Internet global » que l’institut de mesure d’audiences proposera désormais tous les mois. « Nous allons pouvoir, à partir de mars, fournir aux acteurs du marché une vision globale de leurs usages, de leurs audiences et de la puissance de leurs marques sur l’ensemble d’Internet et sur les trois écrans », a dévoilé Coralie Fourmentraux (photo), directrice des projets et développement chez Médiamétrie//Netratings, société commune entre l’institut français Médiamétrie et le groupe hollandais Nielsen (1).
A l’heure du multi-écrans (au nombre de 6,4 en moyenne par foyer en 2014) et du multi-tasking, cette évolution globale de la mesure d’audience en ligne – aux résultats dédupliqués pour prendre en compte l’effet cross-media – est la bienvenue au moment où les internautes (43,5 millions en France), les mobinautes (30,4 millions) et les tablonautes (12,6 millions) sont pour une part les mêmes utilisateurs.
Le mediaplanning, qui entre dans l’ère du « trois écrans », va permettre aux marques
et aux agences publicitaires d’établir leurs plans medias multi-terminaux. La prochaine étape importante de l’Internet global de Médiamétrie va être de passer de la fusion des données de mesures à une seule source de données, ce qui devrait aussi raccourcir le délai entre la mesure et sa publication. « Pour l’instant, nous utilisons une méthodologie de “fusion”. Mais nous préparons cette année, pour l’an prochain, une méthodologie single source, avec des panélistes qui seront alors à la fois sur ordinateurs, mobiles et tablettes, au lieu d’avoir les trois panels différents actuels. Ce nouvel “Internet global’’, qui ne fournira plus qu’un seul chiffre de référence à partir de données exhaustives, sera disponible mi-2016 », a-t-elle indiqué. Ce panel unique multi-écrans sera toujours enrichi – par hybridation – de données site centric et de logs opérateurs. Médiamétrie passera dans le même temps de trois à une nomenclature globale unique, et pareillement pour la méthodologie de traitement. Pour les acteurs du Net et des médias, notamment des publicitaires, les résultats de référence seront restitués sur
une seule interface web au lieu de trois jusqu’à maintenant. Rappelons que, depuis
mai 2014, Médiamétrie et Google ont lancé en France « le premier panel single
source multi-écrans » composé de 2.900 foyers équipés de quatre écrans : télévision, ordinateur, tablette et mobile. Le géant américain utilise ses technologies de mesure pour Internet, tandis que l’institut français utilise les siennes pour la télévision. Cependant, les résultats PAME (Panel Multi Ecrans) des deux partenaires sont réservés aux clients et ne sont donc pas publiés. « Il est par contre bien prévu de proposer au marché une mesure TV 4 écrans, dont les premiers résultats devraient être disponibles d’ici la fin de l’année », a indiqué Coralie Fourmentraux à Edition Multimédi@.
Médiamétrie//Netrating a en outre lancé en novembre dernier une offre baptisée XCR (Cross Campaign Ratings), qui propose de mesurer l’efficacité publicitaire à travers un bilan d’exposition « TV + Net » et reposant sur les mesures Médiamat de Médiamétrie et l’offre existante OCR (Online Campaign Ratings) de Nielsen. Cela permet de mesurer la couverture globale à un plan bi-média (télé/online).

La vidéo en ligne donne la mesure
La vidéo n’est pas en reste puisque Médiamétrie prépare pour cette année une mesure « Internet global vidéo », là aussi sur ordinateur, smartphone et tablette. Pour l’instant, la mesure de l’audience vidéo de l’institut français s’en tient aux ordinateurs depuis septembre 2011. « On va procéder en deux étapes. Dans le courant de cette année, nous allons proposer de premiers résultats d’usages et d’audiences aux acteurs qui sont taggués. Et l’an prochain, nous nous baseront sur le panel single source que l’on aura développé pour produire la mesure de référence exhaustive (ordinateur, smartphone et tablette) de la vidéo en France », a-t-elle encore annoncé. Quant au GRP Vidéo (GRP pour Gross Rating Point, ou PEB pour Point d’Exposition Brut), qui mesure la pression d’une campagne publicitaire sur une cible définie, il est enfin entré fin janvier dans phase de test sur des campagnes publicitaires réelles pour une commercialisation prévue ce mois-ci (courant février 2015).

Pub : comparer Net et TV
Le GRP Vidéo fournira des indicateurs comparables avec le GRP TV existant de la télévision. Initié en mai 2012 et très attendu par l’Union des annonceurs (UDA) et l’Union des entreprises de conseils et d’achat média (Udecam), il offrira un indicateur de GRP commun à la TV et au Net : définition du contact intégrant durée et visibilité). Après une consultation en avril 2014 auprès d’acteurs capables de mesurer la durée et la visibilité, Médiamétrie et les professionnels ont finalement choisi Integral Ad Science comme partenaire technique (au détriment d’Alenty et d’Adledge).
Reste à savoir si les chaînes de télévision (TF1, M6, France 2, …) et les plateformes vidéo (YouTube, Yahoo, Dailymotion, …) tireront avantage du GRP Vidéo. Pour les annonceurs, cette nouvelle mesure leur permettra de mieux connaître l’efficacité d’une campagne vidéo en ligne, notamment le réel impact en catch up TV (replay), et de son rapport qualitéprix. Le marché de la publicité vidéo sur Internet pourrait être incité à vendre du GRP Vidéo et non plus du CPV (coût par vue), du CPM (coût pour mille vues) ou du CPC (coût par clic), bref monétiser du qualitatif plutôt que du quantitatif.
La recherche d’audience pour les vidéos publicitaires pourra passer aussi par les achats aux enchères de type RTB (Real Time Bidding). Du moins si l’inventaire vidéo (comprenez les espaces publicitaires disponibles sur les sites web et les applications) faisait apparaître des invendus. Or, pour l’heure, L’offre d’inventaire vidéo est actuellement toujours inférieure à la demande des annonceurs…
Entre l’Internet global et le GRP Vidéo, le marché de la publicité sur Internet atteint un certain niveau de maturité. En France, ils sont à ce jour 35 millions de vidéonautes à regarder dans un mois 29 minutes et 3 secondes de vidéos en moyenne par personne et par jour (2). L’audience quotidienne moyenne par mois de vidéos dépasse même les 10 millions d’internautes, soit une progression de 8,3 % sur un an. @

Charles de Laubier

Le standard HTML5 prépare la revanche du Web sur les applications et les écosystèmes fermés

Lors de son intervention à la conférence LeWeb, le 10 décembre dernier, Tim Berners-Lee – l’inventeur du World Wide Web il y a 25 ans – a dénoncé les environnements fermés et verrouillés des « applis » mobiles, tout en se posant en garant de l’ouverture et de l’interopérabilité du Net. 2015 sera l’année du HTML5.

Tim Berners-Lee« Il nous paraît aujourd’hui naturel de regarder une vidéo directement dans son navigateur web, ou encore d’accéder au Web sur son téléphone. Nous nous attendons à pouvoir partager des photos, faire du shopping, lire le journal, et accéder à des informations partout, et sur tout type de terminal. Bien qu’invisibles pour la plupart des utilisateurs, HTML5 et la plateforme Web sont à l’origine de leurs attentes croissantes », avait déclaré Tim Berners-Lee (photo), président du consortium W3C, lors de la publication du nouveau standard HTML5 le 28 octobre dernier.

HTML5 et le principe de l’interopérabilité
Créé il y a vingt-cinq ans par le Britannique Tim Berners-Lee lorsqu’il était travaillait au Cern (ex-Conseil européen pour la recherche nucléaire) à Genève, le langage universel de création de sites et d’applications web Hypertext Markup Language (HTML) est plus que jamais – avec cette cinquième révision majeure – la clef de voûte du Web.
HTML5, c’est la garantie de pouvoir développer en une seule fois des sites et des applications en ligne qui seront interopérables sur les différentes plateformes et terminaux, tout en intégrant audio, vidéo, graphismes, animations ou encore dessins vectoriels (sans plugins). C’est la réponse du Web aux environnement plus ou moins verrouillés que sont les écosystèmes iOS d’Apple, Windows Phone de Microsoft, Android de Google ou encore le Fire OS d’Amazon, lesquels imposent autant de développements aux éditeurs d’applications. Avec l’HTML5, un seul développement cross-platform suffit selon le principe du « Développer une fois ; déployer partout ». Grâce à lui, les navigateurs web reprennent l’avantage sur les « applis » ou les
« apps » fermées.
Le cabinet d’études américain Gartner considère le HTML5 comme étant l’une des dix technologies mobiles les plus importantes pour 2015 et 2016. Et selon un sondage mené cette année par Vision Mobile auprès de 10.000 développeurs dans le monde,
42 % d’entre eux utilisent une combinaison d’HTML, CSS (1) et JavaScript (2) pour tout ou partie de leurs applications Web mobiles. HTML5 va leur faciliter la tâche, les développeurs de logiciels bénéficiant de la licence libre de droits et sans versement de redevances. Pour les industriels d’environnements propriétaires, soucieux de préserver leur walled garden, Apple en tête, ce standard ouvert présente des risques en matière de sécurité et de vie privée. Ce à quoi le W3C rétorque que la cryptographie, l’authentification et la gestion des identités feront parties intégrantes du nouveau standard. Le W3C, qui fête cette année ses vingt ans d’existence (3) et les vingt-cinq ans du Web, se diversifie de plus en plus pour répondre aux nouveaux usages tels
que les paiements web, l’automobile connectée, l’édition numérique, les télécommunications et les industries de divertissement (télévision, cinéma, etc.). Le HTML5 apparaît comme LA réponse à la fragmentation de l’économique numérique, confronté à la multiplication des plateformes – et terminaux associés – incomptatibles entre elles. Le problème de cette noninteropérabilité préoccupe la Commission européenne, qui y voit un morcellement du marché unique numérique :
« A peu près 35 % des développeurs ont été gênés par le manque d’interopérabilité entre plateformes comme Android, iOS et Facebook », avait-t-elle relevé en février dernier. En plus de ce frein technique, « une majorité de développeurs se sont
plaints de dépendre entièrement, de fait, des plateformes mises au point par les
géants américains, ainsi que des conséquences d’une telle dépendance en termes
de recettes » (4).
Après la neutralité du Net, l’interopérabilité deviendrait le nouveau sujet de débat en Europe. La fondation Mozilla, à l’origine du navigateur Firefox, est l’une des pionnières du HTML5. « Nous voulons que le Web soit la place de marché universel, la plateforme universelle, que l’on ait besoin d’iPhone, d’Android, de Windows ou autres. Les développeurs doivent pouvoir développer une seule application – en HTML5 – pour qu’elle soit utilisable sur tous les terminaux et plateformes », expliquait il y a un le Français Tristan Nitot, président fondateur de Mozilla Europe et porte-parole mondial
de la fondation (5).

Neutralité de l’Internet
Président depuis dix ans du W3C qu’il a fondé il y a vingt ans, Tim Berners-Lee est
un ardent défenseur de la neutralité de l’Internet. Britannique, il a été fait le 16 juillet
« chevalier commandeur » par la reine d’Angleterre Elizabeth II. « Le Web doit rester universel, ouvert à tous et n’altérant pas l’information véhiculée. La technologie devenant plus puissante et disponible sur davantage de types de terminaux d’accès », a-t-il déclaré à cette occasion. En 2015, il recevra le Prix Gottlieb Duttweiler. @

Charles de Laubier

Musique et vidéo : la bataille mondiale des métadonnées et de la recommandation en ligne

La société Gracenote veut devenir le standard dans la gestion des métadonnées décrivant les musiques et les vidéos numériques. Mais, au-delà de la reconnaissance des œuvres, se joue une bataille cruciale pour les industries culturelles : la recommandation en ligne auprès des utilisateurs.

ITunes d’Apple, Google Play, le could d’Amazon, les smartphones de HTC, le nouveau Napster de Rhapsody ou encore les TV connectées de Sony et de Toshiba : ils ont tous en commun de faire appel à la méga-base de métadonnées de la société américaine Gracenote. Y sont décrits plus de 180 millions de titres de musiques de part le monde. Cette mine d’informations sur les œuvres musicales (titre, genre, artiste, droits d’auteur, référence, illustration, paroles, …), consultée en temps réel à raison de plusieurs centaines de millions de requêtes par jour (plusieurs milliards par mois), permet aux plates-formes de musique sur Internet, aux fabricants de terminaux ou aux éditeurs
de boutiques en ligne, de proposer aux internautes ou aux mobinautes des services
de reconnaissance de musique.

AllMusic, The Echo Nest, MusicBrainz, …
Dès qu’un utilisateur insère un CD/DVD, choisit une musique en streaming ou regarde un clip vidéo sur sa télévision connectée, il peut avoir des informations sur ce qu’il écoute. Au-delà de l’identification et de la description d’œuvres musicales, Gracenote permet une prestation cruciale : la recommandation, grâce à une expertise éditoriale et algorithmique s’appuyant sur sa vaste base de données musicales. La qualification de contenus est un élément décisif aujourd’hui au regard de l’évolution du marché de la musique en ligne, où le streaming et le flux audio (webradio, smart radio, playlists, …) prennent le pas sur le téléchargement. Sur le mode « Vous avez aimé tel morceau ; vous adorerez tel autre »,
la recommandation – émanant d’une boutique en ligne ou d’amis sur les réseaux sociaux – est devenue stratégique pour les industries culturelles et facteur de différenciation pour les plates-formes numériques (1). Les fournisseurs d’accès à Internet (FAI) s’y mettent aussi, comme le montre en France Free, qui a affirmé être « le premier opérateur au monde à proposer le service de reconnaissance musical Music ID de Gracenote » (2). Les métadonnées montent même en voiture avec Ford, Toyota ou Chrysler. Gracenote, qui appartient depuis 2008 à Sony, est en passe d’être vendu au groupe de médias américain The Tribune Compagny, pour 170 millions de dollars. Ce dernier compte rapprocher Gracenote, qui a aussi développé une base de métadonnées dans la vidéo,
de sa propre base données sur les programmes de télévision et de films de cinéma TMS (Tribune Media Services). Cette reconnaissance automatique de contenus audiovisuels devient essentielle. Ainsi, Gracenote compte LG, Sony et Philips parmi ses clients en télévision connectée, Syfy Sync de NBC Universal ou Zeebox dans la synchronisation du second écran et Vudu du groupe Walmart, entre autres, dans les services de cloud vidéo, en plein boom. Appelé anciennement CDDB (Compact Disc Data Base), Gracenote est loin d’être le seul à donner le « la » dans les métadonnées musicales. La concurrence s’organise. La société américaine AllMusic (ex-All Media Guide), rachetée en 2007 par Rovi et basée dans le Michigan, commercialise aussi une base de métadonnées de 30 millions de musiques. Parmi ses clients : de nouveau iTunes, Yahoo, eMusic ou encore AOL. AllMusic rivalise avec une société du Massachusetts, The Echo Nest, revendiquant une base de plus de 35 millions de titres référencés qu’utilisent Vevo, Spotify, Rdio, MTV, Warner Music, Yahoo ou encore Nokia (3). Il y a aussi MusicBrainz (utilisé par la BBC)
et Freedb (racheté par l’allemand Magix), qui ont tous les deux la particularité d’avoir été créés pour prendre le contre-pied de Gracenote, devenu payant (sous licence), en rendant libres leurs bases de métadonnées musicales. Si les gestionnaires de métadonnées sont essentiellement anglo-saxons, la diversité musicale européenne est-elle suffisamment bien couverte par les algorithmes mélomanes ? En France, il y a la société Music Story, créée en 2008 et basée à Lille. Elle gère une base de métadonnées musicale de près de 130.000 artistes francophones et près de 500.000 photos d’artistes, pour plus de 1,1 million d’enregistrements. Ses clients : Deezer, VirginMega.fr, Lagardère, Priceminister ou encore la webradio Radionomy.

Music Story : métadonnées francophones
En plus de la qualification des titres de musiques francophones, l’équipe éditoriale
de Music Story y ajoute des notes biographiques, des chroniques d’albums, des discographies, des informations commerciales (disponibilité, prix, support, …), ainsi
que les comptes sociaux des artistes sur Twitter, Facebook ou YouTube. C’est que la recommandation proposée par les Facebook, Twitter et autres Dailymotion serait devenue l’une des principales sources d’audience des plates-formes de contenus culturels en ligne. Internet devient ainsi un jukebox géant, fonctionnant sur recommandations. @

Charles de Laubier

Cookies : le consentement des internautes doit se faire directement sur le site web, exige la Cnil

Selon nos informations, la Cnil demande aux professionnels de la publicité sur Internet et du marketing direct de ne pas déposer de cookies publicitaires lors
de la première visite des sites web, tant que l’internaute n’a pas poursuivi sa navigation, ni d’en déposer lors de la lecture d’e-mails.

Il y a près d’un an, en avril 2012, la puissante Union française du marketing direct et digital (UFMD) – regroupant plusieurs organisations et associations de la publicité ou du e-commerce (1) – publiait un « Guide de bonnes pratiques concernant l’usage des cookies publicitaires » destinés aux professionnels et au grand public (2).

Option directement sur le site web
Mais ce guide ne satisfait toujours pas la Commission nationale de l’informatique et
des libertés (Cnil) qui a décidé de poursuivre les négociations engagées avec l’UFDM depuis l’été dernier, en prévision de l’adoption d’ici la fin de l’année du règlement européen. Ce dernier prévoit le renforcement de la protection des données personnelles sur Internet. Les deux protagonistes, tous deux créés en 1978 (3), n’arrivent toujours pas à s’entendre sur la manière dont les internautes et les mobinautes devraient être informés sur les cookies publicitaires et sur les modalités leur permettant de donner ou pas leur consentement. La Cnil considère en effet que le guide de l’UFDM ne respecte pas ses exigences et l’a fait savoir par courrier à cette dernière. L’autorité administrative de la rue Vivienne, qui appuie la Commission européenne dans son projet de rendre obligatoire le consentement explicite préalable des utilisateurs avant tout dépôt de cookies publicitaires, veut durcir les conditions d’utilisation de ces petits mouchards numériques par les professionnels d’Internet.
Concrètement, selon nos informations, la Cnil demande à l’UFMD d’amender son guide
en faisant en sorte que les internautes et les mobinautes aient le choix de dire « oui »
ou « non » aux cookies directement sur le site web de l’éditeur, et non pas à partir du paramétrage souvent compliqué de leur navigateur Internet, ni à partir d’un site intermédiaire de type Youronlinechoice.
Depuis septembre dernier, l’UFMD avait bien instauré l’affichage d’un message informant l’internaute – lors de sa première visite sur un site web – qu’il accepte les cookies de ce site s’il y poursuit sa navigation. Mais pour exprimer son consentement ou pas, l’utilisateur est toujours renvoyé à son navigateur ou à un site tiers. Jusqu’alors bienveillante, la Cnil a clairement dit au cours d’une réunion avec les professionnels de la communication le 17 janvier dernier qu’elle voulait voir simplifier et clarifier cette démarche en exigeant que les éditeurs donnent le choix à l’internaute directement sur leurs sites web. Or les éditeurs sont plutôt réticents à mettre en place ce dispositif, dont ils auraient en plus à assumer les frais d’installation, et à donner systématiquement sur leur home page une information sur les cookies. Et ce, comme le font déjà certains sites anglo-saxons qui affichent d’emblée la mention suivante, comme nous l’avons ainsi constaté en haut de la page d’accueil du site web par exemple : « Nous utilisons des cookies pour assurer que nous vous donnons la meilleure expérience sur notre site web. Nous utilisons aussi des cookies pour être sûr que nous vous vous montrons de la publicité pertinente pour vous. Si vous continuez sans changer vos options, nous supposerons que vous êtes heureux de recevoir tous les cookies sur le site web de la BBC. Cependant, si vous le vouliez, vous pouvez changer [ici] vos options de cookie à tout moment ». S’inspirant de cette pratique visible et simple, la Cnil souhaite que les cookies ne soient pas déposés dans l’ordinateur ou le terminal de l’utilisateur tant qu’il n’a pas continué à visiter le site web en question. Et lorsqu’il s’agit d’un e-mail publicitaire, la Cnil souhaite là aussi de la retenue : elle demande aux éditeurs de ces e-mailings de ne pas déposer de cookies lors de la phase de lecture de l’e-mail. Certains éditeurs, notamment au sein du Groupement des éditeurs de services en ligne (Geste), s’inquiètent du changement d’attitude de la Cnil à leur égard. « Les projets des eurodéputés [présentés le 10 janvier dernier, ndlr] précisent les modalités d’exercice, gratuit, du droit d’opposition qui doit être proposé en termes clairs et simples par les responsables de traitement, et d’expression du consentement qui devra être donné de manière explicite, notamment en matière de profilage », a déclaré Isabelle Falque-Pierrotin, la président de la Cnil, dans une récente interview (4) à EM@. Avant de mettre en garde : « La publicité ciblée en ligne est licite à condition que l’internaute y
ait expressément consenti ».

En attendant le durcissement européen
Autant dire que la Cnil est sur la même longueur d’onde que la Commission européenne. « Les consommateurs ont le droit (…) de choisir s’ils souhaitent utiliser des cookies, qui pistent leur utilisation de l’Internet », déclarait Neelie Kroes dans Libération le 16 janvier. Mais pour l’heure les éditeurs semblent vouloir faire durer les négociations avec l’autorité, en se retranchant derrière la seule loi applicable (5) actuellement en France sur les cookies. @

Charles de Laubier

L’année 2013 s’annonce à risque pour Jean-René Fourtou, président de Vivendi

J-107 avant l’assemblée générale de Vivendi qui se tiendra le 30 avril prochain. Jean-René Fourtou va jouer son va-tout en prenant le risque démanteler le groupe de médias et de télécoms pour le recentrer sur les contenus. Ce qui déclenchera une restructuration du secteur des télécoms en France.

JRFQuinze ans après avoir adopté le nom de Vivendi, le groupe issu de la Compagnie Générale des Eaux s’apprête à changer radicalement de stratégie sous la houlette de son président du conseil de surveillance Jean- René Fourtou (notre photo). Ce polytechnicien, qui aura 74 ans à la fin du printemps prochain, semble vouloir reproduire avec Vivendi ce qu’il a réussi à faire avec Rhône Poulenc. Il y a quinze ans, il filialisait l’activité chimie sous le nom de Rhodia et fusionnait Rhône Poulenc avec Hoechst pour donner naissance au géant des laboratoires pharmaceutiques, Aventis, racheté par la suite par Sanofi.
Mais après avoir séparé la chimie (confrontée alors à la crise du textile) et la pharmacie est-ce un gage de réussite en voulant aujourd’hui céder les télécoms (confrontées à la crise des réseaux) pour miser sur les médias ? Il ne reste plus à Jean-René Fourtou qu’une centaine de jours de réflexion, avant l’AG du 30 avril où il devra mettre cartes sur table, pour arrêter sa nouvelle stratégie et en mesurer les conséquences pour son groupe coté et l’ensemble du marché français des télécoms. Près d’un an après le lancement de cette réflexion stratégique et plus de six mois après l’éviction de Jean-Bernard Lévy, alors président du directoire de Vivendi (lequel était opposé à la scission ou au démantèlement du groupe), Jean-René Fourtou n’a toujours pas présenté son nouveau plan stratégique.
Il faudra attendre cette AG pour enfin voir se dessiner le vrai visage du futur Vivendi.

Télécoms en France : restructuration en vue
« Faut-il vendre des activités ou séparer le groupe en deux, voire trois ? Cette question n’est pas taboue », avait écrit le président du conseil de surveillance dans une lettre aux actionnaires datée du 27 mars 2012, quelques jours avant l’AG de l’an dernier. L’idée de scission – réseaux d’un côté (SFR fixe et mobile, Maroc Télécom, GVT) et contenus de l’autre (Canal+, Universal Music, Activision Blizzard) – a été abandonnée (1) au profit de la vente des filiales télécoms (2). En France, si ce n’est pas avec Free ou Bouygues Telecom, SFR pourrait fusionner avec Numericable si l’Autorité de la concurrence le permet (au risque de renforcer un marché déjà oligopolistique). A moins que Vodafone ne s’empare de SFR, dont il fut longtemps co-actionnaire (3)… Alors que Vivendi entre le 21 janvier dans la quiet period précédant la publication de ses résultats annuels prévue le 26 février, ce silence va accroître l’impatience, le doute et l’inquiétude des actionnaires, des investisseurs et des quelque 58.000 salariés de la multinationale – dont les 16.000 des filiales françaises.

La Bourse comme unique boussole
Les syndicats, eux, craignent que la suppression d’emplois chez SFR (près d’un millier de départs) ne préfigure sur l’ensemble de Vivendi une année sociale 2013 mouvementées. Quant aux agences de notation, elles s’interrogent sur la perspective financière du groupe : Standard & Poor’s a placé sous perspective négative la note BBB. « La révision de la stratégie de Vivendi peut affaiblir [le groupe] à l’avenir, en particulier parce qu’il pourrait réduire sa diversification », a-t-elle prévenu fin octobre. Moody’s et Fitch ont également mis sous surveillance le groupe, dont la dette dépasse les 14 milliards d’euros. De plus, la possible dépréciation de SFR – valorisé au mieux 20 milliards d’euros, au pire 10 milliards – pourrait peser sur les comptes de Vivendi. Mais en ce début d’année 2013 et moins de trois ans avant la fin de son mandat qu’il s’est dit prêt à écourter, Jean- René Fourtou va devoir passer aux actes. Donnant pour l’instant l’impression d’avoir la Bourse comme unique boussole (4),
ce capitaine d’industrie tarde à donner le cap. En fait, l’abandon des activités réseaux de Vivendi au profit des médias et des contenus a été décidé l’été dernier. La conséquence immédiate fut le départ pour « divergence stratégique » de Jean-Bernard Lévy, de formation X-Télécom. Frank Esser a-t-il, lui, senti le vent tourner pour démissionner fin mars 2012 de son poste de PDG de SFR, la filiale télécoms de Vivendi qu’il dirigeait depuis dix ans ? Lui faire porter le chapeau des 200.000 abonnés perdus
« faute d’avoir anticipé » le lancement de Free Mobile il y a un an était-il un prétexte ?
Quoi qu’il en soit, c’est une petite phrase glissée en fin d’un bref communiqué daté du 21 septembre qui esquisse la nouvelle stratégie : « Vivendi renforce ainsi sa position dans les contenus de manière significative » (5). Pas besoin d’être grand clerc pour comprendre : exit les télécoms… Cette propension à s’afficher plus dans les « contenus » que dans les « tuyaux » est aussi apparue discrètement dans les « A propos de Vivendi » qui terminent tous les communiqués : dès 2011, on passe de « groupe français leader mondial de la communication » à « Vivendi est au cœur des univers des contenus, des plates-formes et des réseaux interactifs ». Les réseaux ne sont alors plus en odeur de sainteté au sein du groupe… Au-delà de l’échec dans la recherche de synergies entre réseaux et contenus, sur fond de convergence numérique (6), Vivendi s’est retrouvé avec des actifs télécoms soumis à la pression de l’Etat et de l’Arcep (fiscalité, obligations d’investir dans le très haut débit, régulation pro-concurrentielle, financement de la création, …). C’est du moins ce qu’affirment ses dirigeants pour justifier leur désamour avec les les télécoms, lesquelles, en réalité, n’assurent plus une rente suffisante. La concurrence fait le bonheur des uns (les consommateurs) mais le malheur des autres (les actionnaires)… C’est donc le cours de Bourse de Vivendi qui préoccupe au plus haut point Jean-René Fourtou : l’action – tirée vers le bas depuis la crise financière de 2008 – a perdu plus de 44 % de sa valeur en 5 ans, malgré un rebond de plus de 15 % depuis six mois, à moins de 17 euros (7), soit au même niveau que le cours hérité il y a dix ans de l’ère Jean-Marie Messier ! « C’est la décote de holding, la différence entre la valeur de Vivendi et la somme de celle de ses activités, qui paraît excessive », déplore la présidence du groupe.
Mais les paroles sibyllines ne font pas une stratégie. La distillation de quelques propos dans la presse tente de rassurer. Ainsi Jean-François Dubos, président du directoire jusqu’au 30 avril, a voulu clarifier : « Notre première certitude, c’est que nous avons
tous les atouts pour nous affirmer comme un leader européen, voire mondial, dans les contenus et les médias. (…) L’avenir de Vivendi est dans les contenus et leur distribu-
tion », a déclaré mi-décembre ce dernier (8). Le conseil de surveillance, qui compte
13 membres après avoir accueilli mi-décembre Vincent Bolloré (devenu premier actionnaire de Vivendi avec 5 % du capital (9)) et Pascal Cagni (ancien dirigeant européen d’Apple), s’est mis en ordre de bataille dans les contenus face à Google, Apple, Facebook ou encore Amazon. Afin de permettre la cooptation du premier, Jean-Yves Charlier, le « Monsieur télécoms » du conseil de surveillance et alors président de son comité stratégique, a dû démissionner.

Meheut dirigera-t-il le nouveau Vivendi ?
Le recentrage « médias » du groupe est déjà en marche. Certes, Jean-Yves Charlier est devenu en octobre DG des activités télécoms. Mais c’est à Bertrand Meheut, président du groupe Canal+, que le conseil de surveillance a confié dans le même temps « une mission de réflexion pour le développement des médias et des contenus ». Et il est probable que Bertrand Meheut soit nommé au printemps prochain président du directoire de Vivendi. Pour succéder à Jean-René Fourtou dans les trois ans ? @

Charles de Laubier