Société de l’information : vers une généralisation du signalement des incidents de sécurité

L’Union européenne va adopter deux textes majeurs qui vont étendre et renforcer les responsabilités des entreprises et des acteurs du Net dans la société de l’information : la nouvelle directive « Cybersécurité » et le règlement « Protection des données personnelles ».

Par Christophe Clarenc, cabinet Dunaud Clarenc Combles & Associés

Les prochaines adoptions, d’une part, de la nouvelle directive
en faveur d’un niveau élevé commun de sécurité des réseaux
et systèmes d’information, et, d’autre part, du règlement général sur la protection des données personnelles confirment un renforcement de la cyber-responsabilité des entreprises à travers notamment une généralisation de l’obligation de signaler les incidents et violations de sécurité.

Dépendance critique
Les promesses et la pérennité même de la « société de l’information » promue au sein de l’Union européenne (UE) dépendent de la sécurité des technologies, systèmes et traitements d’information qui la sous-tendent et la structurent. Cette dépendance est critique, à mesure tout à la fois : de la vulnérabilité intrinsèque de ces dispositifs informatiques, de la vulnérabilité systémique résultant de l’interconnexion et de la sous-traitance en chaîne de ces dispositifs dans le cyberespace, de l’actuelle dépendance vis-à-vis des dispositifs de traitement et de sécurité étrangers, ainsi que des actes, menaces et enjeux démultipliés de cyberattaques. A quoi s’ajoutent la protection et
la transparence souvent insuffisantes des entreprises devant les incidents et violations de sécurité, et, enfin, la confiance nécessaire des citoyens-consommateurs dans cette société de l’information (1).
La législation européenne a déjà défini la notion et les risques, exigences et moyens génériques de sécurité (disponibilité, authenticité, intégrité et confidentialité) des réseaux et systèmes d’information (RSI), et a imparti différentes obligations de sécurité pour les opérateurs de communications électroniques et pour les responsables de traitements de données à caractère personnel. La directive sur la sécurité des réseaux et systèmes d’information (SRI) et le règlement général sur la protection des données personnelles viendront étendre et renforcer ces obligations, et en forcer le respect par une généralisation de l’obligation de signaler les incidents et violations de sécurité et des sanctions dissuasives en cas de manquement.

C’est en février 2013 que la Commission européenne a présenté une proposition de directive concernant des mesures destinées à assurer un niveau élevé commun de SRI dans l’UE (directive dite « Cybersécurité »). Un accord « trilogue » (2) est intervenu en décembre dernier sur un texte sensiblement remanié (3) (*) (**).
Cette proposition de directive « SRI » s’inscrivait dans la continuité des travaux et des actes européens poursuivis depuis 2001 (voir encadré page suivante). Elle visait en particulier à établir des exigences élevées et communes de SRI pour les « acteurs du marché » concernés, recouvrant à la fois les prestataire de services de la société de l’information – tels que les services d’informatique en nuage, ou les moteurs de recherche comme Google ainsi que les plateformes de e-commerce comme eBay
ou Amazon – et les opérateurs d’infrastructure critique essentielle au maintien de fonctions économiques et sociétales vitales à identifier dans les domaines de l’énergie, des transports, des services bancaires, des bourses de valeur et de la santé – sous le contrôle dans chaque Etat membre de l’autorité compétente en matière de SRI. Cette proposition prévoyait notamment l’obligation pour ces acteurs de notifier à l’autorité
« les incidents qui ont un impact significatif sur la sécurité des services essentiels
qu’ils fournissent » avec pouvoir de l’autorité d’« informer le public, ou demander
[aux acteurs] de le faire, lorsqu’elle juge qu’il est dans l’intérêt général de divulguer
les informations relatives à l’incident ».

Opérateurs d’importance vitale
Cette proposition « SRI » de 2013 était fortement soutenue et inspirée par la France dans la continuité de ses préoccupations et de sa stratégie de défense et de sécurité des systèmes d’information des infrastructures nationales devant la menace majeure des cyberattaques, et de son propre dispositif – adopté dans sa loi de programmation militaire de décembre 2013 (4) – de cyber-protection des opérateurs répertoriés d’importance vitale (OIV), placé sous l’autorité du Premier ministre et de la direction
de l’Agence nationale de défense des systèmes d’information (Anssi) (5).
L’accord trilogue intervenu en décembre 20015 a sensiblement remanié le schéma
de la proposition. Il établit deux régimes de réglementation et de contrôle SRI. L’un concerne les « opérateurs de services essentiels » à identifier par chacun des Etats membres dans les secteurs de l’énergie, des transports, des services bancaires,
des marchés financiers, de la santé, de l’eau et des infrastructures numériques, caractérisés par leur rapport direct avec des infrastructures physiques. L’autre
concerne les « fournisseurs de services numériques » génériquement et limitativement appréhendés dans les domaines des places de marché en ligne, des moteurs de recherche et des services d’informatique en nuage ou cloud, également regardés comme critiques mais différenciés par leur nature transfrontière et internationale.

Responsabilités renforcées
Les opérateurs de services essentiels désignés et les fournisseurs de services numériques concernés devront notifier sans délai indu les incidents de SRI ayant un impact significatif ou substantiel sur la continuité de leurs services, avec information du public en cas de nécessité et après consultation. Les contrats de prestation conclus par ces opérateurs avec ces fournisseurs devront être soigneusement examinés. En effet, ces opérateurs seront seuls responsables de la notification des incidents affectant la continuité de leurs services causés par des incidents survenus chez ces fournisseurs-prestataires. Enfin, les entreprises non visées pourront volontairement notifier leurs incidents de SRI.
Quant au règlement général de protection des données personnelles (6), à intervenir prochainement à la suite de l’accord trilogue également trouvé en décembre dernier,
il viendra encore étendre et renforcer les responsabilités de SRI eu égard à la capacité des failles et incidents de SRI à affecter la sécurité des traitements et des données.
En effet, outre un renforcement des obligations propres à la sécurisation des traitements, il impartit à l’ensemble des entreprises responsables de traitement, sous peine de sanctions devenant très dissuasives de manquement, de dépister et conserver la trace documentaire de toute violation de données personnelles, et de notifier à l’autorité nationale compétente (en France la Cnil), sans retard indu et si possible sous 72 heures, toute violation constatée susceptible de présenter un risque pour les droits et libertés des personnes concernées, avec information de ces dernières en cas de risque élevé et non contrecarré.
La conformité « SRI » s’impose comme un facteur critique de responsabilité administrative, pénale, contractuelle et quasi-délictuelle (et d’assurance), de crédibilité, de réputation et de différenciation compétitive dans la société de l’information. @

ZOOM

Proposition de directive « SRI » : 15 ans de gestation
Depuis 2001, des travaux et des actes se sont enchaînés au niveau européen au nom de la sécurité des réseaux et de la cybersécurité. Parmi eux :
• La communication de juin 2001 invitant à une approche politique européenne en matière de SRI ;
• La directive 2002/21/CE de mars 2002 soumettant les opérateurs de communications électroniques à des mesures pour assurer la sécurité/intégrité de leurs réseaux et services ;
• Le règlement 460/2004 de mars 2004 instituant une Agence européenne chargée de la SRI (Enisa) et apportant premières définitions des systèmes d’information, des exigences génériques de SRI, des risques de SRI et de la SRI ;
• Le livre vert de novembre 2005 pour un programme européen de protection des infrastructures critiques (IC) mentionnant les technologies de l’information (TIC) ;
• La communication de mai 2006 proposant une stratégie pour une société de l’information sûre ;
• La directive 2008/114/CE de décembre 2008 relative au recensement et à la désignation des IC européennes soulignant l’intérêt d’examiner une inclusion des TIC ;
• La communication de mars 2009 concernant la protection des infrastructures d’information critiques (IIC) soulignant la criticité de certaines infrastructures TIC (7) et envisageant à cet égard de les soumettre à l’obligation de notification des incidents de sécurité concomitamment proposée pour les opérateurs de communications électroniques ;
• La proposition de septembre 2010 de directive relative aux attaques contre les systèmes d’information (dite « cybercriminalité ») qui aboutira à la directive 2013/40/UE d’août 2013 établissant infractions pénales communes d’accès illégal à des systèmes d’information, d’atteinte illégale à l’intégrité d’un système d’information, d’atteinte illégale à l’intégrité des données et d’interception illégale, et recommandant, pour renforcer la sécurité, des mesures incitant à notifier les failles de sécurité ;
• La directive 2009/140/CE de novembre 2009 (modifiant la directive 2002/21/CE) soumettant les opérateurs de communications électroniques à l’obligation de notifier à l’autorité nationale compétente « toute atteinte à la sécurité ou perte d’intégrité ayant eu un impact significatif sur le fonctionnement des réseaux ou des services » avec pouvoir de l’autorité d’« informer le public ou exiger des entreprises qu’elles le fassent dès lors qu’elle constate qu’il est d’utilité publique de divulguer les faits » ;
• La communication de février 2013 sur la stratégie de cybersécurité de l’UE introduisant notamment la proposition de directive SRI présentée à cette même date. @

Twitter se sent à l’étroit dans ses 140 caractères et voit plus grand pour accélérer sa croissance

Pour ses 10 ans, Twitter va franchir les 2 milliards de dollars de chiffre d’affaires mais perd toujours de l’argent. Le réseau social de microblogging veut séduire les annonceurs. Il lui faut accroître son audience et l’attention quotidienne des twittos et fellowers. Google arrive à la rescousse…

Twitter, qui aura dix ans dans six mois (1), revendique aujourd’hui un peu plus de 300 millions d’utilisateurs
actifs par mois dans le monde – seuil franchi depuis la fin de l’année dernière (2). Mais seulement moins de 45 % d’entre eux se connectent quotidiennement, alors que ce taux est comparativement de 65 % pour les 1,49 milliard d’utilisateurs de Facebook.

Condamné à faire plus grand public
Le co-fondateur de Twitter, Jack Dorsey (photo), qui a repris les choses en main cet été en devenant directeur général par intérim depuis la démission de Dick Costolo en juin, a qualifié d’« inacceptable » le nombre d’utilisateurs par mois. Au-delà du fait d’avoir
à rechercher un nouveau directeur général (3), il doit remettre le site web de microblogging sur le chemin de la croissance en le rendant aussi populaire que Facebook. Pour l’instant, Twitter a plus séduit des professionnels (communicants et personnalités) que le grand public. Fin juillet, lors des derniers résultats trimestriels,
le directeur financier de Twitter, Anthony Noto, avait prévenu qu’il n’y aura pas de croissance importante et durable du nombre d’utilisateurs tant que Twitter ne touchera pas le grand public : « Nous ne nous attendons pas à avoir une croissance régulière significative [du nombre d’utilisateurs] avant de commencer à toucher le grand public ». Ce qui, selon lui, « prendra un temps considérable », avant de reconnaître que « le produit reste trop difficile à utiliser ». Avec un taux de pénétration inférieur à 30 % sur ses principaux marchés, Twitter est finalement principalement utilisé par des early adopters et/ou des geeks. Un total de plus de 1 milliard d’internautes auraient essayé Twitter avant de renoncer à l’utiliser ! Il lui faudra donc élargir son public sous peine
de stagnation face aux dynamiques Facebook, Instagram ou Snapchat. Depuis cette douche froide, le cours de Bourse de l’oiseau bleu ne cesse de perdre de l’altitude : l’action est passée pour la première fois – le 21 août dernier – en dessous de son prix d’introduction qui avait été fixé en novembre 2013 à 26 dollars (soit une chute de 30 % depuis juillet) et peine depuis à remonter au-dessus des 30 dollars. On est bien loin du pic de 70 dollars atteint à la fin de cette année-là. Le seul rebond boursier remonte àmi-juillet lorsqu’une fausse dépêche de l’agence de presse Bloomberg – propagée par un site web créé au Panama quelque jours plus tôt – a affirmé que Twitter étudiait une offre de rachat pour 31 milliards de dollars ! Twitter pourrait être une proie de choix pour Google, lequel a renouvelé en mai dernier avec lui un accord de partenariat suspendu depuis 2011 afin de rendre encore plus visibles les tweets sur le moteur de recherche
et lui amener ainsi plus de trafic. Twitter, que Google va aussi aider pour proposer cet automne des articles par tweets instantanés avec la presse (4), a en outre conclu un partenariat avec DoubleClick, la régie publicitaire du même géant du Net, pour améliorer la mesure des performances publicitaires sur son réseau social. Autres partenaires de poids : Microsoft et Apple, dont les systèmes d’exploitation Windows
10 et iOS intègrent une nouvelle application Twitter.

Jack Dorsey doit aussi trouver des recettes supplémentaires pour mieux monétiser son réseau social, alors que les prévisions de chiffre d’affaires pour cette année 2015 n’ont cessé d’être revues à la baisse : l’objectif est actuellement ramené à une fourchette de 2,20-2,27 milliards de dollars (voir tableau), contre 2,17-2,27 milliards et même 2,3-2,35 milliards initialement. Malgré des résultats trimestriels (au 30 juin) meilleurs que prévus (5), Twitter pèse à peine 1% des 145 milliards de dollars dépensés en publicité numérique dans le monde (selon eMarketer). Les investisseurs s’inquiètent d’autant plus qu’après la démission de Dick Costolo (au bout de cinq ans à ce poste), Jack Dorsey doit lui trouver un successeur de toute urgence et « à temps plein ».

Recruter vite un nouveau DG
Des noms circulent : Padmasree Warrior, ancienne dirigeante de Cisco, ou Jim Lanzone, actuel PDG de CBS Interactive, ou bien encore Adam Bain, responsable des revenus et des partenariats de Twitter – où il est entré en septembre 2010 après avoir été chez Fox Interactive Media en charge de l’audience. Ce dernier semble être le seul recours possible en interne, à part Jana Messerschmidt, vice-présidente de Twitter en charge du développement et de la plateforme. A moins que Jack Dorsey, qui avait été le premier directeur général de Twitter entre 2007 et 2008, ne garde les rênes le temps de remettre l’oiseau bleu sur le droit chemin. Reste à savoir si le futur patron sera nommé avant que l’arrivée début octobre du nouveau directeur général de la filiale française, Damien Viel, ancien de YouTube, de M6, d’Afflelou, de Carat et de l’Oréal (6). La société de San Francisco, qui a fait appel au cabinet chasseur de tête Spencer Stuart, doit en outre recruter non seulement un directeur de la communication (7),
mais aussi un directeur marketing avant de lancer une campagne publicitaire destinée
à booster son audience et à la monétiser.

Mieux monétiser l’oiseau bleu Twitter mise notamment sur le direct pour attirer les annonceurs et expérimente depuis juin l’insertion de messages sponsorisés dans les flux des utilisateurs (8). Il s’agit d’aller au-delà des simples tweets en offrant des informations supplémentaires sur des produits ou des lieux, avec l’apparition de boutons « acheter » testés depuis un an, Twitter s’appuyant sur les sociétés Stripe
et InMobi. Décidément, le réseau social de tweets se sent à l’étroit dans ses 140 caractères : une première entorse a été faite à cette règle avec la possibilité depuis
le mois d’août d’envoyer des messages privés – ceux échangés directement entre utilisateurs – dépassant le calibrage historique. Cependant, ces messages directs resteront invisibles sur la timeline de Twitter. De plus, il est désormais possible à ceux qui le souhaitent de recevoir des messages privés de personnes qu’ils ne suivent pas sur Twitter. C’est un grand pas pour le site de microblogging, qui espère ainsi séduire un plus large public en étant plus souple d’utilisation. La société de San Francisco compte en outre sur ses partenariats avec les médias et les célébrités pour faire croître son audience et ses revenus. En France, Europe 1 et TF1 ont ainsi passé cet été des accords avec Twitter qui entend « matérialiser » les conversations à travers des micro-studios itinérants (TF1 pour « The Voice ») ou des petits locaux fixes (Europe 1 pour ses invités et animateurs). Le réseau social à l’oiseau bleu a en outre annoncé fin août l’ouverture à Paris d’une « Blue Room », un studio dédié à accueillir des personnalités pour échanger en direct des tweets avec le grand public. Cette initiative est présentée comme une première en Europe, après l’inauguration mi-mars en Australie de ce concept de communication directe (9). De son côté, l’AFP a lancé cette année avec Twitter un produit, TweetFoot, qui permet de suivre l’actualité du football sur la base de comptes sélectionnés par la rédaction. En temps réel ou avec du recul, de nouveaux médias sont nés dans le giron du site de microblogging tels que « FlashTweet »,
« L’Important » ou encore « Reported.ly ». Mais Twitter se réserve le droit d’en censurer comme il l’a fait pour « Politwoops » qui a été arrêté pour s’être spécialisé dans la diffusion de tweets supprimés par des personnalités politiques. Twitter a en outre lancé en octobre 2014 l’écoute de musique et de contenus sonores, en partenariat avec iTunes et SoundCloud. Si Twitter ne se sauve pas luimême, c’est peut-être par ses acquisitions qu’il pourrait trouver une planche de salut. Les rachats de Periscope, de TellAppart et de Niche ont été appréciés. Periscope, aussitôt intégré à Twitter une fois la start-up Bounty Labs acquise (10), se présente comme un concurrent de Meerkat dans la retransmission vidéo en direct d’événements ou de contenus à destination des smartphones et tablettes (11). Et ce, sans passer par l’intermédiaire d’une plateforme d’hébergement telles que YouTube ou Dailymotion. Ce qui ne va pas sans donner des sueurs froides aux ayants droits comme les chaînes de télévision détentrices des
droits de retransmission d’événement ou de diffusion de série (exemple de HBO contre Periscope en avril). Le fondateur de Bounty Labs, Kayvon Beykpour, a assuré qu’il retirait rapidement les contenus litigieux.
En France, en attendant que Periscope ne prenne de l’ampleur, TF1, France Télévisions, Canal+ et M6 – via l’Association de lutte contre la piraterie audiovisuelle (Alpa) – se sont plaints en mai dernier auprès de Twitter et de Facebook de la diffusion de vidéo pirates de leurs programmes sur les deux réseaux sociaux.

Acquisitions, faute de croissance interne
Les chaînes de télévision françaises leur demandent d’adopter « une véritable politique de sanctions » et « des technologies de filtrage automatique par reconnaissance d’empreintes numériques préalablement déposées par les détenteurs de droits, permettant de bloquer la mise en ligne de vidéos contrefaisantes » (12). La Ligue française de football (LFP) a aussi sévi auprès de Twitter France contre le piratage
de ses matches.
La seconde acquisition concerne la société TellApart, spécialisée dans les publicités et emailings ciblés pour le e-commerce. La troisième concerne Niche, une sorte agence d’artistes les mettant en relation avec des annonceurs. La croissance externe de Twitter n’est sans doute pas terminée. @

Charles de Laubier

Avec Delphine Ernotte Cunci comme présidente, France Télévisions va coûter plus cher aux Français

Présidente de France Télévisions depuis le 22 août, Delphine Ernotte Cunci – ancienne directrice exécutive d’Orange France – se dit favorable à une extension de la redevance audiovisuelle aux écrans numériques et souhaite d’avantage monétiser les contenus des cinq chaînes publiques, quitte à se lancer dans la SVOD.

Le mandat de cinq ans de Delphine Ernotte Cunci (photo)
à la présidence de France Télévisions devrait être marqué par l’élargissement de l’assiette de la redevance audiovisuelle – pour tenir compte de la consommation de
la télévision sur d’autres écrans numériques – et par la revalorisation de son montant. La ministre de la Culture
et de la Communication, Fleur Pellerin, a indiqué le 2 septembre sur France Info qu’« il n’est pas question de taxer les smartphones ou les tablettes » pour élargir l’assiette de la redevance, mais que son« extension aux boxes » des fournisseur d’accès à Internet (FAI) était « une option ».
Mais Axelle Lemaire, secrétaire d’Etat au Numérique, a dit à L’Opinion le lendemain qu’elle n’y était « pas tellement favorable ». Fleur Pellerin avait aussi évoqué le 27 août sur iTélé une éventuelle « légère augmentation » par rapport aux 136 euros actuels.
Le Premier ministre et le président de la République arbitreront « dans les prochains jours ». De son côté, la nouvelle présidente de France Télévisions s’est dite « favorable à une réforme de la redevance à l’allemande, en l’élargissant à d’autres supports ».
Elle l’a redit devant l’Association des journalistes médias (AJM) le 31 août : « On peut même ‘fiscaliser’ cette redevance en la faisant dépendre son montant du niveau de revenu pour une grande justice sociale, et pourquoi pas le prélever à la source »,
a poursuivi Delphine Ernotte Cunci.

Une redevance en hausse appliquée à tous les foyers ?
En 2013, notre voisin outre-Rhin a en effet réformé sa redevance en l’appliquant à tous les foyers fiscaux allemands quel que soit le nombre d’écrans utilisés. Et le montant de cette contribution a été fixé de façon forfaitaire à 17,98 euros par mois, soit près de 216 euros par an. C’est près de 60 % de plus qu’en France. La contribution à l’audiovisuel public (CAP), comme l’appelle Bercy, peut difficilement s’aligner sur le modèle allemand, car une hausse brutale serait contraire à la volonté du président de la République, François Hollande, de baisser la pression fiscale l’an prochain. Ce dernier n’avait-il pas prôné devant le CSA (1), le 2 octobre 2014, « une assiette plus large et plus juste (…) sans que ça ne coûte rien de plus à personne » ?

Rendre payants plus de contenus
Cependant, à l’occasion des prochains débats parlementaires prévus à l’automne sur
le projet de loi de Finances pour 2016, une nouvelle « légère » hausse de la redevance n’est pas à exclure – supérieure à l’indexation habituelle sur l’inflation. Ce fut déjà le cas pour cette année avec une augmentation de 2,2 % à 136 euros pour la France métropolitaine (2). Elle va rapporter à l’audiovisuel public 3,67 milliards d’euros en 2015. France Télévisions est le premier groupe audiovisuel public à en bénéficier, à hauteur de plus de 2,3 milliards d’euros – soit près de 65 % de cette manne fiscale (3).

Un élargissement de l’assiette de la redevance à tous les foyers français pourrait rapporter encore plus, dans la mesure où 3,3 % d’entre eux déclarent aujourd’hui ne pas posséder de téléviseur et échappent donc à la redevance. Delphine Ernotte Cunci n’est pas la première à la tête de la télévision publique à se dire favorable à l’élargissement de la redevance. Rémy Pflimlin, son prédécesseur, a milité pour à plusieurs reprises.
Le rapport sur l’avenir de France Télévisions, coordonné par Marc Schwartz (ex-directeur financier de France Télévisions) et remis en février à Fleur Pellerin, a recommandé au gouvernement « que l’élargissement de l’assiette de la contribution à l’audiovisuel public [CPA] soit mis en chantier dès maintenant, pour pouvoir être voté, dans la mesure du possible, dès le projet de loi de Finances pour 2016 ».

Ce que craint en fait Bercy, c’est une érosion à moyen terme de l’assiette de la CPA avec la jeune génération plus encline à regarder la télévision délinéarisée (à la demande ou en rattrapage) sur les seconds écrans numériques. Résultat, l’audience
de la télévision linéaire est en recul d’année en année : en juillet dernier, TF1 a réalisé le plus mauvais score d’audience depuis sa naissance en 1987. Si France Télévisions s’en tire mieux sur la même période, cela n’empêche pas les cinq chaînes publiques de suivre la tendance baissière : toutes chaînes confondues, la part d’audience du groupe est tombée à 28,8 % en 2014 contre 35 % en 2008.
C’est dans ce contexte que Delphine Ernotte Cunci a précisé le 24 août son projet de lancer en septembre 2016 une chaîne publique d’information en continu sur Internet, accessible sur les supports numériques (sans exclure une diffusion à terme sur la TNT). Lancer cette chaîne d’information gratuite, en partenariat avec son homologue Mathieu Gallet à Radio France, revient à faire d’une pierre deux coups : rajeunir l’audience en allant chercher les jeunes téléspectateurs là où ils se trouvent, et justifier implicitement la perspective que la redevance concerne aussi Internet.
Quoi qu’il en soit, c’est en contrepartie de la redevance audiovisuelle que les contribuables sont en droit de recevoir « gratuitement » les chaînes de télévision publiques. Mais pour Delphine Ernotte Cunci, cela n’est pas antinomique avec le fait
de faire payer certains services (4). Elle entend simplifier et renforcer la monétisation
de la vidéo à la demande (VOD). Le service Pluzz fut lancé dès 2010 pour proposer
les chaînes publiques en replay, puis la VOD payante à l’acte deux ans après.

Prochaine étape : la vidéo à la demande par abonnement (SVOD) que le président sortant, Rémy Pflimlin, n’avait pas osé lancer au regard de la redevance (5). « Je n’ai aucun scrupule. Car la monétisation des contenus, c’est l’avenir. Ce n’est pas pour avoir plus d’argent – nous sommes pas une entreprise commerciale ; on ne cherche pas à faire des bénéfices – mais pour inscrire France Télévisions dans la durée, à dix ans, à quinze ans, et de maintenir son équilibre financier. [Les Français qui paient la redevance pourront s’abonner à un service de SVOD] : c’est leur choix ; personne n’oblique qui que ce soit à s’abonner à un service de SVOD », a répondu la présidente de France Télévisions devant l’AJM à la question de savoir si les Français n’aurait pas le sentiment de payer deux fois. Le rapport Schwartz, lui, la conforte dans cette voie en estimant que « France Télévisions pourrait aussi se poser la question de l’ouverture d’une plateforme de SVOD, comme l’a fait récemment le radiodiffuseur public canadien – cette réflexion devant certainement être menée en commun avec les autres sociétés de l’audiovisuel public ».

SVOD : négocier les droits
Les programmes jeunesse pourraient faire l’objet d’une première offre de SVOD, comme l’a laissé entendre Delphine Ernotte Cunci devant le CSA avant sa nomination le 23 avril : « Le catalogue vaste en programmes pour la jeunesse est une première piste à explorer. France Télévisions peut agir seule sur la [VOD] jeunesse, premier motif de visite sur Netflix ou CanalPlay ».
Devant l’AJM, cette fois, elle a aussi évoqué un possible service de SVOD axé sur le documentaire. Mais cela suppose dans tous les cas de négocier le partage des droits avec les producteurs, pour qu’une partie des ventes de SVOD revienne à France Télévisions (financeur et diffuseur de 50 % de la production audiovisuelle française). Cela permettrait, selon elle, de faire face à la concurrence de Netflix et demain Amazon et Google/YouTube. @

Charles de Laubier

Bruno Chetaille, PDG de Médiamétrie : « Nous allons tester un audimètre individuel, miniature et mobile »

Médiamétrie vient d’avoir 30 ans. L’institut de mesure d’audiences, créé le 24 juin 1985, s’est imposé en France dans la télévision, la radio et Internet. Son PDG Bruno Chetaille explique comment l’audimètre devient aussi miniature et mobile. Et en fin d’année, la mesure globale TV et Net sera lancée.

Propos recueillis par Charles de Laubier

Edition Multimédi@ : Quel nouvel audimètre prépare Médiamétrie pour suivre le panéliste en mobilité ?
Et pour la version fixe, l’audimètre devient-il une tablette ? Quand ces deux modèles seront-ils installés et sont-ils pertinents à l’heure du multi-écrans et du multitasking ?
Bruno Chetaille :
Depuis 2007, nous avons fait le choix d’une technologie fondamentale pour la mesure d’audience de la télévision : le watermarking. Cette technologie est compatible avec tous les réseaux de diffusion et garantit notre indépendance à l’égard de leurs opérateurs. Surtout, elle permet de prendre en compte la consommation de
la télévision, qu’elle soit en linéaire ou délinéaire, à domicile ou en mobilité. Nous la faisons régulièrement évoluer. Elle intègre d’ores et déjà le multitasking puisqu’elle permet la synchronisation multi-écrans. De même, nos audimètres changent : le prochain modèle sera effectivement une « box » au format tablette, encore plus ergonomique pour nos panélistes. Il sera déployé dès 2016. Enfin, nous avons développé un audimètre miniature, au format d’une montre connectée, qui nous permet de mesurer l’audience de la radio et celle de la télévision en mobilité. Nous allons tester ce modèle d’audimétrie individuelle portée (AIP) en octobre prochain auprès d’un panel de 750 individus : 33 stations de radio et 28 chaînes de télévision vont participer à ce test. L’innovation technologique pour toujours mieux capter les signaux et collecter les données de comportement est pour nous une préoccupation essentielle.

EM@ : Depuis mai 2014, Médiamétrie et Google testent un panel single source multi-écrans : PaME. Quels en sont les premiers enseignements ?
B. C. :
PaME, notre panel « TV + Internet » coproduit avec Google, compte 3.400 foyers équipés de quatre écrans : téléviseur, ordinateur, tablette, smartphone.
Pour la télévision il utilise d’ailleurs notre technologie watermarking.
Ce dispositif ouvert à tous les acteurs du marché est utile pour comprendre les comportements multi-écrans à domicile. Sur un jour moyen, 18 % des Français regardent la télévision tout en surfant sur Internet. Ils y consacrent 38 minutes,
soit un peu plus de la moitié du temps qu’ils passent à naviguer sur Internet et
un peu plus de 15 % de celui qu’ils passent à regarder la télévision.

EM@ : A quand la mesure d’audience « TV 4 écrans » ?
B. C. :
La télévision reste d’abord regardée sur le téléviseur : près de 4 heures par jour. Mais elle l’est de plus en plus sur les trois autres écrans : 6 minutes par jour. Cela signifie par exemple que, sur une journée donnée, 2,8 millions de personnes ont passé 1 heure 51 devant un ou plusieurs de ces écrans. Cette tendance est encore plus forte sur les 15-24 ans qui regardent la télévision 1 heure 45 sur le téléviseur et 15 minutes sur les autres écrans. La mesure « TV 4 écrans » est donc une priorité. Elle reposera sur la fusion des résultats de Médiamat (1) qui reflète tous les usages d’un téléviseur
– en direct ou en rattrapage – et ceux de notre mesure « Internet Global » qui, disponible depuis avril, donne la vision de la consommation Internet sur les trois autres écrans : ordinateur, mobile, tablette. Cette mesure Internet Global réunit les données individuelles de nos trois panels (ordinateur, mobile, tablette), elles-mêmes enrichies par des données de trafic de type site centric ou log des opérateurs. Nous innovons
en conjuguant données panel et big data. Dès l’automne prochain, nous produirons
un volet spécifique de cet Internet Global : la « vidéo 3 écrans ». Puis, en fin d’année, nous le fusionnerons avec le Médiamat pour que la mesure « TV 4 écrans » soit disponible dès le début 2016.

EM@ : En test depuis février, Médiamétrie vient d’officialiser le lancement du
« GRP Vidéo » : qu’apporte ce nouvel indicateur et quelles chaînes et plateformes web l’utilisent ?
B. C. :
Le GRP (2) est un indicateur de performance publicitaire. Il représente le nombre de contacts d’une campagne publicitaire obtenu sur une cible et rapporté à la taille de la cible visée. Pour comparer et additionner TV et Internet, encore faut-il que les contacts soient comparables et additionnables ! C’est tout l’enjeu de ce GRP Vidéo sur Internet qui, à l’instar du GRP TV, intègre la surface visible de la publicité sur l’écran et la durée d’exposition de l’internaute. Nous y travaillons depuis près de deux ans
avec tous les acteurs du marché : chaînes de télévision, éditeurs Internet, agences, annonceurs. Et grâce à notre partenariat avec Integral Ad Science, le service est maintenant techniquement disponible depuis mi-juin. A l’heure du développement
des offres vidéo sur Internet et de la multiplication des campagnes TV + Internet,
ce nouveau standard constitue un facteur clé de confiance pour le marché. Ce GRP Vidéo est maintenant fourni en option de notre service de mesure d’efficacité des campagnes publicitaires Internet, baptisé « nOCR », utilisable sur près de 200 cibles.

EM@ : A l’heure des big data, les panels ont-ils toujours la même valeur ?
B. C. :
L’un et l’autre ne s’opposent pas. Ils se conjuguent. Le panel est un outil neutre garant d’une bonne individualisation des comportements. Mais ses données seront de plus en plus enrichies par des informations venant de sources extérieures. C’est pourquoi, depuis près de cinq ans, nous investissons beaucoup au niveau scientifique dans des méthodes d’hybridation qui marient données « panel » et données « voie de retour ». Notre mesure Internet est déjà hybride ; notre mesure TV est en passe de le devenir (3).

EM@ : Médiamétrie détient une certaine position dominante sur le marché français de la mesure d’audience audiovisuelle et Internet. Quelle est la raison
de cette position et quel est le niveau réel de concurrence ?
B. C. :
La concurrence au plan international comme en France existe sur beaucoup de services : web analytics, services d’efficacité publicitaire, recherches ad hoc, … Pour ce qui est de la mesure d’audience, vous constaterez que dans chaque pays il n’y a qu’un opérateur pour la télévision et la radio et que s’il peut y avoir encore compétition pour Internet, un acteur commence à s’imposer. La spécificité de Médiamétrie est d’être simultanément sur un même pays l’acteur de référence pour la télévision, la radio et Internet. C’est un atout qui nous permet d’aller plus vite dans l’anticipation et l’accompagnement des stratégies pluri-médias de nos clients. Cette position dominante nous donne plus de devoirs que de droits : transparence, tant en terme de méthodes que de tarification, équité de traitement de nos clients, audits externes réguliers du CESP (4)… Plus encore, elle est porteuse de trois exigences : la fiabilité, l’innovation
et l’écoute client. Si nous n’étions pas fidèles à ces trois valeurs, notre position serait rapidement remise en cause.

EM@ : Quels sont les chiffres-clé de Médiamétrie : chiffre d’affaires, taux de croissance, effectifs ?
B. C. : Nous avons réalisé 90 millions d’euros de chiffre d’affaires en 2014, enregistrant une croissance de près de 10 % tirée par le numérique, les activités pluri-médias et l’international. Nous avons notamment été retenus par l’Inde pour opérer un transfert
de nos technologies et nos méthodologies de mesure TV. Nous investissons chaque année en moyenne 7 millions d’euros pour faire évoluer nos dispositifs de mesure, développer de nouvelles technologies ou méthodes scientifiques. Médiamétrie emploie 650 personnes, dont près de 250 dans nos centres d’enquêtes à Amiens et Rouen. Cet effectif est en croissance, en raison notamment du recrutement d’ingénieurs, d’experts statisticiens et de data-scientists. @

La France compte 1,5 million de téléviseurs « HbbTV »

En fait. Le 11 juin, l’Association pour le développement des services TV évolués
et interactifs (Afdesi) a organisé un atelier sur la norme HbbTV de télévision connectée, avec une présentation de l’ensemble des services audiovisuels l’utilisant et diffusés sur près de la moitié des chaînes de la TNT en France.

En clair. Les services interactifs à la norme franco-allemande HbbTV ont atteint une maturité en France et gagneraient à être plus connus du grand public. Selon l’Afdesi,
« près de la moitié des chaînes de la TNT en France proposent des services HbbTV directement accessibles depuis leur antenne » : France Télévisions (ses 5 chaînes),
TF1, M6, NRJ 12, Chérie FM, Gulli, D8, D17, iTélé, … Non-propriétaire et basée sur HTML5, la norme HbbTV (Hybrid Broadcast Broadband TV) est ouverte à tous les développeurs et éditeurs. Elle permet aujourd’hui aux téléspectateurs équipés de recevoir en France près de 1.000 heures de programmes supplémentaires sur la TNT. Encore faut-il qu’ils le sachent ! « Il y a aujourd’hui en France 1,5 million de téléviseurs compatibles HbbTV, tous les fabricants intégrant cette norme depuis septembre 2012 et l’activant par défaut depuis septembre 2013. Mais les consommateurs ne le savent pas forcément. C’est pour les sensibiliser à la TV connectée et aux services HbbTV que nous allons lancer d’ici la fin de l’année une campagne de communication et, à l’automne, des sessions de formation des vendeurs de la grande distribution en accord avec la Fenacerem (1) », indique Jean Dacié, délégué général de l’Afdesi, à Edition Multimédi@. Pour la première fois, lors de l’atelier de l’Afdesi organisé en coopération avec le Forum des médias mobiles (ex-Forum de la Télévision Mobile) et en partenariat avec TDF (premier diffuseur de la TNT), la présentation des services HbbTV diffusés en France s’est voulue « exhaustive » et s’est tenue « à titre exceptionnel » chez TDF rue Cognacq-Jay. « Grâce à la richesse des 1.000 heures de programmes proposés en HbbTV, à commencer par les services de vidéo (catch up TV, replay, retour en arrière, …) mais aussi des services d’information comme la météo, le téléspectateur peut regarder sa télévision sans aller du tout sur les chaînes de la TNT elles-mêmes ! », nous fait remarquer Jean Dacié.

Il est par ailleurs directeur général de Hyper TV, société (2) qui compte lancer un bouquet de services interactifs à la norme HbbTV. Encore faut que le CSA lance un appel à candidature, qui est attendu depuis… 2012 (3). « Cela dépend maintenant de la roadmap des 700 Mhz qui pourrait être signée en septembre prochain par le gouvernement »,
nous indique Jean Dacié, qui espère se porter candidat d’ici la fin de l’année. @