Vidéo : est-ce bien utile de baisser la qualité ?

En fait. Le 13 septembre, la recommandation de l’Arcom pour réduire l’empreinte environnementale du numérique a été publiée au Journal Officiel. La vidéo représentant 65 % du trafic Internet, sa haute définition se retrouve dans le collimateur des écoresponsables. Pourtant, elle a peu d’impact sur le climat.

En clair. La HD, le Full HD et la 4K, qui offrent des résolutions d’images vidéo de respectivement 720p, 1.080p et 2.160p (1), sont dans le collimateur à la fois de l’Arcom (régulateur de l’audiovisuel), de l’Arcep (son homologue des télécoms) et de l’Ademe (Agence de l’environnement et de la maitrise de l’énergie). Les vidéos haute définition ne sont plus en odeur de sainteté dans la France de la « sobriété numérique ». Et comme la vidéo pèse pour 65 % du trafic Internet, d’après la société d’analyse Sandvine (2), les Netflix, YouTube (Google) et autres Twitch (Amazon) vont devoir montrer pattes « vertes » aux régulateurs à partir de 2024. Parmi les mesures recommandées par l’Arcom aux chaînes de télévision, services de médias audiovisuels à la demande (SMAd) et plateformes de partage de vidéos : inciter les internautes à baisser de la qualité des vidéos.
Mais dégrader l’image sera-t-il vraiment utile ou est-ce pour se donner bonne conscience ? « Contrairement à une série de reportages trompeurs dans les médias, les impacts climatiques de la vidéo en streaming restent relativement modestes », avait calculé fin 2020 George Kamiya (3), alors analyste numérique et énergie au sein de l’Agence internationale de l’énergie (AIE). Dans Le Monde, il avait même dit début 2022 : « L’impact carbone du streaming vidéo en Europe serait, selon mes calculs, entre 35 grammes et 80 grammes par heure, ce qui revient à faire bouillir l’eau contenue dans une bouilloire à une ou deux reprises ou à rouler entre 200 et 400 mètres dans une voiture conventionnelle » (4). L’impact de la vidéo en ligne sur le climat est donc quasi nul.
Qu’à cela ne tiennent, la France s’en prend à la qualité vidéo. Quand bien même certaines plateformes – Comme YouTube Premium – réserve le Full HD à leurs abonnés payants. Dans le cadre de la loi « Reen » visant à réduire l’empreinte environnementale du numérique, promulguée il y a près de deux ans (5), la recommandation de l’Arcom – datée du 26 juillet 2023 et publiée le 13 septembre au Journal Officiel (6) – demande à tous les acteurs de l’audiovisuel de mettre en place un « référentiel par catégorie de produit ». Et ce, pour calculer l’impact environnemental des usages vidéo et d’en informer les utilisateurs pour les inciter à avoir « des comportements plus sobres » (comme réduire la qualité vidéo). Prochaine étape : une campagne de communication commune à la filière. @

La chaîne publique Franceinfo n’a pas réussi à faire décoller son audience en quatre ans d’existence

Lancée en grande pompe le 1er septembre 2016 par France Télévisions, Radio France, France Médias Monde et l’Ina, la chaîne publique d’actualités en continu Franceinfo est-elle un échec ? La question se pose au vu de ses 0,7 % de parts d’audience seulement, quatre ans après son lancement.

Certes, l’audience de la chaîne Franceinfo a légèrement augmenté depuis son lancement sur le canal 27 de la TNT (1) il y a quatre ans, passant de 0,3 % de part d’audience nationale en janvier 2017, avec un peu plus de 18,4 millions de téléspectateurs dans le mois selon Médiamétrie, à 0,7 % en septembre 2020 avec 24,2 millions de téléspectateurs. Autrement dit, la chaîne publique d’information en continu – cornaquée par France Télévisions, Radio France, France Médias Monde et l’Ina – a gagné en quatre ans d’existence seulement 0,4 point à 5,8 millions de téléspectateurs supplémentaires.

Laurent Guimier à la rescousse
Ce n’est pas digne du service public de l’audiovisuel financé par la redevance payée par la plupart des 28 millions de foyers français (2). Pas sûr que cette piètre performance, ne serait-ce que par rapport à ses concurrentes BFM TV (2,5 %), CNews (1,5 %) et LCI (1 %), satisfasse Delphine Ernotte (photo de gauche) qui a été reconduite par le CSA à la présidence de France Télévisions pour un mandat de cinq ans (depuis le 22 août). La petite audience de Franceinfo ne devrait pas non plus réjouir Stéphane Dubun, directeur de la chaîne depuis plus de quatre ans maintenant. Ce journaliste francobritannique- écossais fut nommé par la présidente de France Télévisions en même temps que Célia Mériguet qui, elle, a la charge de la diffusion en ligne de Franceinfo.
Tous deux reportaient depuis deux ans à Alexandre Kara, lequel a cédé sa place en juin à Laurent Guimier (photo de droite) venu reprendre en main la chaîne publique d’information en continu et d’en améliorer l’audience. Cet ancien d’Europe 1 vient d’être promu par Delphine Ernotte directeur de l’information de France Télévisions (3). « Les JT de France 2 et France 3, les magazines, le canal 27 [où est diffusée la chaîne Franceinfo sur la TNT, ndlr] et franceinfo.fr sont placés sous ma responsabilité », indiquet- il à Edition Multimédi@. C’est dire que ce jeu de chaises musicales au niveau de l’état-major de l’ex-directrice générale d’Orange France (4) touche de près Franceinfo. « Depuis 2016, nous sommes passés à l’offensive en unissant les forces de l’audiovisuel public pour créer Franceinfo, premier média numérique d’information en France, qui poursuivra un objectif clair : conquérir aussi la première place en linéaire. Franceinfo est un actif puissant sur lequel il nous faut investir et qu’il faut consolider », a fait valoir Delphine Ernotte dans son projet stratégique exposé au CSA en juillet. Mais avec moins de 25 millions de téléspectateurs par mois, qui est d’ailleurs loin d’être l’audience de la seule TNT puisque sont intégrés à cette mesure de Médiamétrie les audiences en différé et en télévision de rattrapage sur Internet, Franceinfo doit encore trouver son public. « Franceinfo s’est imposée en quelques mois seulement comme le premier support d’information numérique des Français et doit continuer à grandir », convient la présidente de France Télévisions. Cela nécessite pour cette chaîne d’infos en continu de plus en plus délinéarisée « un investissement technologique constant (…), en renforçant ses contenus vidéo, en amplifiant son caractère conversationnel et en inventant un nouveau média social ». Sa ligne éditoriale ? Dans une interview à Forbes, Delphine Ernotte lance : « Pas de boucle, pas de clash, pas de buzz, du décryptage, de la pédagogie de l’info. C’est une chaîne calme (…) » (5). Objectif de son deuxième mandat : « Faire de Franceinfo la première offre d’information sur tous les écrans et 100 % accessible ».
Sur Internet (6), Franceinfo revendique plus de 23,7 millions de visiteurs uniques sur le mois de juillet (dernière mesure disponible), dont 80,2 % sur smartphone, 21,9 % sur ordinateur et 16,1 % sur tablette. Ce qui place la chaîne publique d’info en continu à la onzième place du classement Internet en France, loin devant, tout de même, BFM TV (vingt-deuxième place) et LCI (quarante-neuvième). La présidente de France Télévisions compte en outre investir dans « le datajournalisme et l’intelligence artificielle », notamment en consolidant « l’alliance des services publics née autour de Franceinfo » et en initiant « de nouveaux partenariats technologiques avec l’ensemble des médias d’information ».

Franceinfo remplace France Ô, en HD
Malgré la faible audience de Franceinfo au bout de quatre ans, le CSA a quand même entériné – à la demande de la nouvelle ministre de la Culture, Roselyne Bachelot (7) – le retrait au 1er septembre de la chaîne d’outre-mer France Ô de sa fréquence sur la TNT pour y diffuser à place Franceinfo en haute définition en métropole. France Ô est morte à 15 ans, au grand dam de beaucoup, alors qu’elle était allée jusqu’à 0,9 % de part d’audience (en avril et juin 2016) – soit 0,2 point de mieux que Franceinfo, pourtant bien plus mise en avant. @

Charles de Laubier

Google Stadia devrait faire décoller le marché du « cloud gaming », au détriment de… Netflix

Google est le premier GAFAM à se lancer sur le marché mondial – encore embryonnaire – du « cloud gaming » avec Stadia, sa plateforme disponible depuis le 19 novembre. Microsoft et Amazon seront les prochains, en 2020. Netflix pourrait être la première victime collatérale.

Contre toute attente, le numéro un mondial de la SVOD, Netflix, pourrait être la première victime collatérale de la plateforme Stadia que Google vient de lancer en Amérique du Nord et en Europe. Le PDG fondateur de Netflix, Reed Hastings, n’avait-il pas dit en janvier dernier que les jeux vidéo comme Fortnite, édité par Epic Games, ou des plateformes de jeux en streaming, comme Twitch d’Amazon, étaient bien plus des concurrents que ne l’étaient par exemple Amazon Prime Video ou HBO de WarnerMedia ?

Un « Netflix » potentiel du jeu vidéo en ligne
C’est la bataille des activités de divertissement chronophages qui se joue là. A part le sommeil, qui est un concurrent inévitable et incontournable, le temps disponible des utilisateurs-consommateurs est un « marché » à conquérir afin de retenir leur attention – d’autres auraient dit « capter une part quotidienne de “temps de cerveau disponible” » (1). Pour les GAFAM et les « Netflix » tournés vers le grand public, le premier défi à relever est celui de se faire une place dans l’économie de l’attention, qui consiste à retenir l’attention justement – véritable ressource rare – des utilisateurs déjà saturés de contenus en tout genre. « Pour nous, il s’agit de prendre du temps à d’autres activités de loisirs. Notre croissance est fondée sur la qualité de l’expérience, comparée à toutes les autres façons de passer du temps devant un écran », avait expliqué en début d’année Reed Hastings, tout en admettant qu’« [il] luttait et perdait davantage face à Fortnite que face à HBO ». Le patron de Netflix, avec ses 158 millions d’abonnés aujourd’hui dans le monde (dont 6 millions en France), s’est pourtant dit confiant à force de miser sur la qualité de l’expérience de ses clients. Mais cela suffira-t-il pour retenir tous ceux qui seront tentés d’aller s’abonner ailleurs, notamment chez Stadia de Google, ou chez le futur « xCloud » de Microsoft, voire auprès de PlayStation Now (PSN) de Sony (700.000 abonnés séduits depuis cinq ans), lorsque cela ne sera pas sur Prime Video d’Amazon en pleine offensive ?
La puissance de feu de Stadia, premier cloud gaming d’un géant du Net et que dirige Phil Harrison (photo), réside non seulement dans l’investissement que Google (filiale d’Alphabet) met dans son infrastructure mondiale de centre de données, mais aussi dans les capacités informatiques dédiées à sa nouvelle plateforme de jeux vidéo en ligne. Car en matière de cloud gaming, l’idée est que les abonnés vidéo-ludiques n’ont plus à se préoccuper de la performance de leur propre matériel et carte graphique : tout est dans le nuage et dans le réseau. Plus besoin d’installer une configuration de jeu suffisamment puissante, et donc coûteuse. Un écran – smartphone, tablette, télévision connectée, ordinateur – et une manette compatible feront l’affaire.
C’est la plateforme de cloud gaming qui s’adapte de façon optimale au terminal utilisé, tant en termes de puissance de calcul que de qualité vidéo. Toute la puissance informatique se situe sur les serveurs distants de Stadia. La définition de l’image (HD, ultra-HD, 4K ou 8K) et la réactivité du jeu (très faible temps de latence) reposent sur la puissance de calcul (processeurs performant) et la vitesse du réseau (bande passante élevée, sur la fibre optique et la future 5G). Ces méga-capacités délocalisées dans les nuages donnent naissant à un marché mondial des jeux vidéo complètement dématérialisés, puissance de calcul comprise. Le fait que l’utilisateur n’aura plus à investir dans du matériel trop coûteux tel que tour gaming, PC gamer, carte graphique full ou ultra HD, processeur graphique GPU (Graphics Processing Unit) ou multi-GPU, etc. Du coup, au-delà des geeks et aficionados du jeux vidéo déjà tout équipés, le cloud gaming devrait attirer un nouveau public de joueurs occasionnels (casual gamers). Le potentiel de ces utilisateurs familiaux prêts à s’abonner à un « Netflix » du jeu vidéo en ligne est évalué à plusieurs millions de personnes, voire à des dizaines de millions de nouveaux-venus à travers le monde.

Un marché mondial encore embryonnaire
Google proposera plusieurs abonnements, en fonction du profil des joueurs, à commencer cette année par « Stadia Pro » pour 9,99 dollars par mois. Depuis le lancement du 19 novembre dans une quinzaine de pays, Stadia propose pour l’instant 22 jeux vidéo et d’ici la fin de l’année une trentaine de titres. Mais, hormis l’effet « Noël », la vraie montée en charge de la plateforme de Google devrait intervenir durant l’année 2020 avec un catalogue plus étoffé et une offre de base encore plus grand public. Le marché mondial du cloud gaming permet ainsi aux joueurs en ligne de s’affranchir des contraintes matérielles avec des jeux vidéo totalement dématérialisés, bien plus que ne le permet les jeux en streaming où la puissance d’exécution dépend encore du niveau de gamme côté joueur.
Mais, pour l’heure, force est de constater que ce segment de marché est encore embryonnaire par rapport à la taille globale du jeu vidéo : le cloud gaming a généré à peine plus de 300 millions de dollars en 2018, sur un total mondial du jeu vidéo de 120 milliards de dollars. Autrement dit, si l’on se réfère à ces chiffres compilés par SuperData Research (groupe Nielsen) et l’Idate : le cloud gaming ne pèse qu’un quart de 1 % du marché ! En France, où le jeu vidéo (terminaux, équipements et jeux) totalise en 2018 un chiffre d’affaires de 4,9 milliards d’euros TTC, selon le Sell ; ou 3,6 milliards d’euros HT, selon l’Idate, le tout-dématérialisé est encore quasi-inexistant.

Microsoft et Amazon en embuscade
Les promesses de Google avec Stadia, premier GAFAM à débarquer sur ce marché naissant, seront attentivement scrutées, à commencer par le pionnier Sony qui a divisé par deux en octobre dernier le prix de son abonnement à PSN (à 9,99 dollars/9,99 euros par mois) pour s’aligner sur « Stadia Pro ». Si Stadia réussit à conquérir 10 millions de gamers en un an, l’Idate estime que Google aura réussi son pari.
De son côté, Microsoft se prépare activement en vue du lancement en 2020 de son « Project xCloud » pour ne pas se laisser distancer par Stadia. Le cloud gaming constitut surtout pour le « M » de GAFAM un relais de croissance potentiel, au moment où sa Xbox One montre des signes de faiblesse dans ses ventes qui stagnent. Il faut dire que sa console de huitième génération a fêté ses six ans d’existence le 22 novembre dernier. Or la neuvième génération, identifiée sous le nom de « Projet Scarlett » et dévoilée en juin dernier à la grand-messe E3 à Los Angeles, ne sera disponible que… fin 2020. Pour contrer Google, Microsoft a même annoncé au printemps dernier une alliance avec son rival de toujours Sony dans le jeu en streaming. Leur accord prévoit « des développements communs pour leurs services de jeux et contenus en streaming ». Le cloud gaming fait clairement partie du périmètre de cette alliance Microsoft-Sony. Le géant américain du logiciel pour PC et le fleuron nippon de l’électronique grand public vont ainsi conjuguer leurs savoir faire dans les jeux vidéo et dans le cloud, notamment avec Azure (2). Microsoft a posé des jalons dans le streaming vidéoludique avec Xbox Live et la diffusion en live de jeux en ligne en lançant en 2017 le service Mixer (3) pour concurrencer Twitch d’Amazon. Il y a un an, soit dix-huit mois après son lancement, Microsoft indiquait que Mixer avait séduit 20 millions d’utilisateurs mensuels. Le projet xCloud est un défi autrement plus élevé. A l’occasion de son événement X019 à Londres (mi-novembre), dédié à tout l’univers Xbox, la firme de Redmond a dévoilé la deuxième phase des développements du xCloud qui fait l’objet d’une version bêta aux Etats-Unis, en Grande-Bretagne et en Corée du Sud (non disponible en France à ce stade). Son ouverture en Europe est prévue en 2020.
Amazon, non seulement géant du e-commerce mais aussi géant du cloud avec sa filiale AWS (4), est lui aussi en embuscade. Déjà fort de sa plateforme Twitch, la plateforme de jeux vidéo en streaming rachetée en août 2014 pour 970 millions de dollars, Amazon pourrait aussi se lancer en 2020 dans le cloud gaming. En tout cas, le site Cnet.com a repéré une annonce d’emploi « New AWS Gaming Initiative » (5). Et qu’est-ce qui empêcherait la firme de Jeff Bezos de devenir dans la foulée éditeur de jeux vidéo ? A l’instar de Netflix qui a ses « Originals », les géants du cloud gaming en formation auront leurs jeux vidéo exclusifs produits par et pour eux-mêmes. Microsoft a déjà ses exclusivités-maison, comme « Gears 5 ». Sony en a quelques-uns tels que « God of War ». Google a fait développer par le studio Tequila Works son premier jeu exclusif, « Gylt », disponible sur Stadia.
Quant au chinois Tencent, il pourrait créer la surprise dans le cloud gaming avec son service Instant Play, depuis qu’il s’est allié en début d’année dans ce domaine à l’américain Intel. Les américains Valve et Nvidia, déjà positionnés avec leur plateforme de streaming respective – Steam et GeForce Now – sont également attendus au tournant. L’américain Electronic Arts, leader mondial des jeux vidéo, teste encore son « Project Atlas » (6) dans les nuages. Sans oublier la start-up française Blade qui a procédé à une nouvelle levée de fonds de 30 millions d’euros (soit au total 100 millions d’euros depuis sa création en 2015) pour accélérer le déploiement de son offre virtuelle Shadow (ordinateur dématérialisé pour jeux vidéo).

Développements pour tous écrans et Big Data
Pour les créateurs de jeux vidéo, le cloud gaming est d’ailleurs l’assurance de moins dépendre des performances plus ou moins à la hauteur des équipements des joueurs, tout en développant des jeux adaptés d’emblée à l’ensemble des terminaux et écrans accédant à une plateforme unique dans le nuage. Pour les plateformes, c’est pour elles l’opportunité d’accéder au Big Data que va générer massivement le cloud gaming intégrant un réseau social de gamers, afin d’exploiter à leur profit les données personnelles et les données de jeux pour adapter et faire évoluer leurs offres. @

Charles de Laubier

Box : les « services associés » que les chaînes font désormais payer aux opérateurs télécoms

En vantant les « services à valeur ajoutée » tels que le replay, le start-over, le cast, le second écran ou encore l’ultra-haute définition (4K), les chaînes de télévision ont trouvé le moyen de faire payer les opérateurs télécoms qui souhaitent reprendre sur leurs « box » ces « services associés » ou « services complémentaires ».

SFR, Bouygues Telecom, Orange et Free doivent désormais mettre la main au portefeuille s’ils veulent que leurs abonnés bénéficient des servies à valeur ajoutée proposés par les chaînes de télévision. TF1 estime, par la voix de son PDG Gilles Pélisson (photo), avoir « contribué à faire bouger les lignes en France dans l’univers de la télévision en clair ». La filiale audiovisuelle de Bouygues a signé dès novembre 2017 puis en 2018 un accord de distribution avec respectivement Altice (SFR), après des mois de différends avec ce dernier (interruption de MyTF1), et Bouygues Telecom (société soeur de TF1).

« TF1 Premium » a montré la voie dès 2017
Fin 2018, ce fut au tour du diffuseur Canal+ de signer avec TF1 – clôturant divers contentieux entre les deux groupes. L’offre « TF1 Premium » inclut les cinq chaînes en clair TF1, TMC, TFX, TF1 Séries Films et LCI, dont les coûts de transport sont dans ce cas pris en charge par le groupe TF1, ainsi que le service MyTF1. Pour M6, les accords de distribution des chaînes et de leurs services associés ont tous été renouvelés en 2018 auprès de Altice (SFR), Bouygues Telecom, Free, Canal+ et Orange, avec « l’obtention de la part des distributeurs d’un partage de la valeur liée à la présence de M6, W9 et 6ter dans leurs offres de télévision ». Dernier bras de fer en date : le groupe Altice a finalement enterré la hache de guerre le 10 septembre avec Free pour trouver un terrain d’entente pour ne lui faire payer que les fameux « services associés » de ses chaînes (BFMTV, RMC Découverte et RMC Story).
Quelques jours auparavant, Altice s’était mis d’accord sur les mêmes bases avec Orange : pas de rémunération pour les chaînes linéaires, mais rétribution pour les services à valeur ajoutée. La décision du Conseil supérieur de l’audiovisuel (CSA) datée du 31 juillet 2019 et parue le 2 août dernier au Journal Officiel a eu le mérite de remettre les pendules à l’heure (voir encadré page suivante). Par ailleurs, les chaînes peuvent proposer des services d’« interactivité » où le téléspectateur a la possibilité de jouer ou de voter lors des émissions diffusées sur l’antenne de la chaîne (comme le propose TF1). « Le chiffre d’affaires perçu est comptabilisé au réel en brut en fonction des appels reçus et les commissions facturées par les opérateurs téléphoniques sont enregistrées en charges, le groupe ayant la maîtrise de la programmation des créneaux “interactivité” », indique TF1 dans son dernier rapport annuel. De son côté, M6 ouvre la voie à des négociations avec les FAI pour développer des solutions de « publicités adressées », c’està- dire des publicités télévisées géolocalisées et plus ciblées. Quant aux chaînes thématiques, elles font l’objet d’une rémunération par les opérateurs du câble et du satellite qui les diffusent, calculée sur la base d’un prix par abonné ou sous la forme d’un forfait annuel facturé à un opérateur.

• Replay enrichi ou étendu. La télévision de rattrapage est probablement le service associé des chaînes le plus utilisé par les abonnés des « box ». Appelé aussi Catch up TV, le replay est apparu il y a plus de dix ans. Ce service audiovisuel permet de regarder un programme en différé, après sa diffusion à l’antenne (diffusion linéaire), soit parce que l’utilisateur l’a manqué, soit il veut tout simplement le revoir. Les chaînes ont obtenu il y a quelques années le droit de diffuser en replay des programmes audiovisuels, jusqu’à sept jours après leur diffusion à l’antenne et sans surcoût ni royalties. Au-delà de ces sept jours, les producteurs audiovisuels négocient des droits supplémentaires pour étendre le replay à trente jours par exemple, ou plus. C’est le « replay enrichi » que proposent les chaînes, à l’instar de « TF1 Premium », aux fournisseurs d’accès à Internet (FAI) pour leur « box ».

• Start-over. C’est le retour en arrière sans pour autant avoir enregistré le programme, lorsque par exemple le téléspectateur et/ou l’internaute a manqué le début de ce programme ou d’une émission en cours. C’est France Télévisions qui avait été le premier à lancer ce type de service en juillet 2012, avec « Salto » qui était alors une fonctionnalité développée par TDF pour la TV connectée. Relancer un programme en cours de diffusion linéaire, soit parce qu’on a manqué le début, soit pour revoir à nouveau le début. Sur la SFR box, par exemple, ce service s’appelle « Restart ». Chez Bouygues Telecom, il s’agit de l’offre « Lire du début » lancé en mai 2019. Canal+ a la fonction « Revoir ».

• Cast. Il s’agit de la possibilité de diffuser les programmes audiovisuels sur l’écran de TV à partir d’un smartphone ou d’une tablette. C’est par exemple prévu dans l’accord signé au printemps 2018 entre M6 et Free concernant la distribution – leurs services non linéaires et fonctionnalités associés – les chaînes M6, W9, 6ter, Paris Première, Téva et M6 Music. L’abonné peut ainsi « caster » ses chaînes préférées vers sa box afin de les visionner sur son téléviseur, comme il peut d’ailleurs le faire pour d’autres de ses contenus. La box fait office de mediacenter. Cette fonctionnalité est permise par le standard DLNA (de la Digital Living Network Alliance).

• 2e écran, ou multi-écrans. Cela consiste à rendre disponible les services – chaînes et services associés – sur des écrans mobiles, smartphones ou tablettes. Cette offre commence par le « second écran ». A noter que, d’après Médiamétrie, le nombre d’écrans par foyer en France est actuellement de 5,9 écrans. Chez Bouygues Telecom, par exemple, il y a l’option payant dite « Multi-TV » qui permet d’avoir un deuxième décodeur TV Bbox pour le brancher sur une seconde télévision. Mais l’on ne peut bénéficier que d’un seul décodeur TV supplémentaire par ligne. En tout cas, les chaînes veulent garder le contrôle de ce multi-tasking avec le « 2e écran » pour que la mesure d’audience de la chaîne ne soit perturbée.

4K. L’ultra-haute définition (UHD) est un atout supplémentaire à faire valoir de la part des chaînes aux FAI pour une bien meilleure qualité d’image. L’ultra-HD en mode 4K est, en théorie, du 4.000 pixels, soit 3.840 x 2.160. Le rendu des images atteint un niveau de détail quatre fois supérieur à celui de la « Full HD ». Les « box » supportant la 4K sont dotées de puissantes puces et sont compatibles avec la norme de compression HEVC (H.265) pour un codage des flux optimisé. La connectique HDMI est particulièrement adaptée à la 4K. Par exemple, Free a lancé sa Freebox mini 4K en 2015, puis en 2018 la Freebox Delta et la Freebox One compatibles 4K. Le nombre chaîne en 4K reste encore très limité. Bouygues Telecom en propose par exemple deux et uniquement avec la fibre : Festival 4K et Ultra Nature.

• nPVR. C’est le magnétoscope numérique personnel dit « nPVR » pour Network Personal Video Recorder. Pour les chaînes qui autorisent cette fonction d’enregistrement sur le disque dur de la box ou, de plus en plus, dans le cloud, il s’agit d’un service à valeur ajoutée à monétiser auprès des FAI. Cette fonction est par exemple proposée dans le cadre de l’accord entre M6 et Free. Par exemple, les « box » de SFR ne sont plus dotées de disques durs depuis le printemps dernier. Pour la filiale d’Altice, tout se passe dans le Cloud TV qui permet aux abonnés de regarder leurs enregistrements sur n’importe quel terminal connecté à Internet. Depuis le 1er août 2018, les services de magnétoscope numérique sont assujettis à la taxe « copie privée » payée par le consommateur.

• Avant-premières. L’idée est de donner aux abonnés du FAI des programmes de la chaîne en avant-première, avant leurs diffusions à l’antenne. L’accord entre M6 et Free le prévoit. Autre exemple : le service « TF1 Premium » propose des épisodes de fictions en avant-première. Le nouvel accord entre Altice (BFMTV, RMC Découverte et RMC Story) et Iliad (Free) comprend aussi la livraison de programmes en avant-première.

• Nouvelle chaîne. Il s’agit là de créer une sorte de « nouvelle chaîne », avec une période d’exclusivité éventuelle, reprenant les programmes de la chaîne en question avec un décalage d’une heure. Ce fut le cas pour SFR qui a bénéficié d’une exclusivité de distribution pendant six mois en 2018 de la nouvelle chaîne « TF1+1 ».

• Lecture automatique. La fonctionnalité de lecture automatique sur certains services replay de chaînes consiste, sur le même modèle que Netflix, à démarrer automatiquement – après quelques secondes de compte à rebours – la lecture de l’épisode suivant dans la série que l’utilisateur regarde. C’est un confort lorsqu’il regarde plusieurs épisodes à la suite, voire en cas de… binge-watching ! @

Charles de Laubier

ZOOM

Ce que dit au juste le CSA sur les « services associés »
Dans sa décision du 31 juillet 2019 sur le différend opposant les sociétés BFM TV, RMC Découverte et Diversité TV (groupe NextRadioTV/Altice) à la société Free (groupe Iliad), le Conseil supérieur de l’audiovisuel (CSA) a donné plusieurs indications à propos des « services associés » des chaînes de télévision. Le régulateur considère que « les chaînes et leurs services associés contribuent significativement à la qualité et la diversité des programmes », mais qu’un fournisseur d’accès à Internet (FAI) « dispose d’une totale liberté contractuelle quant à la reprise de services associés, et le CSA ne dispose d’aucun pouvoir pour la contraindre à acheter de tels services ». Reste à démontrer que la reprise de leurs services associés — à commencer par la télévision à la demande (VOD et replay) — créerait pour les chaînes de télévision « une véritable valeur ajoutée, justifiant la rémunération qu’elles sollicitent ».
Dans sa décision publiée au Journal Officiel du 2 août dernier (1), le CSA estime qu’« aucune disposition, notamment issue de la loi du 30 septembre 1986, n’oblige [un FAI] à mettre à la disposition du public, par un réseau n’utilisant pas des fréquences assignées par [le régulateur], les services linéaires et les services associés des [chaînes de télévision] ». A l’issue de sa délibération et après différentes considérations au sujet du différend « NextRadioTV/Free », le CSA conclut : « Il résulte de tout ce qui précède, et sans qu’il soit besoin de procéder aux mesures d’instruction demandées, que les sociétés BFM TV, RMC Découverte et Diversité TV ne sont pas fondées à demander au [régulateur] qu’il enjoigne à la société Free d’accepter leur offre commerciale et de conclure de bonne foi le contrat qui lui a été proposé ou de leur adresser une offre de contrat pour la distribution des chaînes et de leurs services associés ». Dont acte. @

Le CSA et l’Arcep ne sont pas sur la même longueur d’onde quant à l’avenir de la TNT

La télévision numérique terrestre (TNT), lancée il y a treize ans en France, survivra-t-elle à la fibre optique et à la 5G ? Pour l’Arcep, « L’avenir, ce n’est pas la TNT ». Pour le CSA, « Ne soyons pas si pressés d’enterrer la TNT ». D’autant que la « TNT UHD » se prépare pour les Jeux olympiques de Paris en 2024.

« L’avenir, ce n’est pas la TNT » ! Après avoir comparé la TNT à une Micheline et les réseaux Internet au TGV, lors du Mobile World Congress fin février à Barcelone, le président de l’Arcep, Sébastien Soriano (photo de gauche), a enfoncé le clou le 22 mars dernier en lançant : « L’avenir, ce n’est pas la TNT», dans une interview parue dans Contexte. « Il serait temps que l’Etat le dise clairement aux acteurs de l’audiovisuel, de façon que chacun puisse s’organiser, prendre les décisions d’investissements, et bâtir des modèles économiques ».

« L’Arcep un peu rapide dans son affirmation » (TDF)
La sortie du régulateur des télécoms marche quelque peu sur les plates-bandes du Conseil supérieur de l’audiovisuel (CSA), qui venait de publier en février son rapport final intitulé justement : « Préparer l’avenir de la plateforme TNT », à la suite d’une consultation publique menée de juillet à octobre 2017. L’Arcep, qui est absente des vingt-sept contributions, nous a confirmé qu’elle n’avait pas participé à cette consultation. Est-ce à dire que la TNT est d’ores et déjà obsolète ? « A ceux qui semblent si pressés d’enterrer la TNT, rappelons qu’aujourd’hui plus de la moitié de
la population française continue de recevoir la télévision par l’antenne râteau et que plus d’un quart d’entre elle dépend exclusivement de cette antenne pour la recevoir », indique à Edition Multimédi@ Nicolas Curien (photo de droite), président du CSA. Il rappelle en outre que « les fréquences de la TNT sont sécurisées par la loi jusqu’en 2030, avec rendez-vous d’étape en 2025 ». C’est en effet la loi du 14 octobre 2015 sur « le deuxième dividende numérique et la poursuite de la modernisation de la télévision numérique terrestre » qui le garantit dans son deuxième article (1), lequel prévoit que
le gouvernement remette au Parlement – dans sept ans maintenant – un rapport sur
les « perspectives de diffusion et de distribution des services de télévision en France ». De plus, le CSA rappelle qu’« un éventuel transfert de la bande 600 Mhz vers les opérateurs mobiles pour la zone 1 (Europe, Afrique) ne sera pas discuté à la prochaine Commission mondiale des radiocommunications en 2019, mais seulement en 2023 ». Dans ce contexte, les déclarations du président de l’Arcep – de la « Micheline » au
« No Future » de la TNT – paraît pour le moins précipitée. « Le président de l’Arcep
a été un peu rapide dans son affirmation, nous confie Arnaud Lucaussy, secrétaire général de TDF, l’opérateur historique de la diffusion audiovisuelle en France. Pour remplacer la TNT, il faudrait du très haut débit mais nous n’y sommes pas tout à fait… La TNT a beaucoup d’avantages : elle va partout ; elle est gratuite ; elle est anonyme. Et elle va être enrichie, notamment en ultra haute définition (UHD) même si nous n’avons plus assez de spectre pour que toutes les chaînes y passent ».
Lorsque le régulateur des télécoms dit que « cela fait partie de la responsabilité de l’Etat de mettre les points sur les “i” et de s’inscrire avec les acteurs dans une stratégie d’infrastructures », il milite pour les réseaux très haut débit que sont la fibre optique et bientôt la 5G. De plus, autant les fréquences hertziennes délivrées par le CSA pour la TNT sont « gratuites » (2), autant les infrastructures réseaux des « telcos » peuvent être monétisés par ces derniers. « La bonne manière d’anticiper la transition vers le futur monde numérique, n’est pas d’imaginer un régime d’exclusivité technologique
du tout-IP immédiat, où la TNT n’aurait pas d’avenir, mais plutôt de développer un mix technologique où plusieurs modes de diffusion co-évoluent de manière synergique : l’hertzien terrestre fixe (DVBT-2, HEVC), l’hertzien terrestre mobile (4G, 5G), le satellite, le filaire (la fibre) », poursuit Nicolas Curien (3).
Pour la décennie à venir, le régulateur de l’audiovisuel a la main sur les fréquences hertziennes de la TNT, pas son homologue des télécoms. « Assurée de conserver
ses ressources spectrales résiduelles (bandes 500 Mhz et 600 Mhz) pour au moins
les dix prochaines années, la TNT se doit de valoriser au mieux ces ressources, en
se modernisant, de manière à demeurer compétitive vis-à-vis de l’ADSL, de la fibre
ou du satellite. Cette modernisation se traduira, d’une part par la fourniture de services interactifs (guide des programmes, rattrapage, plateforme de services commune à plusieurs chaînes, etc.), d’autre part par une amélioration sensible de l’image et du son par le passage de la HD à l’UHD, qui devrait avoir lieu en 2024, à l’occasion des Jeux olympiques », explique Nicolas Curien.

Vers une « TNT UHD » pour les J.O. de 2024
La dernière fois que l’audiovisuel a dû abandonner des bandes de fréquences au profit des opérateurs mobile, c’était en 2011 pour la bande 800 Mhz et en 2016 pour la bande 700 Mhz. Mais, aux yeux du CSA, cela n’a pas empêché la TNT de garder son intégrité en termes de nombre de services – trente chaînes de télévision – et de connaître une forte amélioration de qualité d’image avec le passage à la HD le 4 avril 2016. Avec les J.O. 2024, l’autorité de la tour du quai André Citroën s’est fixée un objectif ambitieux à la suite de la concertation de l’an dernier avec les professionnels de la télévision numérique terrestre. Pour y parvenir, il a été établi un « programme de travail ».
Dans un premier temps, « si possible dès la fin de l’année 2018 », il s’agit de définir
« l’ensemble des composantes de cette plateforme TNT actualisée, afin que celles-ci puissent être intégrées dans les meilleurs délais dans les téléviseurs et autres équipements de réception de la TNT ».

Programme de travail du CTEN en 2018
En se mettant d’accord d’ici la fin de cette année avec l’ensemble des acteurs sur les normes et technologies futures de la diffusion télévisuelle hertzienne (4), le CSA veut donner quelques années aux fabricants de téléviseurs et de terminaux TNT afin de préparer la mise sur le marché de ces équipements de nouvelle génération. Du moins d’ici à la migration du public vers la nouvelle TNT qui interviendrait « au plus tard au premier trimestre 2024 » avec la publication des spécifications techniques. Des autorisations d’expérimentations techniques seront d’ailleurs délivrées d’ici là. C’est le comité technique des experts du numérique (CTEN), placé sous l’autorité du directeur des médias télévisuels au CSA, Julien Mourlon, qui est réactivée (5) et qui assure la coordination de ces travaux sur l’image et le son. Pour l’image de la future TNT, seront étudiés des standards de haute définition et ultra-définition tels que la 4K à la résolution quatre fois supérieure à la HD actuelle, le HDR (High Dynamic Range) aux contrastes plus profonds, le WCG (Wide Color Gammut) à la palette de couleurs enrichie, ou encore le HFR (High Frame Rate) pour restituer les mouvements et l’action avec une netteté améliorée. Quant au son, il pourra être bien meilleur grâce au NGA (Next Generation Audio) permettant la gestion des dialogues et l’introduction du son spatialisé (voir graphique p. 10).
Ces performances techniques visuelles et sonores supposent que la plateforme « TNT UHD » absorbe des débits bien supérieurs qu’actuellement. « Il est nécessaire de faire évoluer les standards de diffusion (passage du DVB-T au DVB-T2) et de codage (passage du MPEG-4 au HEVC) pour augmenter la capacité de la plateforme TNT, et ainsi permettre le lancement de ces services disposant d’une qualité d’image et de son améliorée », résume le CSA. Ces normes à paramétrer feront l’objet de de travaux du CTEN qui ont démarré au premier trimestre 2018 pour définir le profil de la norme DVB-T2 qui sera utilisé par les multiplex nationaux et locaux. « S’agissant du calendrier de modernisation de la plateforme, les efforts porteront principalement cette année sur le calibrage des normes de transmission (DVBT-2) et de codage (HEVC), afin que les fabricants puissent intégrer ces normes dans les téléviseurs. A partir de 2019, le parc de récepteurs se renouvellera progressivement, de manière à permettre une “nuit bleue de l’UHD” en 2024, selon un scénario comparable à celui mis en oeuvre pour le passage à la HD le 5 avril 2016 », précise Nicolas Curien. Des chaînes de télévision ont demandé au CSA de pouvoir moduler la ressource radioélectrique utilisée en fonction des programmes diffusés, afin d’ajuster le format d’image : une même chaîne pourrait proposer, par exemple, une retransmission sportive en résolution 4K et HFR sur tel créneau horaire, puis un reportage en HD et HDR sur tel autre créneau. Le CSA précise qu’il se concertera avec le gouvernement pour savoir s’il est possible d’offrir cette souplesse aux éditeurs de télévision et si « des évolutions règlementaires, voire législatives, pourraient être proposées dans le cadre de la préparation de la prochaine loi sur l’audiovisuel ». Il est en outre prévu que puisse être lancé « un multiplex expérimental précurseur », afin de tester grandeur nature les nouvelles performances de la TNT UHD, les services interactifs, ou encore la gestion dynamique de la ressource au sein d’un même multiplex.
Quant aux groupes de télévision, ils ont fait part de leur intention de lancer une plateforme commune, permettant d’éditer et commercialiser des services interactifs garantissant une approche homogène pour les téléspectateurs. Ces services enrichis pourront inclure des services de vidéo à la demande (VOD) avec la même interface
de monétisation et de contrôle d’accès. Le CSA a déjà invité l’ensemble des acteurs intéressés à proposer un projet détaillé de plateforme commune, en détaillant l’impact pour le téléspectateur, « en vue d’un premier point d’étape sur ce projet au second trimestre 2018 ». La plupart des téléviseurs vendus depuis 2010 en France et en Europe sont équipés du système interactif HbbTV (6). En associant la réception de
la TNT et les flux reçus via les réseaux télécoms, il permet de proposer aux téléspectateurs des services enrichis en complément de leurs programmes linéaires : VOD, télévision de rattrapage, contrôle du direct, … Cette union des éditeurs de chaînes autour d’une même plateforme TNT fait son chemin, sous l’impulsion de la présidente de France Télévisions, Delphine Ernotte.

Services interactifs HbbTV, VOD, replay, …
Ce serait moins un « Hulu à la française » qu’un « Freeview à la française ». D’autant que TDF est prêt à jouer le jeu en étant le partenaire technique comme l’est son homologue britannique Arqiva avec Freeview. Mais Orange, l’ancienne employeur de Delphine Ernotte, aimerait aussi jouer un rôle central pour cette plateforme commune (7). Des travaux techniques seront engagés au premier semestre 2018 afin de « définir une version harmonisée au plan français du standard HbbTV et de garantir l’interopérabilité de l’offre HbbTV sur l’ensemble du parc ». Aujourd’hui, seules neuf chaînes de la TNT proposent un service HbbTV. @

Charles de Laubier