Gilles Brégant, DG de l’ANFR : « La bande 700 Mhz sera utilisable dès avril 2016 en Ile-de-France »

Le directeur général de l’Agence nationale des fréquences (ANFR), Gilles Brégant, explique le calendrier prévu pour le transfert de la bande des 700 Mhz
de la TNT vers les mobiles. La télévision aura un tiers de fréquences en moins mais profitera de nouvelles normes pour la haute définition et l’ultra-HD.

Propos recueillis par Charles de Laubier

Edition Multimédi@ : Le président de l’Arcep a confirmé
en mai que la vente aux enchères de la bande des 700 Mhz aura bien lieu début juillet, et l’attribution aux opérateurs fin 2015 : mais quand aura lieu le transfert de l’audiovisuel vers les mobiles ? Comment se situe la France par rapport à la
« date limite » de 2020 européenne ?
Gilles Brégant :
En Ile-de-France, la bande 700 Mhz sera utilisable par les opérateurs mobile dès le mois d’avril 2016, donc un peu plus de quatre mois après que les fréquences leur auront été attribuées par le régulateur. Les autres régions leur seront accessibles entre octobre 2017 et juin 2019, selon un calendrier qui leur sera communiqué dès l’appel aux candidatures. Le délai pour la mise à disposition de l’Ile-de-France provient du fait qu’il est nécessaire, au préalable, de mettre fin au codage Mpeg-2 pour la diffusion de la TNT (1) : cet arrêt doit intervenir pour toute la métropole le 5 avril 2016. Les autres régions deviendront disponibles lorsque les canaux de la TNT auront été déplacés hors de la bande 700 Mhz (2). Il n’existe pas encore de véritable « date limite » pour les pays de l’Union européenne : l’année 2020 a été recommandée aux instances européennes par le RSPG (3). L’attribution sera effective en France dès fin 2015, avec une mise en oeuvre effective sur le terrain de 2016 à 2019. La France sera le deux-ième pays européen à conduire des enchères pour la bande 700 Mhz, juste après l’Allemagne, dont la procédure s’exécute en ce moment même (4). En Europe de l’Ouest, les coordinations internationales encouragent les différents Etats à se synchroniser pour la libération de ces fréquences.

EM@ : Pourquoi ces fréquences dans la bande des 700 Mhz sont-elles considérées comme « en or » en termes de caractéristiques techniques et
de qualité de propagation ? Quelles capacités peuvent espérer les opérateurs mobile ? Seront-elles plus puissantes que dans les 800 Mhz ?
G. B. :
Ces fréquences, comme toutes celles qui se trouvent entre 0,5 et 1 Ghz, présentent un double avantage : d’une part, leur longueur d’onde n’est pas trop élevée, ce qui permet de concevoir des antennes qui restent à l’intérieur d’un terminal de
poche ; d’autre part, par rapport aux fréquences situées au-dessus de 1 Ghz, elles présentent une meilleure portée, et sont moins atténuées par les bâtiments. A couverture égale, elles nécessitent donc beaucoup moins de relais et, par conséquent, moins d’investissement. La bande des 700 Mhz va ouvrir aux opérateurs mobile deux blocs de 30 Mhz (l’un spécialisé pour l’uplink, l’autre pour le downlink), soit exactement la même quantité de spectre que la bande des 800 Mhz. La capacité qu’un opérateur peut espérer dans cette bande dépendra du nombre de mégahertz dont il disposera au terme des enchères. Aujourd’hui, dans la bande des 800 Mhz, trois opérateurs [Orange, SFR et Bouygues Telecom, ndlr] disposent chacun de deux fois 10 Mhz, qui leur permettent d’offrir des services 4G. La bande des 700 Mhz offre des possibilités comparables aux 800 Mhz, avec une portée légèrement plus favorable dans les zones moins denses.

EM@ : Quel spectre perd la télévision et que va-t-elle gagner avec la diffusion DVB-T/Mpeg-4, puis DVBT2/ HEVC ? Combien de chaînes HD, UHD, voire 4K, pourront être proposées en France ?
G. B. :
La TNT est aujourd’hui diffusée entre 470 et 790 Mhz, correspondant à quarante canaux de 8 Mhz (numérotés de 21 à 60). La bande 700 Mhz va, elle, de 694 à 790 Mhz, soit 96 Mhz ou douze canaux de télévision (de 49 à 60). Après la libération de
la bande 700 Mhz, la télévision réduira donc sa consommation de spectre d’un tiers. Cette réduction sera plus que compensée par deux effets : la généralisation du Mpeg-4, norme introduite en France pour les chaînes payantes dès le lancement de la TNT en 2005, et, à qualité équivalente, consommant près de deux fois moins de spectre que le Mpeg-2 ; la fin des doubles diffusions de certaines chaînes (TF1, France 2, M6 et Arte), qui sont aujourd’hui proposées à la fois en Mpeg-2 (SD) et en Mpeg-4 (HD). De ce fait, en mettant fin à la diffusion du Mpeg-2, non seulement les chaînes actuelles resteront diffusées sur la TNT, mais la plupart d’entre elles pourront accéder à la diffusion en haute définition (HD). Quant au passage envisagé à terme en DVBT2/ HEVC, il permettrait, sans toucher aux fréquences, de démultiplier la capacité disponible. A qualité d’image équivalente, le DVB-T2 procure 30 % de gain par rapport au DVB-T,
et le HEVC est deux fois plus efficace que le Mpeg-4. La combinaison DVB-T2/HEVC permettrait, selon le choix des chaînes, de diffuser une partie du bouquet TNT en ultra-HD (5).

EM@ : Combien de foyers français sont concernés par l’évolution de la TNT, sachant que la réception de la télévision par ADSL est majoritaire en France ?
G. B. :
La TNT concerne plus de la moitié des foyers français. Seulement 6 % d’entre eux n’ont que des équipements Mpeg-2 à domicile pour la recevoir : ils devront donc impérativement s’équiper d’un adaptateur Mpeg-4 avant avril 2016 pour continuer à recevoir la télévision. Environ 58 % des foyers français reçoivent la TNT sur au moins un poste. Le chiffre réel est sans doute un peu plus important, car une box ADSL peut aussi cacher un tuner TNT, et capter certaines chaînes à partir de la diffusion hertzienne.

EM@ : Comment l’ANFR va aider à ce basculement ? Faudra-t-il changer de téléviseur ?
G. B. :
L’ANFR assure depuis 2012 le support aux téléspectateurs grâce à son centre d’appel (6) et à son site web www.recevoirlatnt.fr. Ces deux outils d’information vont être adaptés aux problématiques d’évolution de la norme de la TNT et joueront un rôle essentiel d’accompagnement des téléspectateurs. A partir de fin 2015, l’ANFR lancera une campagne nationale de communication pour informer les téléspectateurs de la nécessité de vérifier l’adéquation de leur téléviseur avant avril 2016. Des aides sont envisagées par le gouvernement pour aider les foyers les plus modestes et les plus fragiles à prendre les mesures nécessaires. Il pourra s’agir d’aides financières sous conditions de ressources, pour rembourser l’achat d’adaptateurs compatibles HD, et d’aides de proximité, pour une intervention à domicile chez les personnes âgées ou handicapées.
Par ailleurs, l’ANFR sensibilise d’ores et déjà les professionnels au changement de norme de la TNT, et notamment les distributeurs et revendeurs télé, hifi, vidéo, afin qu’ils s’assurent d’un approvisionnement suffisant en équipements compatibles HD dans les points de vente. Des brochures d’information seront éditées à destination
des principaux acteurs concernés.
Cette évolution n’implique toutefois pas de changer de téléviseur. Il suffit d’y brancher, par la prise Péritel ou HDMI, un adaptateur compatible HD , disponible aujourd’hui à partir de 25 euros.

EM@ : Quand devrait se poser en France la question du maintien de la diffusion audiovisuelle dans les fréquences 470-694 MHz jusqu’en 2030 ?
G. B. :
Deux rapports successifs remis à la Commission européenne, celui de Pascal Lamy en septembre 2014, puis celui du RSPG en novembre 2014, ont proposé qu’il n’y ait plus de changement d’usage des bandes de fréquences dévolues à la diffusion de la TNT avant 2030. Cette préconisation, reprise dans une proposition de loi qui vient d’être soumise à l’Assemblée nationale (7), pourrait être adoptée par le législateur @

Le marché de la vidéo veut rebondir avec UltraViolet

En fait. Le 16 janvier, le Syndicat de l’édition vidéo numérique (SEVN), qui comprend 27 membres éditeurs ou distributeurs de contenus vidéo sur DVD,
Blu-ray ou VOD, a dressé le bilan 2012 du marché français de la vidéo physique
et en ligne : un chiffre d’affaires en recul de 5 %, à 1,317 milliard d’euros.

En clair. Après le format haute définition du disque optique Blu-ray et le développement
de la vidéo à la demande (VOD), le marché français de la vidéo est en quête d’une nouvelle innovation qui l’aiderait à retrouver le chemin de la croissance.
Le marché de la vidéo physique, qui pèse encore 85 % des 1,317 milliard d’euros de chiffre d’affaires, continue en effet de baisser malgré la hausse des ventes de Blu-ray
(à 224 millions d’euros) et de la VOD qui ne dépasse pas les 15 % du total (à 200 millions hors titres pour adultes).

Déjà 9 millions d’utilisateurs aux Etats-Unis
La technologie qui pourrait sortir les éditeurs et les distributeurs vidéo de l’ornière
s’appelle UltraViolet, laquelle tente de réconcilier le support physique et le dématérialisé. Les studios et producteurs de cinéma en France se préparent comme l’indique Jean-Yves Mirski, délégué général du Syndicat de l’édition vidéo numérique (SEVN), à Edition Multimédi@ : « Le lancement d’UltraViolet est prévu sur le marché français au quatrième trimestre 2013. C’est déjà un succès aux Etats Unis avec 9 millions de comptes d’utilisateurs ouverts à fin décembre 2012. L’UV apporte la possibilité de pouvoir profiter de son achat même sans le support ce qui répond aux attentes du consommateur de plus en plus désireux du ATAWAD (AnyTime, Any Where, Any Device…) ».

UltraViolet, une alternative ouverte à iTunes
Déjà lancé aux Etats-Unis par le consortium Digital Entertainment Content Ecosystem (DECE), ce format de fichier numérique pour la VOD a été conçu à partir de juillet 2010 comme une alternative à iTunes (1) et à destination de tous les écrans de télévision, d’ordinateurs, de tablettes et de smartphone.
Plus de 80 industriels du cinéma, des médias audiovisuels et des technologies (2) développent leur standard UltraViolet pour contrer la toute puissance d’Apple et son format propriétaire ALAC (Apple Lossless Audio Codec) utilisé pour les fichiers musicaux et vidéo.

Visionner un film sur différents supports
Au dernier CES de Las Vegas, les studios de cinéma Sony Pictures, Universal Studios, Twentieth Century Fox, Lionsgate et Warner Bros se sont même déclarés pour le son Dolby Digital Plus d’UltraViolet. Seul Disney manque à l’appel.
C’est en octobre 2011 que Warner Bros a été le premier à lancer son Blu-ray UltraViolet avec le film « Comment tuer son boss ? ». L’UltraViolet permet ainsi le visionnage d’un même contenu sur différents supports (physiques ou dématérialisés) à partir d’un compte unique par foyer. @

Les nouvelles normes de compression vidéo ne suffiront pas à éviter l’engorgement des réseaux

Malgré l’arrivée de nouvelles générations de codages de compression multimédia pour optimiser la diffusion en haute définition, voire en 3D, Internet reste sous la menace d’une saturation des « tuyaux », notamment sur les derniers kilomètres.

Par Charles de Laubier

« La compression est l’une des clés pour répondre aux risques d’engorgement des réseaux, mais elle ne les résoudra pas pour autant, dans la mesure où la demande des utilisateurs pour de la vidéo en ligne et de la qualité toujours meilleure va aller croissant », nous a expliqué Eric Rosier, responsable des solutions TV pour les opérateurs télécoms et audiovisuels chez Ericsson, à l’occasion d’une tournée européenne sur les dernières innovations en la matière (1).

Après le Mpeg-Dash, le HEVC
Déployer des infrastructures réseaux ne suffit plus, même en très haut débit, s’il faut faire face à l’explosion sur Internet de la vidéo, de la télévision, de la catch up TV ou encore de la diffusion en live, sur fond de réception multiscreen, HD, ultra-HD voire 3D dans les foyers. L’année 2012 a pourtant bien commencé avec la publication, par l’organisation internationale de normalisation ISO (2) en avril dernier, des spécifications techniques du nouveau standard de diffusion multimédia sur Internet : le Mpeg- Dash, que le Moving Picture Experts Group a finalisé à la fin de l’année dernière (3) – soit près de vingt ans après la publication du premier standard de compression Mpeg-1 (vidéo CD et MP3), lequel fut suivi de Mpeg-2 (box et DVD) puis de Mpeg-4 (web multimédia fixe et mobile). Le Mpeg- Dash, lui, n’est pas un système de compression numérique mais plutôt un format dynamique de diffusion multimédia sur Internet – d’où son signe Dash (4), pour Dynamic Adaptive Streaming over HTTP. Le Mpeg-Dash fournit en effet un ensemble de caractéristiques techniques capables de supporter – sur le célèbre protocole de l’Internet développé par le W3C – la vidéo à la demande (VOD), le streaming live ou encore la gestion de légers différés (time shifting). Le streaming sur Internet – vidéo et télé en tête, mais également animations, graphiques, 2D ou encore 3D – a ainsi enfin sa norme de transmission « parapluie », vers laquelle les technologies propriétaires des Apple, Microsoft, Adobe, Google et autres Rovi (5) devraient toutes converger à terme. Tout comme des organisations professionnelles telles que l’Open IPTV Forum (OIPF), le 3GPP (opérateurs mobile), le HbbTV (6) (initiative européenne pour la TV connectée) et le HD Forum créé en France par TF1, M6, TDF, Numericable, Technicolor, Eutelsat et des fabricants de téléviseurs connectés. Les fournisseurs de contenus et les industries de la culture voient aussi dans Mpeg-Dash le moyen d’implémenter des protections DRM (7) qui deviennent ainsi opérantes entre elles. Le Mpeg-Dash apparaît surtout comme le metteur en scène de la prochaine génération de technologies de compression. Alors que la haute définition du Mpeg-4 n’a pas encore totalement remplacé la simple définition Mpeg-2 (encore présente sur TNT et ADSL), voilà qu’une super-norme de compression arrive pour lui succéder : le HEVC (High Efficiency Video Coding), qui permettra d’aller jusqu’à l’ultra-haute définition en 1080p (versus 720p), en 4K (8) ou en 3D – tout en divisant par deux la consommation de débits sur les réseaux (9), sans pertes de données visibles. « HEVC (H265) permet d’atteindre des gains de 50 % par rapport au Mpeg-4 (H264), ce qui devrait lui permettre de s’imposer rapidement », prévoit Eric Rosier. En février dernier, le projet de description a été finalisé. En juillet, il sera proposé comme standard international, avant d’être approuvé en janvier 2013. Les premiers équipements HEVC pourraient être prêts dès mi- 2013, mais les réseaux ne seront vraiment soulagés qu’à partir de 2014. Un autre équipementier télécom, l’américain Cisco, a publié fin mai une étude montrant que le trafic Internet allait être multiplié par quatre d’ici 2016 pour atteindre 1,3 zetta-octets, un « Zo » équivalant à mille milliards de giga-octets ! Au-delà de l’augmentation exponentielle de terminaux connectés, lesquels seront dans quatre ans presque 20 milliards en nombre pour près de 3,5 milliards d’internautes, c’est la vidéo qui sera prédominante. Cisco calcule qu’à ce moment-là 1,2 million de minutes de vidéo, soit l’équivalent de 833 jours de visionnage, circuleront chaque seconde sur Internet, auprès de 1,5 milliard de vidéonautes dans le monde (contre 792 millions en 2011). La vidéo mobile devrait être le service multimédia le plus dynamique, passant de 271 millions de « vidéomobinautes » en 2011 à 1,6 milliard en 2016. Le trafic des vidéos et des télévisions en HD et/ou en 3D connaîtra une augmentation multipliée par cinq entre 2011 et 2016.

« Tsunami » vidéo sur les réseaux
Quant aux téléviseurs connectés, ils devraient contribuer – toujours d’ici quatre ans – pour 6 % au trafic Internet mondial grand public et 18 % au trafic vidéo sur le Web. Face à ce « tsunami » vidéo, il y a donc urgence à trouver de nouveaux algorithmes d’encodage et décodage en temps réel encore plus performants. @

De la photo à la webographie

En cette fin d’été, à ce moment particulier où nos pensées sont encore imprégnées par nos voyages et retrouvailles familiales, je retrouve sur le Net les images de ceux qui ont vécu les mêmes instants que moi, mais avec leurs regards, à travers leurs innombrables photos. Pour moi, qui ne suis pas photographe, c’est une chance que de pouvoir me faire un album grâce aux centaines de clics de mon réseau. Quand je souligne que je ne fais pas de photo, ce n’est plus tout à fait vrai. Sans vraiment le vouloir, je me suis trouvé progressivement à la tête de terminaux mobiles intégrant, pour la plupart d’entre eux,
une fonction de capture d’images. Il m’arrive donc d’en prendre, le plus souvent avec
mon smartphone qui ne me quitte jamais, mais sans rivaliser avec la frénésie qui semble tenir la plupart de mes contemporains ! Je suis donc, comme beaucoup, emporté par
cette vague de fond qui fait du XXIe siècle celui de l’image reine. Le siècle précédent,
qui fut celui des grands noms du métier et des grandes agences qui donnèrent leurs lettres de noblesse à la photographie, ferait presque pâle figure face à ce déferlement.
Car il s’agit bien d’un changement d’échelle depuis l’année 2001 où l’activité photographique mondiale argentique était encore mesurable : quelque 2,7 milliards de
films furent consommés, pour un total de plus de 80 milliards de photos. Dix ans plus tard, avec l’essor du numérique, le nombre de photos prises dans le monde pouvait atteindre les 800 milliards, dont plus de 100 milliards mises en ligne sur le seul Facebook – au rythme trépidant de 6 milliards de clichés par mois !

« Mes lunettes ne font-elles pas un excellent appareil ? Immersives, les images sont de plus en plus réalisées en très haute définition, en vision 180° ou en 3D ».

Que de prises de vue depuis cette fameuse année 1839 durant laquelle est né le procédé de reproduction photographique qui fixa une image fugace au fond de cette chambre noire. Mis au point par Niépce, touche à tout de génie, le procédé fut commercialisé par Daguerre, homme d’affaire inspiré, qui supplanta ses concurrents français ou anglais
en partant très rapidement à la conquête du monde. Cette invention marqua également
les esprits par la rapidité de sa diffusion : boutiques prises d’assaut, une heure après l’ouverture et multiplication éclair des vocations de photographes. Le procédé a ensuite évolué durant tout un siècle : très vite la couleur et de nouveaux supports comme la plaque de verre, puis le film souple, ensuite le petit format grâce aux innovations de
Leica ou d’Agfa, et le développement instantané par Polaroïd, pour finir par les raffinements extrêmes de l’électronique japonaise triomphante.
L’amplification du phénomène par la révolution digitale, déclenchée par la mise sur le marché des premiers véritables appareils photos numériques en 1995, n’est bien sûr pas seulement quantitative, mais bouscule la plupart des repères pourtant solidement établis depuis les origines. Le photojournalisme a dû se réinventer, complément, pour faire face
à la mutation des métiers de la presse et à la banalisation du scoop à portée de milliards d’objectifs : les grands noms d’aujourd’hui réinventent la photo de presse sur le Web,
en laissant derrière eux, par la qualité de leur travail, le vieux débat sur la photo retouchée. Depuis longtemps élevé au rang des arts majeurs, la photo a envahi le vaste champ de la création plasticienne en occupant de fait la place laissée vacante par la peinture lorsqu’elle accoucha de son dernier monochrome. L’espace de création semble infini, comme le montre cette artiste, Corinne Vionnet, qui produit des images troublantes à partir de la même vue postée par des milliers d’internautes. La photo se détache toujours plus du boitier traditionnel – mes lunettes ne font-elles pas un excellent appareil ? – et en même temps se libère des deux dimensions originelles : immersives, les images sont de plus en plus en très haute définition, en vision 180° ou en 3D. Cependant, et quel que soit le rythme des innovations, la part magique de nos photos reste encore irréductible, au moins tant que l’oeil et le cerveau qui les fabriquent restent aux commandes et que, comme nous l’a appris Roland Barthes dans « La chambre claire » : « Ce que la photographie reproduit à l’infini n’a lieu qu’une fois ». @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : e-Mémoires
Stockage et conservation des contenus
* Directeur général adjoint de l’IDATE. Sur ce thème, ne pas
manquer les Rencontres d’Arles Photographie jusqu’au
17 septembre 2011 : www.rencontres-arles.com.