Révision de la directive SMA en 2026 : débat lancé

En fait. Les 8 novembre, Olivier Henrard, président par intérim du Centre national du cinéma et de l’image animée (CNC) est intervenu aux Rencontres cinématographiques de L’ARP (société civile des auteurs-réalisateurs-producteurs), au Touquet-Paris-Plage. Les grandes plateformes vidéo font parler d’elles.

En clair. La directive européenne « Services de médias audiovisuels » (SMA) du 14 novembre 2018 entre dans sa dernière ligne droite ; elle doit faire l’objet d’une révision en 2026. Les vingt-sept Etats membres de l’Union européenne (UE) avaient jusqu’au 19 septembre 2020 pour la transposer. C’est elle qui a élargi la régulation de l’audiovisuel aux plateformes vidéo, y compris celles basées hors d’Europe tels que YouTube, Netflix, Amazon Prime Video ou encore Disney, lesquelles sont depuis soumises à des obligations de protection des publics et de quotas d’œuvres européennes, et, pour certaines, de financement (1).
« Cette faculté consacrée en 2018 a fait la preuve de ses bienfaits. En France, c’est près de 1 milliard d’euros qui ont été investis par les services étrangers de vidéo à la demande par abonnement, en large majorité au profit de la production déléguée indépendante », s’est félicité le 8 novembre Olivier Henrard, président par intérim du CNC (2), lors des 34es Rencontres cinématographiques de L’ARP (3).

Les services de médias audiovisuels à la demande (SMAd) sont ainsi soumis à des obligations fixées par chacun des pays de l’UE. Or, autant les niveaux d’investissement dans les œuvres européennes sont décidés par le pays ciblé, autant l’exposition de ces œuvres européennes dans les catalogues des plateformes de streaming relève des compétences du pays d’origine. C’est notamment sur ce point et sur les quotas de diffusion que des appels sont déjà lancés pour que la révision de la directive SMA, prévue « au plus tard le 19 décembre 2026 », supprime la règle dite du pays d’origine, laquelle génère, selon l’industrie du cinéma, des « distorsions de concurrence » due à une « asymétrie réglementaire » entre acteurs locaux historiques (les chaînes) et les plateformes.
En France, le CNC s’appuie sur le rapport Raynaud-Naudascher (4) pour préconiser non seulement le rehaussement du quota de diffusion mais aussi le passage à la règle dite du pays ciblé par les plateformes vidéo. Jouant sur l’Etat membre le moins-disant en quotas, Netflix s’est établi aux Pays-Bas, Amazon Prime Video au Royaume-Uni, Apple TV+ en Irlande et Disney+ en Belgique. Evitant ainsi les quotas français (60 % d’œuvres européennes dans les catalogues, et 40 % d’œuvres d’expression originale française). Résultat, les œuvres américaines sont toujours plus regardées. @

Projet de loi de finances 2025 : « taxes Gafam » ?

En fait. Le 12 novembre, lors du vote solennel, les députés ont rejeté (362 contre, 192 pour) la première partie du projet de loi de finances 2025, laquelle portait sur les recettes fiscales de l’année prochaine. Le Sénat remettra-t-il à son tour les taxes TSN (augmentée) et TOCE (étendue) pour les Gafam ?

En clair. L’Assemblée nationale a rejeté le volet « recettes fiscales » du projet de loi de finances (PLF) pour 2025. Le Sénat, qui examinera le texte initial du gouvernement Barnier, réintroduira-t-il les « taxes Gafam » adoptés par des députés ? Il y a eu d’abord le rehaussement de la taxe sur les services numériques (TSN), appelée « taxe Gafam », pour qu’elle rapporte 500 millions d’euros de plus que les 774 millions d’euros prévus dans le PLF initial, soit 1,2 milliard d’euros. Cette initiative provenait de l’union de la gauche (NFP) mais aussi de la droite et de l’extrême droite. Au moins trois amendements avaient été adoptés le 8 novembre pour aller dans le même sens, à savoir : faire passer la taxe sur les services numériques (TSN), instaurée en 2019, de 3 % à 5 %.
« Etant donné que le rendement prévisionnel de la taxe [TSN] pour 2025 est de [près de] 800 millions d’euros, on peut estimer que le présent amendement créerait plus de 500 millions d’euros de recettes nouvelles pour le budget de l’Etat », expliquaient à l’unisson deux des trois amendements, respectivement de la gauche socialiste (1) et de la droite républicaine (2).

L’extrême droite, qui avait fait adopter le troisième amendement « 3 % à 5 % » (3), en avait rajouté une couche avec un autre amendement pour, cette fois, étendre aux Gafam l’application de la taxe TOCE, dite « taxe Copé ». Cette ponction fiscale sur le chiffre d’affaires des « opérateurs de communications électroniques », adoptée en 2009 (4), est versée par les opérateurs télécoms pour financer France Télévisions après la suppression de la publicité sur les chaînes publiques à partir de 20 h. Orange, Bouygues Telecom, Free et SFR règlent plus ou moins 200 millions d’euros par an de TOCE, d’après la FFTélécoms. « Les Gafam génèrent d’importants bénéfices en France, utilisant les infrastructures des opérateurs sans pour autant payer à la hauteur de cette utilisation. […] L’inclusion des Gafam dans la TOCE est un premier pas pour corriger cette distorsion », justifiait l’amendement (5).
Un autre amendement, déposé par LFI (NFP) et adopté le 6 novembre (6), prévoyait, lui, le remplacement de la TSN par une « taxe Gafam » de 15 %. Les Gafam étaient donc mis à contribution pour réduire le déficit public de la France qui est proche des 6 % du produit intérieur brut (PIB), tandis que la dette l’Etat français s’élève à 3.200 milliards d’euros. @

Responsabilités sur le Web : ce qui change vraiment avec le règlement sur les services numériques

Même si le DSA a maintenu la « non-responsabilité » des hébergeurs et autres intermédiaires numériques, ce règlement européen sur les services numériques ouvre la voie à une auto-régulation a priori de la part des très grandes plateformes en ligne pour éviter les « risques systémiques ».

Par Anne Cousin, avocate associée, Derriennic Associés

Le règlement sur les services numériques – Digital Services Act (DSA) – du 19 octobre 2022 (1) est applicable à l’ensemble des intermédiaires du numérique depuis février 2024 : fournisseurs d’accès aux contenus, services de cache, moteurs de recherche, hébergeurs, plateformes en ligne. Que faut-il en attendre sur le terrain de la responsabilité de tous ces « fournisseurs de services intermédiaires » en cas de désinformation, cyber harcèlement, diffamation et contenus haineux ? Et ce, « quel que soit leur lieu d’établissement ou leur situation géographique, dans la mesure où ils proposent des services dans l’Union [européenne] ».

Des principes inchangés, parfois chahutés
A l’origine du Web, la question fondamentale fut de distinguer deux acteurs principaux : les éditeurs d’une part, responsables de plein droit des contenus qu’ils créent, et les hébergeurs d’autre part, qui à l’inverse ne doivent, ni même ne peuvent, en répondre. A la veille des années 2000, la bataille en France fut en effet acharnée sur le terrain judiciaire (2) et finalement remportée au Parlement en quelques années – loi « Liberté de communication » et loi « LCEN » (3) – par les tenants de la non-responsabilité des hébergeurs, considérée comme la condition sine qua non du développement des échanges sur Internet. Depuis, le principe a été repris par les lois françaises successives et – bien que la jurisprudence soit parfois hésitante dans son application pratique – la distinction de l’éditeur et de l’hébergeur, et les conséquences qui en découlent, sont fermement maintenue depuis. La régie publicitaire Google Adwords (4), le moteur de recherche Google (5), ou encore la plateforme de partage de vidéos Dailymotion (6) ont ainsi été jugés hébergeurs. Au contraire, ont été considérés comme éditeurs la plateforme Airbnb (7) ou encore le site web de billetterie de manifestations sportives Ticket Bis (8). Le DSA ne revient pas en arrière.

Ce règlement européen sur le marché des services numériques maintient aussi la règle indissociable de la précédente et qui en est le pendant : l’hébergeur à qui est notifié un contenu manifestement illicite doit le supprimer « dans les meilleurs délais ». Le DSA précise qu’un tel retrait doit intervenir « sans examen juridique détaillé » (9). L’illicéité doit donc « sauter aux yeux » de l’hébergeur, ce qui devrait conduire, comme aujourd’hui, à une quasi-absence de suppression des contenus « simplement » diffamatoires ou injurieux, tant leur analyse est complexe et suppose un examen approfondi. Il est en effet exclu que l’hébergeur se prononce sur la vérité du propos diffamatoire (qui écarte l’infraction) ou la bonne foi de son auteur, qui détient les mêmes effets, puisqu’il ne dispose ni du recul ni du dossier nécessaire. Le juge des référés du Tribunal judiciaire de Paris l’a par exemple retenu en ces termes : « Une appréciation du caractère éventuellement diffamatoire des vidéos, photographies et écrits litigieux suppose une analyse des circonstances ayant présidé à leur diffusion, laquelle échappe par principe à celui qui n’est qu’un intermédiaire technique. Cela a pour conséquence que cet intermédiaire ne peut, par le seul fait de cette diffusion ou du maintien en ligne, être considéré comme ayant eu un comportement fautif, étant précisé en outre que la diffamation, à la supposer constituée, n’égale pas forcément trouble manifestement illicite » (10).
Ce n’est finalement que dans des cas exceptionnels – en raison des thèmes abordés, de la violence particulière du propos considéré – que l’hébergeur pourra trancher en faveur du caractère manifestement diffamatoire ou injurieux du contenu et le supprimer. Le maintien de ce principe par le DSA montre donc que la question de la non-responsabilité des hébergeurs et autres intermédiaires fait aujourd’hui consensus. A ce stade, il pourrait donc être justifié de soutenir que, malgré les déclarations tonitruantes de certains politiques, le DSA ne révolutionnera pas le paysage juridique. Il ne mettra donc pas fin à l’irresponsabilité des plateformes puisque la tâche a déjà été accomplie, et ce, depuis longtemps… Mais cette approche, elle aussi à tort radicale, ne tient pas compte des véritables apports du DSA.

Responsabilité et responsabilisation
En réalité, le règlement sur le marché des services numérique fait le constat que sur le terrain de la « responsabilité » des intermédiaires, c’est-à-dire « après » la diffusion du contenu illicite, tout a été fait : les droits nationaux et le droit de l’Union européenne (UE) ne peuvent aller beaucoup plus loin que la construction légale et jurisprudentielle actuelle. Une définition uniforme dans l’UE de ce qu’il faut entendre par contenu dit « illicite » était peut-être envisageable, tout comme la fixation uniforme de délais de retrait par l’hébergeur en fonction de la gravité du contenu. Mais guère plus. En revanche, sur le terrain cette fois des « obligations » et de la « responsabilisation », beaucoup restait à bâtir. Et c’est ce à quoi s’emploie le DSA. On peut ainsi se demander si la distinction fondamentale de l’éditeur et de l’hébergeur, qui a commandé toute la réflexion depuis l’origine, conserve aujourd’hui effectivement toute sa force.

Nouveaux enjeux, nouvelles obligations
L’idée s’est peu à peu faite jour que les graves dérives actuelles telles que la manipulation de l’information, le cyberharcèlement ou la haine en ligne ne pourraient recevoir une réponse adaptée si le droit persistait à s’en tenir à la seule distinction de l’éditeur qui répond de tout, et de l’hébergeur qui en principe ne répond de rien. Sur ce point, le DSA innove à plusieurs égards, faisant de la modération des contenus, l’élément central du nouveau rôle attribué aux intermédiaires techniques du Web. Il leur impose tout d’abord une obligation renforcée de transparence sur le fonctionnement de la modération a posteriori, laquelle est en effet souvent dénoncée comme opaque et peu compréhensible, conduisant à d’inévitables contentieux. Twitter – devenu X – a ainsi été contraint judiciairement (11), parce qu’il s’y refusait, de fournir des données sur sa procédure de modération (moyens mis en œuvre, nombre de signalements reçus, …). Les conditions générales des hébergeurs doivent désormais détailler les politiques, process, mesures et outils utilisés à cette fin, y compris en ce qui concerne la prise de décision fondée sur des algorithmes et le réexamen par un être humain. Les informations devront être énoncées « dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté » et mises « à la disposition du public dans un format facilement accessible et lisible ».
Les intermédiaires devront aussi établir un rapport annuel détaillant le type de réclamations reçues des particuliers comme des administrations, et les décisions prises pour y donner suite (12). Instagram, Facebook et d’autres très grandes plateformes ont publié leur premier rapport de transparence fin 2023 (13). On y apprend que les Etats membres sont très peu interventionnistes, notamment la France, et que les injonctions de suppression émanant des autorités sont peu nombreuses. Les intermédiaires devront également être plus transparents sur leur système de recommandation, qui, très souvent, permet de favoriser les contenus les plus violents et donc les plus dangereux pour la paix civile.
Mais là où le DSA innove véritablement, c’est à l’égard des « très grandes plateformes » et des « très grands moteurs de recherche » – ceux qui comptabilisent au moins 45 millions d’utilisateurs actifs dans l’UE. Globalement, les obligations qu’il prévoit vont en effet croissant : tous les intermédiaires techniques sont soumis à une série de règles ; ensuite l’ensemble des hébergeurs sont concernés par plusieurs dispositions complémentaires ; puis parmi les hébergeurs, la catégorie particulière des plateformes devra satisfaire à des engagements encore plus contraignants ; et enfin, les « très grandes plateformes en ligne » et les « très grands moteurs de recherche en ligne » seront tenus d’obligations plus sévères encore (14). A leur égard, compte tenu de leur rôle primordial dans la diffusion de l’information au sens large, on considère que la modération a posteriori ne suffit plus à traiter efficacement les dérives les plus graves et c’est pourquoi le DSA leur fait désormais obligation d’intervenir également a priori. Ces « VLOP » (Very Large Online Platforms) et ces VLOSE (Very Large Online Search Engines), dont la liste peut évoluer (15), doivent en effet désormais procéder une fois par an à une auto-analyse de leur fonctionnement et se soumettre à un audit indépendant afin d’en identifier les « risques systémiques » – notamment « lorsque l’accès à des contenus illicites peut se propager rapidement ». Ils doivent ensuite, lorsque ces risques systémiques sont identifiés, mettre « en place des mesures d’atténuation raisonnables, proportionnées et efficaces » (16). On peut voir dans cette évolution, une obligation de modération a priori cette fois, mais de portée générale et non dirigée vers un contenu particulier.
La distinction essentielle entre l’éditeur qui produit le contenu et le contrôle, et l’hébergeur qui reste extérieur au contenu et qui intervient seulement une fois l’illicéité portée à sa connaissance, a donc fait long feu. Mais de nouvelles questions surgissent. En effet, l’irresponsabilité des intermédiaires les plus puissants du marché est-elle toujours un principe intangible ? Peuvent-ils désormais se trouver mis en cause si, malgré les audits qui leur sont imposés, ils n’ont pas correctement identifié les risques et ne sont pas intervenus en amont comme ils l’auraient dû pour en atténuer les conséquences ? Une réponse positive à cette question est parfaitement envisageable. Il ne s’agirait plus alors de déterminer seulement s’ils devaient retirer tel ou tel contenu illicite mais, concrètement, si tel ou tel crime – par exemple un acte terroriste – aurait pu être évité s’ils avaient correctement identifié, analysé le risque et pris les mesures nécessaires pour le limiter ou même l’écarter.

Liberté d’expression : qui est l’« arbitre » ?
Au-delà, l’accroissement de la responsabilisation des très grandes plateformes et très grands moteurs de recherche pose aussi directement la question du rôle du juge dans la sanction des abus de la liberté d’expression. Le DSA ne conduit-il pas à faire de chacune des plus puissantes plateformes mondiales « l’arbitre unique » de celle-ci et de ses dérives ? L’évolution contemporaine de X (ex-Twitter) qui se prévaut d’une liberté totale (dont il y aurait beaucoup à dire au demeurant) ne sonne-t-elle pas déjà comme un sinistre avertissement ? Le débat est en tout cas lancé. @

En plus des télécoms, l’Arcep se prépare à une régulation des « réseaux informatisés »

« Trois tendances structurantes appellent potentiellement à des actions de régulation », prévient la première note de synthèse « Réseaux du futur » de l’Arcep, en faisant référence à l’informatisation des réseaux, à l’ouverture des API du réseau, et à la cloudification/virtualisation des entreprises.

L’Autorité de régulation des communications électroniques et des postes (Arcep) va-t-elle en plus devenir le régulateur de la connectivité Internet ? La question posée par Edition Multimédi@ peut surprendre, mais cette perspective pourrait devenir réalité avec l’informatisation des réseaux, l’ouverture des interfaces de programmation applicative des réseaux, et la cloudification/virtualisation des entreprises. Une nouvelle ère se dessine pour la régulation des télécoms, lesquelles voient l’informatique s’immiscer partout et jusqu’à leurs extrémités.

« Trois tendances structurantes »
L’Arcep, actuellement présidée par Laure de La Raudière (photo), mène depuis 2018 des réflexions sur ce qu’elle appelle « les réseaux du futur ». Objectif : se préparer aux « futurs défis de la régulation des réseaux » et orienter son action en conséquence. Un an après avoir relancé ses travaux menés avec un nouveau « comité scientifique », composé aujourd’hui de onze personnalités qualifiées du monde académique, entrepreneurial et industriel, une première « note de synthèse » a été publiée le 4 octobre 2024 et intitulée « L’informatique au cœur des télécoms ». Dans sa conclusion, le document de travail d’une vingtaine de pages (1) fait état de « trois tendances structurantes qui appellent potentiellement à des actions de régulation ».

Cette future régulation étendue aux « réseaux informatisés » porterait aussi bien sur le marché grand public que sur celui des entreprises. Le comité scientifique de l’Arcep décrit ces trois tendances de la façon suivante :
L’informatisation des réseaux semble se réaliser par étape, avec déjà quelques enjeux majeurs liés à ces transformations, notamment en ce qui concerne l’utilisation de solutions de cloud public pour l’exploitation des réseaux et la fourniture de services de connectivité au grand public. Certains de ces enjeux pourraient soulever des questions de régulation, notamment le marché de l’intégration des fonctionnalités des réseaux.
L’identification des services de demain pour le grand public reste incertaine : les cas d’usage ne semblent pas clairement se dessiner à ce stade. Néanmoins, l’ouverture des API (2) du réseau pourrait permettre l’éclosion de nouveaux usages et de nouveaux services. Une vigilance sur le fonctionnement des futurs marchés d’accès aux API pourrait alors s’avérer nécessaire.
Les offres de solutions de connectivité à destination des entreprises pourraient en revanche bénéficier plus directement des retombées de l’informatisation des réseaux. Ce marché pourrait connaître des évolutions profondes. D’une part, certains services IT [comprenez Information Technology, pour informatique, ndlr] vont remplacer des services télécoms historiques, conduisant à une combinaison des offres de solutions logicielles et de connectivité (facilitée par le cloud et la virtualisation). D’autre part, des offres de solutions de connectivité sans fil « sur mesure » devraient émerger en réponse aux besoins des verticaux. L’informatisation des réseaux pourrait générer de l’innovation avec beaucoup d’acteurs, aux atouts divers, sans évidence à ce stade sur les structures de marché qui pourraient en résulter.
A ces « trois tendances structurantes » qui pourraient nécessiter de faire évoluer la régulation des communications électroniques au-delà du périmètre historique de l’Arcep, le comité scientifique ajoute « les innovations qui seront permises par l’IA et les synergies qui pourraient exister avec les réseaux du futur seraient donc de nature à bouleverser assez radicalement le secteur de la connectivité ».
L’intelligence artificielle va en effet non seulement permettre aux personnels des opérateurs télécoms d’intégrer plus efficacement les gains à attendre de l’informatisation de leur réseau, mais aussi d’améliorer le fonctionnement des réseaux et l’optimisation de leur architecture, ainsi que de permettre l’essor plus rapide de nouveaux services, tout « en sollicitant beaucoup plus la connectivité pour accéder à différents types d’IA positionnées plus ou moins profondément dans les réseaux ou au-delà ». Cela suggère que la régulation des télécoms pourrait avoir un droit de regard et de contrôle sur cette informatisation des réseaux et les IA génératives associées.

Cœur du réseau dans le nuage
Si la mise « en nuage » des réseaux des opérateurs télécoms est encore progressive, la « virtualisation » de plusieurs fonctions telles que celles touchant au « cœur du réseau » comme cela se fait dans le déploiement de la 5G dite standalone (ou 5G autonome) – à savoir des infrastructures mobiles conçues de bout-en-bout pour la 5G et ne s’appuyant pas sur des réseaux 4G préexistants (3). Dans ce cas, le cœur du réseau mobile étant largement virtualisé, la tendance est à la mise en nuage et cette solution est privilégiée par de nouveaux entrants. « Les fonctions du cœur de réseau, qui assurent la gestion des réseaux d’accès fixes et mobiles, sont de plus en plus virtualisées et cloudifiées par les différents opérateurs [télécoms], notamment pour permettre le déploiement de la 5G standalone. Toutefois, […] le cloud public n’est pas encore considéré comme une solution pour porter le cœur de réseau national », constate le comité scientifique, dont fait partie Yves Gassot (photo ci-dessous), consultant indépendant et ancien directeur général de l’Idate (4).

Le backbone n’est pas virtualisable
Autre partie du réseau sujette à la dématérialisation du réseau : les fonctions supports, considérées comme « plus proches de l’informatique » et « faciles à faire évoluer vers le cloud ». C’est ce que les opérateurs télécoms appellent les OSS et BSS (« Operation Support System » et « Business Support System »), qui permettent notamment la supervision du réseau, la gestion et la facturation des clients. « Les fonctions supports constituent les premières briques qui ont été portées sur le cloud, que ce soit du cloud public ou du cloud privé. Ces fonctions, moins critiques pour le fonctionnement des réseaux, sont plus faciles à faire évoluer vers du cloud », souligne la note de synthèse. En revanche, le réseau d’accès mobile – appelé aussi réseau d’accès radio ou RAN (5) – est pour l’instant peu virtualisé (bien que les déploiements commencent en Europe, notamment chez Deutsche Telekom en Allemagne, ou Vodafone et Orange en Roumanie), et encore moins cloudifié (car cela suppose d’importants investissements et de l’hébergement à proximité des antennes).
Quant à la fonction backbone, qui assure le transport des flux de données à travers l’infrastructure déployée dans le pays et qui se compose d’équipements physiques pour l’essentiel, elle est très peu virtualisable et cloudifiable. A ceci près que la fonction backbone peut être configurée à l’aide d’un Software Defined Networks (SDN) pour les différents niveaux de qualité de service comme la priorisation de flux et les différentes manières d’opérer le réseau. Cependant, relève la note de synthèse, « les évolutions liées au SDN ne sont pas nécessairement de l’ordre de la virtualisation ou cloudification des équipements, qui, pour des raisons de performance, restent des équipements dédiés ». Dernier segment du réseau à échapper à la dématérialisation : le réseau d’accès fixe et les réseaux internes des entreprises (parties wifi et filaire). Là encore, les équipements d’accès restent des équipements dédiés et physiques, même si l’on peut aussi opérer un réseau étendu à l’aide d’un SDN – appelé dans ce cas SD-WAN (6). Sans parler de la « box » des fournisseurs d’accès à Internet (FAI) qui, dans les foyers, commence à prendre elle aussi le chemin de la dématérialisation (7). Reste qu’à l’avenir, l’« intelligence » des réseaux va progressivement être délocalisée par les opérateurs télécoms vers des locaux physiques hébergeant des serveurs informatiques capables de gérer – au plus près de leurs abonnés – les services de connectivité et les performances du réseau. Cette perspective au edge computing n’est pas encore répandue, mais cela commence à être mis en place « dans un premier temps à une échelle seulement régionale pour évoluer par la suite vers une granularité plus capillaire ». La clé de cette décentralisation des réseaux s’appelle notamment MEC, pour Multi-Access Edge Computing, un standard ouvert défini par l’ETSI (8) pour « unir les mondes des télécommunications et du cloud informatique » – voire réconcilier les opérateurs et les GAFAM qui se regardent en chiens de faïence.
Mais, comme le relève le comité scientifique « Réseaux du futur » de l’Arcep, les « telcos » sont « prudents », même si de grands opérateurs télécoms font partie d’associations internationales destinées à accélérer l’informatisation des réseaux telles que O-Ran Alliance (fondée en 2018 par AT&T, China Mobile, Deutsche Telekom, NTT Docomo et Orange) et Sylva (un projet open source de la Linux Foundation Europe auquel participent Telecom Italia, Telefonica, Deutsche Telekom, Vodafone ou encore Orange). « Quelques grands opérateurs bien établis comme AT&T aux EtatsUnis, Telus au Canada ou encore NTT Docomo au Japon, déploient déjà des solutions virtualisées et mises en nuage à grande échelle dans leur réseau commercial. A l’inverse, certains opérateurs nouveaux entrants (« greenfields ») comme Dish aux Etats-Unis, 1&1 en Allemagne ou Rakuten au Japon ont fait le choix de déployer directement un réseau entièrement virtualisé », est-il indiqué dans la note synthèse.

La « prudence » reste de mise
La « prudence » de la plupart des opérateurs télécoms déjà en place envers l’informatisation de leurs réseaux réside dans le fait qu’ils disposent d’une infrastructure matérielle préexistant qui ne peut être virtualisée et qui n’est pas obsolète. Surtout que la partie de leur « patrimoine » qui pourrait être dématérialisée représente une faible part de leur vaste infrastructure.
De plus, relève l’Arcep, « le retour sur investissement est encore incertain face à des coûts d’intégration aujourd’hui assez élevés, notamment en comparaison de solutions déjà intégrées et disponibles ». Sans parler de la maturité et de l’efficacité de ces solutions qui soulèvent des interrogations de la part de certains opérateurs télécoms, lesquels ne maîtrisent pas tous les nouveaux concepts de virtualisation et de cloudification. @

Charles de Laubier

 

Audience cross-média en vue : Médiamétrie veut une « communication claire et transparente »

Le 28 octobre, Marie Liutkus prend ses fonctions de directrice de la communication de Médiamétrie au moment où la mesure d’audience télé et vidéo devient un complexe Big Data. Un « comité crossmédia » – réunissant chaînes, plateformes et publicitaires – devrait se mettre en place début 2025.

Ça se complexifie pour l’institut de mesure d’audience Médiamétrie, qui fêtera ses 40 ans en 2025. C’est aussi l’an prochain que sera mis en place un « comité cross-média » pour tenter de trouver un consensus décisif entre les chaînes de télévision, les plateformes vidéo et les publicitaires qui y participeront. Il s’agira pour tous ces acteurs de se mettre d’accord autour d’outils de mesure d’audience télé (linéaire) et vidéo (délinéarisée), pour peu qu’il y ait convergence des méthodologies et définition commune du « contact », afin de pouvoir comparer des résultats acceptables et acceptés par tous.

Pub : faire converger télé et vidéo
D’ici là, Médiamétrie lancera dans quelques semaines la première mesure automatisée de la publicité télé linéaire et vidéo non linéaire sur les téléviseurs connectés. Près de 25 ans après avoir pris en compte la diffusion numérique et près de 40 ans après l’invention de l’Audimat, auquel a succédé Médiamat en 1989 (1), le système de mesure d’audience TV de Médiamétrie se « plateformise ». Le fameux Médiamat est en train d’intégrer la mesure de la publicité délinéarisée, celle qui apparaît en télévision de rattrapage (replay) ou en prévisualisation en ligne avant diffusion à l’antenne (preview). En plus des Smart TV (via Internet ou via les box), tous les écrans seront à terme concernés – à domicile ou en mobilité (2). C’est dans ce contexte que Marie Liutkus (photo de gauche) entre en fonction le 28 octobre en tant que directrice de la communication de Médiamétrie, dont elle intègre le comité exécutif.

Jusqu’alors directrice de la communication de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), elle est depuis ce lundi rattachée à Yannick Carriou (photo de droite), PDG de l’institut de mesure d’audience. « Notre rôle de tiers de confiance dans l’écosystème média nous impose d’avoir une communication claire et transparente, tant sur nos résultats d’études que sur l’évolution des mesures, avait-il dit en septembre lors de la nomination de la nouvelle recrue. Alors que les usages média évoluent de plus en plus rapidement et que nous adaptons nos dispositifs et nos offres en conséquence pour répondre aux besoins du marché, l’enjeu d’une communication pertinente, ciblée, pédagogique et efficace n’en est que plus essentiel » (3). La communication interne et externe sera d’autant plus cruciale que Médiamétrie entre plus que jamais dans l’ère du Big Data avec la nouvelle mesure de la publicité « cross-média ». L’institut de la rue Riva (à Levallois-Perret) mène depuis l’été dernier des expérimentations sur écran TV avec cinq régies publicitaires de chaînes de télévision, membres du Syndicat national de la publicité télévisée (SNPTV). Pour ce faire, il leur a fallu mettre un tatouage numérique (watermarking) sur toutes leurs publicités digitales. Objectif : aboutir à la standardisation de cette mesure publicitaire cross-média et, à terme, sur tous les écrans, que la publicité soit linéaire via la TNT ou en live streaming, d’une part, soit non linéaire en mode VOD, d’autre part. Après l’actuelle phase bêta menée avec cinq chaînes, cette mesure cross-média sera proposée à d’autres chaînes et plateformes avant la fin de cette année 2024.
Faire converger la mesure de la publicité linéaire et non linéaire répond à la demande des annonceurs d’avoir une vision unifiée de leurs campagnes publicitaires diffusées aussi bien à la télévision que sur Internet. Une campagne publicitaire dite cross-média mise sur la complémentarité entre les différents médias utilisés pour tenir compte de l’évolution rapide des usages des téléspectateurs et des internautes, lesquels sont souvent les mêmes. En harmonisant la mesure publicitaire du linéaire et du délinéarisé, le but est in fine de mieux monétiser le « contact », à savoir un individu ayant vu ou visionné une publicité télé ou vidéo. Autrement dit, il s’agit pour les régies publicitaires de capter et d’analyser chaque seconde d’attention envers les publicités télé et vidéo, sur tous les terminaux. Car comptabiliser un contact est le nerf de la guerre pour facturer la publicité. Encore faut-il que les acteurs de l’audiovisuel se mettent d’accord.

De la TV à la SVOD en passant par l’AVOD
La mesure du « contact TV » et celle du « contact VOD » diffèrent : la première compte l’exposition – pondérée par la durée – d’un individu à une publicité télé ; la seconde considère comme une « impression »une publicité vidéo visionnée plus de 2 secondes (4). Autre différence de taille : le contact télé est mesuré par individu, alors que l’impression vidéo peut concerner plusieurs personnes. Médiamétrie discute depuis plus de deux ans avec les plateformes de streaming vidéo pure players telles que Netflix, Amazon ou YouTube (5), le défi de son futur comité cross-média sera d’amener les acteurs de la SVOD (6) et de l’AVOD (7) à cette table de négociations pour arriver à des règles communes avec le monde de la télévision habitué à la pondération. @

Charles de Laubier