Eutelsat : nouveau FAI « concurrent » venu du ciel

En fait. Le 31 mai, Eutelsat et sa filiale Skylogic lancent – sur leur satellite européen multifaisceaux Ka-Sat – Tooway, un service d’accès haut débit proposé à des tarifs comparables à ceux des accès ADSL ou fibre optique. Débits offerts : jusqu’à
10 Mbits/s en réception et 4 Mbits/s en émission.

En clair. Selon nos informations, les distributeurs de Tooway en France sont SFR, Numeo, Sat2Way, Connexion Verte et Alsatis. L’abonnement haut débit par satellite débutera autour de 30 euros par mois pour 6 Mbits/s en réception et 1 Mbit/s en envoi, pour atteindre 100 euros par mois, selon les débits pouvant aller jusqu’à 10 Mbits/s en réception et 4 Mbits/s en émission (avec des niveaux de volumes de téléchargement autorisés). Une antenne parabolique et un modem suffisent pour qu’un ordinateur ait un accès haut débit, avec bouquets de télévision et téléphonie sur IP. Le marché français
de l’Internet haut débit s’enrichit ainsi d’un nouveau fournisseur d’accès à Internet (FAI) national – en fait d’envergure européenne – venu du ciel. Doté d’une capacité totale de
70 Gbits/s, le nouveau satellite Ka-Sat d’Eutelsat – mis sur orbite en décembre 2010 – entre en service le 31 mai. Présenté comme « le plus puissant au monde » (1) des satellites de télécommunications, Ka-Sat vise les particuliers, les PME et les collectivités locales sur l’ensemble du territoire. Grâce à ce satellite nouvelle génération, le service Tooway – déjà existant sur le satellite Hot Bird 6 d’Eutelsat seulement 3,6 Mbits/s en téléchargement – passe à 10 Mbits/s et peut connecter jusqu’à 750.000 foyers dans l’Hexagone. Les Orange, SFR, Bouygues Telecom,
Free ou encore Numericable doivent-ils pour autant craindre que ce triple play venu du ciel ne leur tombe sur la tête ? Autrement dit : Eutelsat devient-il un FAI concurrent ? Bien que le groupe satellitaire français s’en défende, en mettant en avant sa
« complémentarité » avec les FAI et les autres opérateurs télécoms sur les zones
« grises et blanches », la question se pose. D’autant qu’Eutelsat prépare d’ores et déjà le très haut débit avec son futur satellite baptisé Megasat. S’il voit le jour d’ici 2016 grâce au grand emprunt, Tooway passerait ainsi à 50 Mbits/s en téléchargement !
« Nous ne sommes pas concurrents mais complémentaires des FAI, et nous souhaitons même être distribué par les opérateurs télécoms eux-mêmes », a expliqué Yves Blanc, directeur des Affaires institutionnelles et internationales d’Eutelsat, à Edition Multimédi@. Comme en Allemagne (avec le distributeur Sat Internet), en Grande-Bretagne (avec Avonline) ou en Finlande (avec TeliaSonera), Tooway permet de desservir les zones rurales ou montagneuses, mais aussi périurbaines. Si les 400.000 foyers français non éligibles à l’ADSL (2) sont prioritaires, rien n’empêche les autres consommateurs de faire jouer la concurrence… @

4G et fibre : dix ans après le dégroupage ADSL, les concurrents encore vivants s’inquiètent

Free, Bouygues Telecom et SFR, les trois principaux concurrents France Télécom, rêvent de reproduire, avec le très haut débit, le succès qu’ils rencontrent depuis dix ans dans le haut débit grâce au dégroupage ADSL.
Leur avenir dépend à nouveau du gouvernement et du régulateur.

« On constate un succès de la régulation sur le marché du fixe en France. Cette régulation a commencé avec l’émergence du dégroupage il y presque dix ans, grâce
à des décisions courageuses du président Jean-Michel Hubert [ancien président de l’Arcep, à l’époque l’ART, ndlr] qui ont permis d’ouvrir réellement ce marché et de faire naître une concurrence réelle sur le haut débit et l’émergence d’innovations. Cela a permis l’émergence du triple play et d’offres marketing différentes fortes au bénéfice du consommateur », s’est félicité Xavier Niel, vice-président et directeur général délégué
à la stratégie d’Iliad-Free, lors du colloque de l’Arcep le 4 mai (1). Dix ans après la décision du dégroupage ADSL (2), le fondateur de Free en appelle aux pouvoirs publics : « Nous pensons qu’il faut faire de nouveau ce choix de la concurrence et de l’innovation dans les réseaux fixe et mobile pour la prochaine décennie au bénéfice des consommateurs ». C’est en effet fin mai que l’appel à candidature pour l’attribution des fréquences de quatrième génération de mobile (4G) sera lancé par le gouvernement, tandis que le régulateur met en place les règles du jeu pour le déploiement des réseaux
de fibre optique.

A propos du mobile 4G.
Le recours aux enchères pose problème à certains concurrents de l’opérateur historique. « Malheureusement, il semble que le gouvernement ait un projet qui vise à maximiser les recettes budgétaires à court terme. Et donne une prééminence au critère financier et organise la préemption du dividende numérique par un ou deux opérateurs. (…) Parallèlement, dans un marché où les offres quadruple play se développent, la restriction de concurrence sur le mobile peut en outre avoir des effets sur le marché
fixe », s’est inquiété Xavier Niel. Free Mobile, qui a été retenu en 2009 pour être le quatrième opérateur 3G, doit lancer son offre quadruple play à partir de janvier 2012. Même crainte chez Bouygues Télécom, exprimée par Martin Bouygues, sur le mécanisme d’attribution des licences 4G (bandes des 2.600 Mhz et des 800 Mhz) :
« Dire qu’il doit y avoir des enchères parce que la ressource est rare, cela n’a pas
de sens. D’abord parce que cela conduit nécessairement à faire gagner le plus riche [France Télécom, voire Vivendi/SFR, ndlr]. Pour les 2.600 Mhz, il demande à ce que tout candidat recevable ait au moins 15 Mhz, avec un maximum de 25 Mhz pour « le plus riche » (3). Pour les « fréquences en or » du dividende numérique en 800 Mhz,
il souhaite la « mutualisation de la bande » pour répondre aux besoins des territoires ruraux. Mais la mutualisation des réseaux 4G n’est pas du goût de Jean-Bernard Lévy, président de Vivendi : « Ces mutualisations forcées ne sont pas pertinentes car elles empêcheront les opérateurs de se différencier techniquement, ce qui sapera leurs efforts en matière d’innovation. C’est le nivellement par le bas ».

A propos de la fibre optique
Xavier Niel critique ouvertement la politique du très haut débit menée en France : « En France, contrairement aux autres pays européens, vous avez de multiples acteurs qui (…) déploient des réseaux de fibre optique les uns à côté des autres. C’est quelque chose qui doit représenter 500 millions d’euros gaspillés par an en France », déplore-t-il. Résultat : « Chacun des réseaux peut accueillir l’ensemble des besoins nécessaires à la fois aux consommateurs et aux opérateurs. On a jeté collectivement environ 500 millions d’euros par an à co-déployer des réseaux les uns à côté des autres ». Pour le dirigeant d’Iliad-Free, il faut des contraintes fortes sur les opérateurs dominants, sinon
« la mutualisation de la fibre optique en zones mois denses ne fonctionne pas ».
Martin Bouygues, qui ne veut pas investir immédiatement dans la fibre et s’appuie sur SFR (zones denses) et Numericable (4) (zones rurales), est sur la même longueur
d’onde : « On peut s’interroger sur la pertinence de construire plusieurs réseaux de fibre optique parallèles, alors qu’une seule et même fibre ne peut être saturée. (…) Bouygues Telecom propose le déploiement d’une infrastructure passive unique, en réservant la concurrence aux infrastructures actives qui seules déterminent les niveaux de qualité de service ». Et contrairement à France Télécom et à Vivendi-SFR, Xavier Niel ne veut pas que l’Arcep baisse la garde : « Il y a un fort lobbying des opérateurs historiques sur leur marché (…) pour une vacance réglementaire. Si l’on prend l’exemple du fixe, (…) on a le tarif du dégroupage qui n’a pas baissé depuis trois ans maintenant. Cela veut dire qu’il y a 1 milliard d’euros que l’on aurait pu rendre aux consommateurs, d’une manière ou d’une autre, soit au travers de l’investissement en déployant des réseaux de fibre optique, soit autrement ». @

Charles de Laubier

Le haut débit mobile concurrentiel pour tous est-il pour demain ?

Il y a dix ans, la France attribuait ses premières licences 3G. Après quatre procédures d’octroi, dont deux infructueuses et deux baisses des redevances,
les opérateurs mobiles ont ensuite eu du mal à respecter leurs obligations de couverture. La 4G devra faire mieux.

Par Katia Duhamel, avocat, cabinet Bird & Bird

Après les nouvelles applications permises par les smartphones et l’Internet mobile, les usages numériques
vont franchir un nouveau cap avec l’arrivée de la quatrième génération de téléphonie mobile (4G) basée sur le protocole
LTE (Long Term Evolution), qui se veut en effet beaucoup plus efficace que la 3G. La 4G devrait offrir des débits pouvant aller de 100 Mbits/s à 1Gbits/s pour télécharger et envoyer des données 50 à 500 fois plus rapidement qu’aujourd’hui et d’accéder à de nouveaux services utilisant du streaming pour visionner films et séries, directement depuis son téléphone portable.

Dividende et aménagement numériques
La 4G est aussi considérée par les parlementaires, qui ont voté la loi du 17 décembre 2009 de lutte contre la fracture numérique, comme le moyen de pallier l’absence du
très haut débit dans les zones les moins denses où les déploiements de réseaux de desserte en fibre optique (FTTH) s’avéreraient trop coûteux. Pour remplir toutes ces promesses rapidement, il reste cependant à faire en sorte que l’attribution des licences 4G et des fréquences assorties ne connaisse pas les mêmes aléas que les licences 3G.
« La France sera l’un des premiers pays en Europe à libérer son dividende numérique,
et l’un des premiers pays à l’attribuer à ses opérateurs », se félicitait Eric Besson,
ministre chargé de l’Industrie, de l’Energie et de l’Economie numérique, lors de ses vœux adressés à l’Agence nationale des fréquences (ANFR), le 10 janvier dernier.
Ce dividende numérique correspond à la bande de fréquences hertziennes 800 MHz, libérées progressivement au fur et à mesure du passage de la télévision analogique
à la télévision numérique. Celles-ci seront prochainement mises à dispositions des opérateurs télécoms, pour le déploiement de la 4G en France. Quant aux fréquences plus hautes situées dans le spectre à 2,6 GHz, elles seront principalement utilisées dans les zones urbaines, afin d’augmenter les capacités et performances des réseaux de téléphonie mobile 3G. L’attribution des fréquences dans la bande 800 MHz représente un enjeu particulier en matière d’aménagement numérique du territoire,
en raison de leurs propriétés physiques particulièrement adaptées à la réalisation d’une couverture étendue, y compris pour la substitution des technologies filaires comme le très haut débit sur la fibre optique.
C’est pourquoi, la loi du 17 décembre 2009 relative à la lutte contre la fracture numérique prévoit que les conditions d’attribution des autorisations d’utilisation des fréquences dans la bande 800 MHz doivent tenir « prioritairement compte des impératifs d’aménagement numérique du territoire » (1). Néanmoins, à côté des enjeux de politique publique que constituent l’aménagement numérique du territoire et la dynamisation de la concurrence, cette dernière étant jusqu’à présent jugée insuffisante dans le contexte oligopolistique du marché, l’Etat entend bien tirer un maximum de profit de la mise à disposition des fréquences allouées à la 4G et en particulier des fréquences 800 Mhz.

Procédure d’octroi des licences 4G
Aussi, l’appel à candidatures que devrait lancer l’Arcep avant la fin du 1er semestre 2011 donnera lieu à une procédure d’enchères qui présente à notre sens deux difficultés :
• A ce stade, l’Arcep a annoncé que la sélection des candidats à l’octroi de fréquences se ferait sur la base de plusieurs critères, qui pourraient être d’une part le prix proposé par les candidats pour l’obtention des fréquences et d’autre part le niveau d’engagement en matière d’accueil des opérateurs mobile virtuels ou MVNO (2). Si, comme ce fut le cas dans le cadre de l’attribution des fréquences résiduelles de la 3G, le prix proposé par le candidat devait être le critère prééminent, pondéré à la marge par les autres engagements du candidat, alors il y a fort à parier que les opérateurs ne seront pas incités à prendre des engagements au-delà des règles imposées en matière de déploiement dans les zone les moins denses (qualifiées de zone prioritaire dans la consultation de l’Arcep) et encore moins en matière d’ouverture au MVNO.

• Compte tenu de leur rareté, l’Arcep envisage d’allotir les fréquences 800 MHz en quatre blocs différents : soit de 2 blocs de 10 MHz et 2 blocs de 5 MHz, soit 1 bloc de
15 MHz et 3 blocs de 5 MHz. Cependant, il semblerait que 10 MHz au minimum soit nécessaire pour couvrir le territoire national et bénéficier des avantages de la technologie LTE. Pour pallier à cette insuffisance des blocs de 5 MHz, mais aussi pour minimiser le risque de voir un des acteurs du marché évincé par l’attribution à un même candidat de plusieurs blocs allotis, le régulateur prévoit deux types de mesure de correction : l’obligation de mutualisation des fréquences faite aux opérateurs détenteurs d’un bloc de 5 MHz sur la zone de déploiement prioritaire ; l’obligation d’itinérance faite au détenteurs de plus d’un bloc de fréquences. Ces mesures, pour fondées et légitimes qu’elles soient, seront certainement difficiles et longues à mettre en oeuvre et nécessiteront de mettre en oeuvre une régulation complexe, dont il est difficile aujourd’hui d’anticiper toutes les conséquences.

Pour un opérateur « mutualisateur »
Et si la solution issue du dogme de la concurrence par les infrastructures n’était pas la bonne. En l’espèce, donner sa chance à un autre modèle qui serait celui d’un opérateur
de gros, ayant vocation à mutualiser les fréquences 800 MHz dans des conditions transparentes, non discriminatoires et préétablies ne serait peut-être pas une mauvaise idée. Un tel modèle pourrait en effet donner plus de visibilité et de garanties au secteur et aux pouvoirs publics, à la fois en matière d’aménagement du territoire et de dynamisation de la concurrence. Et ce, là où la répartition des fréquences en quatre blocs de 10, 5, 5 et 10 MHz comporte le risque de voir deux tiers de ces précieuses fréquences préemptés sans aucune contrepartie d’ouverture et d’une couverture a minima des zones moins denses. Par ailleurs, le modèle de mutualisation ex ante
par un opérateur de gros permettrait une réduction non négligeable des coûts de déploiement et d’exploitation de la 4G, ainsi qu’une optimisation des sites radioélectriques y compris en termes d’impact environnemental. Les économies réalisées pourraient alors venir soutenir un programme de couverture de la 4G plus ambitieux.
Telle est du reste la solution qui émerge aux USA (voir encadré ci-dessous) et en Afrique également, par exemple au Kenya où la rareté des fréquences et des d’acheteurs potentiels a conduit le gouvernement à envisager de créer, pour déployer
la 4G, un réseau d’accès de gros ouvert et exploité par une société indépendante.
La France, qui est sur le point d’attribuer ses propres licences 4G, se doit d’être vigilante à ne pas rater l’objectif de dynamisation de la concurrence et d’aménagement numérique du territoire qu’elle s’est fixée, en laissant les acteurs les plus puissants dicter les règles du jeu et s’emparer de ces fréquences en or. Ce qui reviendrait à leur céder une ressource rare et précieuse du patrimoine français. @

ZOOM

L’exemple américain : l’obligation d’accès
Aux États-Unis, pays du libéralisme, disposant déjà de la technologie LTE, l’autorité
de régulation des télécoms, la Federal Communications Commission (FCC), a aussi choisi la voie de l’enchère publique pour l’attribution des fréquences 700 MHz de son dividende numérique. Cependant, elle a pris des mesures spécifiques afin de contraindre les opérateurs puissants à dynamiser le jeu de la concurrence. Les
« golden frequencies » américaines ont été divisées en cinq blocs de fréquences, qui ont été mises aux enchères le 28 janvier 2008 lors de « l’Auction 73 ». La répartition
a été la suivante suivante : bloc A (12 MHz), bloc B (12 MHz), bloc C (22 MHz), bloc D (10 MHz), bloc E (6 MHz).
Le bloc C, de loin le plus intéressant, a toutefois été assorti d’une obligation d’open access aux autres opérateurs afin de permettre aux acteurs du marché moins puissants sur le marché d’accéder à ces fréquences et d’optimiser ainsi cette ressource rare au profit du consommateur final. Après une bataille juridique rude et acharnée contre la FCC, Verizon Wireless, géant américain des télécoms et grand vainqueur de l’enchère du bloc C, a ainsi été contraint de se plier à ses obligations d’ouverture permettant au consommateurs américains, de profiter pleinement des avantages de la 4G, quel que soit leur opérateur de téléphonie mobile. @

Projet de loi de Finances 2011 : les e-taxes

En fait. C’est le 7 décembre que se terminent les débats au Sénat sur le projet
de loi de Finances pour 2011, lequel avait été adopté par l’Assemblée nationale
le 17 novembre dernier. En attendant, la commission mixte paritaire du 13 décembre, Edition Multimédi@ fait le point sur les mesures « numériques ».

En clair. L’économie numérique et les nouveaux médias contribuent plus que jamais
aux recettes de l’Etat français, qui en a bien besoin… La plus emblématique des taxes instaurées par le gouvernement et les parlementaires français restera la taxe dite
« Google », qui a été adoptée par le Sénat le 23 novembre et qui sera applicable à
partir du 1er janvier 2011. Elle s’appliquera à partir du 1er janvier 2011 sur les recettes publicitaires réalisées en France par Google, Yahoo, Dailymotion et tout autres
services web. Elle devrait rapporter à l’Etat jusqu’à 20 millions d’euros. « La taxation
des annonceurs est la seule solution, compte tenu de la localisation hors de France
des principaux vendeurs d’espaces publicitaires en ligne, tels que Google », explique Philippe Marini (1).
Le Web rejoint ainsi la télévision et la presse gratuite, dont les recettes publicitaires sont déjà taxées et rapportent respectivement 70 et 30 millions d’euros par an à l’Etat. En revanche, son amendement pour une taxe de 0,5 % sur le commerce électronique
a été abandonné. Sur le triple play (ou le quatruple play), l’Assemblée nationale avait relevé en octobre la TVA de 5,5 % à 19,6 % sur la moitié du tarif d’abonnement haut débit qui bénéficiait du taux réduit pour distribution de service de télévision. Pour les opérateurs télécoms, cela remettait en cause leur contribution au Compte de soutien
à l’industrie de programmes (Cosip). Mais pour ne pas déstabiliser le financement des films français (2), le gouvernement a finalement donné des gages aux fournisseurs d’accès à Internet (FAI) en leur accordant un « abattement de 50 % » sur les recettes fiscales prélevées sur le triple play avec télévision. Ce qui revient à « neutraliser les effets collatéraux de la suppression du taux réduit forfaitaire de TVA » sur les offres triple play. Les FAI n’auront donc pas un « effort fiscal supplémentaire » à faire. En échange de quoi, la taxe Cosip n’est pas remise en cause et, pour prendre en compte la partie télé du triple play, les FAI bénéficient d’une déduction de 55 % sur les recettes des abonnements triple play.
Dans un tout autre domaine, le Sénat a adopté le 22 novembre pour le livre numérique le même taux de TVA réduit que pour le livre papier – à savoir 5,5 %. Quant au projet de prix unique du livre numérique, adopté au Sénat fin octobre, il doit encore être approuvé par l’Assemblée nationale. @

La fusion Comcast-NBC Universal pose la question des rapports « tuyaux/contenus »

L’intégration verticale entre le câblo-opérateur Comcast et le groupe audiovisuel NBC Universal, qui attend l’aval des autorités américaines, soulève des questions sur l’avenir de la télévision délinéarisée et sur le respect de la neutralité de l’Internet.

Par Winston Maxwell (photo), à Paris, et Daniel Brenner, à Washington DC, avocats associés de Hogan & Hartson

Au cours des dernières semaines, le Congrès a organisé des audiences pour examiner l’avenir de la télévision aux Etats- Unis, notamment en tenant compte de la fusion annoncée en décembre dernier du premier câblo-opérateur américain Comcast avec le fournisseur de programmes NBC Universal (1). Ces audiences ont mis en lumière l’ensemble des problématiques de la distribution de programmes audiovisuels face aux défis de l’Internet et de la concurrence naissante de l’IPTV (2), c’est-à-dire de toute forme de distribution télévisée sur Internet (en direct sur le Web, en vidéo à la demande ou encore en catch up TV).

Intégration verticale « tuyau/contenus »
On retrouve une grande partie de ces questions dans les récentes réflexions françaises sur le sujet, et notamment dans le rapport de Marie-Dominique Hagelsteen remis en janvier (lire EM@5 p. 3, et EM@7 p. 8). D’abord, quelle est la structure de cette fusion? Comcast, le premier câblo-opérateur et fournisseur d’accès haut débit aux Etats-Unis, propose d’acquérir 51 % des actifs du groupe de télévision et de média américain NBC Universal (NBCU) auprès de son actuel propriétaire, la société GE (General Electric). Comcast apportera à la nouvelle société commune l’ensemble de ses propres actifs en matière de production et de fourniture de programmes audiovisuels, et notamment ses chaînes de sport et l’ensemble de ses activités en matière de médias numériques. Après la fusion, Comcast contrôlera un riche portefeuille de programmes, de films et d’importants moyens de production, notamment l’emblématique Universal Studios. Cette fusion fait immédiatement penser à celle d’AOL avec TimeWarner en 2001,
qui est généralement considérée comme un échec. En effet, AOL TimeWarner a récemment séparé son activité réseaux câblés du reste du groupe. Cela signifiait pour beaucoup d’observateurs que l’intégration verticale en matière de distribution de programmes audiovisuels n’était pas forcément la bonne stratégie (lire EM@2 p. 5). Cependant, Comcast choisit exactement ce modèle. Soit le câblo-opérateur américain croit toujours à la stratégie de l’intégration verticale entre le contenu et les contenants selon le modèle AOL TimeWarner, soit l’objectif de Comcast est différent. Il peut s’agir par exemple de s’assurer d’une maîtrise de contenus lors des grands bouleversements qui vont affecter le marché de la télévision, bouleversements qui ne manqueront pas
de remettre en question le modèle économique des réseaux câblés tels qu’ils existent aujourd’hui. Il s’agirait dans ce cas moins de créer un environnement verticalement intégré entre le réseau câblé et les contenus que de garantir à la société Comcast d’avoir un rôle dans les futurs modèles économiques de distribution de contenus, où
le « tuyau » haut débit deviendra secondaire et facilement remplaçable. Quelle que soit
la stratégie poursuivie par Comcast, la future fusion soulève des protestations des associations de consommateurs, des câblo-opérateurs indépendants et des fournisseurs de programmes, ainsi que, notamment, des sociétés de production indépendantes. Ces dernières craignent que le marché américain de la télévision soit de plus en plus concentré entre les mains de quelques grands groupes et qu’il reste de moins en moins de place à la diversité et à la production indépendante.

Production indépendante en péril ?
La France, elle, dispose encore de règles qui garantissent la viabilité de la production indépendante. Les chaînes de télévision françaises diffusées en clair doivent consacrer environ 10 % de leur chiffre d’affaires à l’achat de films et de programmes audiovisuels produits par des producteurs indépendants. Les Etats-Unis avaient des règles similaires, appelées les règles Fin- Syn, qui interdisaient aux studios américains de contrôler des chaînes de télévision. Les règles Fin-Syn ont été abolies dans les années 90, ce qui a donné lieu à une vague de concentrations verticales dans les médias américains : la fusion entre NBC et Universal, celle entre Disney et ABC par exemple. Les Etats-Unis avaient également des règles limitant la concentration des médias sur
le plan local, similaires aux règles existant en France. Ces règles interdisaient par exemple à une même société de contrôler à la fois un réseau câblé et une chaîne de diffusion terrestre dans les mêmes zones géographiques. Ces règles aussi ont fait l’objet d’un assouplissement, rendant possible pour Comcast – à l’issue de cette
fusion – de contrôler des chaînes terrestres de NBCU dans la même zone que ses réseaux câblés (3).

Règle de « must offer » en question
Un autre corps de règles, que l’on appelle aux Etats-Unis les Program Access Rules, sont au coeur de la polémique autour de la fusion entre Comcast et NBC Universal.
Ces règles d’accès aux programmes obligent un acteur verticalement intégré à offrir
des programmes à des plateformes de distribution indépendantes sur une base non-discriminatoire. Cela revient à interdire à une chaîne qui est contrôlée par un câblo-opérateur de donner l’exclusivité à ce seul câblo-opérateur. Comcast et le câblo-opérateur Cablevision ont contesté la légalité de ces règles fixées par la FCC (4), le régulateur fédéral américain des télécoms et de l’audiovisuel, parce que selon eux,
ces règles ne sont plus nécessaires compte tenu de l’énorme diversité de programmes actuellement sur le marché et que ces restrictions constituaient une limitation de la liberté d’expression des opérateurs économiques en cause. Un tribunal fédéral vient de décider (5) que ces règles restent d’actualité, et que la FCC a suffisamment justifié l’imposition de ces règles dans le contexte actuel. Mais de toute façon, les règles de Program Access édictées par la FCC expirent en 2012. Pour désamorcer les critiques
à l’égard de la fusion, Comcast s’est engagée à respecter ces règles à l’avenir – même si elles venaient à expiration. Pour les critiques de la fusion, cet engagement n’est guère suffisant. Pour le représentant de l’Independant Film & Television Alliance (IFTA), il faudrait créer des obligations d’achat de programmes indépendants, sans doute similaires à celles qui existent en France. L’IFTA se plaint de la diminution permanente du pourcentage de productions indépendantes diffusées aux Etats-Unis. Selon cette association de producteurs et distributeurs indépendants de films et de programmes
de télévision, représentant 160 membres dans 22 pays dans le monde, y compris en France (6), le pourcentage de séries indépendantes diffusées est passé de 50 % en 1989 à 5% en 2008.
NBC Universal et Comcast poursuivent actuellement des stratégies différentes en matière de télévision sur Internet. NBCU est l’un des partenaires de la plateforme Hulu (lire EM@5 p. 3), plateforme gratuite de télévision sur Internet financée par la publicité, qui permet aux internautes de regarder sur leur ordinateur les émissions de télévision des « Networks » américains (ABC, CBS, NBC, Fox). Comcast poursuit en revanche un modèle semi payant. Il s’agit de la plateforme Xfinity qui permet à un abonné Comcast de voir ses programmes où qu’il soit, dès lors qu’il a accès à un réseau haut débit. Les associations de consommateurs dénoncent ce modèle comme une tentative d’exporter sur l’Internet le modèle payant du câble. Last but not the least : la question du respect de la Net Neutrality par le nouvel ensemble Comcast/NBCU. La fusion entre Comcast NBC Universal (NBCU) doit être approuvée à la fois par le Département de la Justice américaine (DoJ) et par la FCC. Ces autorisations donnent une occasion en or aux autorités américaines d’imposer des conditions au câblo-opérateur Comcast, comme l’obligation de respecter la Net Neutrality. Lors de la fusion AOL TimeWarner en 2001, les autorités américaines avaient imposé des conditions qui se sont révélées complètement inutiles – car dépassées par la technologie (7). Lors de la fusion entre AT&T et SBC en 2005, la FCC avait imposé des obligations de neutralité de l’Internet pour une période limitée. Ces obligations se sont cantonnées au respect des quatre principes de la liberté sur l’Internet énoncés par le régulateur fédéral américain des communications en août 2005. Comcast est considéré comme le mauvais élève américain en matière de Net Neutrality : c’est lui qui a été épinglé en 2007 par le FCC en raison de son blocage des protocoles BitTorrent. Comcast a fait appel de cette décision de la FCC et la décision d’appel sera rendue en 2010. La plupart des observateurs prédisent que le tribunal américain va annuler la décision de la FCC,
en estimant que cette dernière a outrepassé ses compétences.

TV sur le Net et neutralité
Avec l’élection de Barack Obama en novembre 2008, la Net Neutrality a trouvé une deuxième jeunesse au sein de la FCC : le régulateur fédéral poursuit actuellement une procédure afin de créer six règles de Net Neutrality qui s’imposeraient à tout opérateur
de communications électroniques qui fournit un accès haut débit à l’Internet (8). En termes de nombre d’abonnés, Comcast est le premier fournisseur d’accès haut débit
à l’Internet aux Etats-Unis. Il serait donc logique que la FCC essaie d’imposer ses nouvelles règles à Comcast dans le cadre de la fusion. Certains professeurs de droit ont témoignés devant le Congrès américain pour dire que ce serait une mauvaise idée d’imposer ces conditions de Net Neutrality à Comcast dans le cadre de la fusion avec NBCU, alors que la FCC conduit une consultation publique sur le bien-fondé de ces règles. Imposer des règles sur une base individuelle dans le contexte de cette fusion serait finalement un moyen de contourner le débat public. @