Les Etats-Unis vont réhabiliter la Net Neutrality

En fait. Le 19 octobre, aux Etats-Unis, la Federal Communications Commission (FCC) a lancé une consultation sur son projet de réglementation pour non seulement désigner le haut débit fixe et mobile comme « service essentiel », mais aussi surtout rétablir la neutralité d’Internet abolie par Trump en 2017

En clair. Si le projet de règlement « Protections de l’Internet ouvert », que le régulateur fédéral américain des communications (FCC) a soumis à consultation publique jusqu’au 14 décembre (1), devait être définitivement adopté en 2024, ce serait une victoire pour Joe Biden, 46e président des Etats-Unis, sur son prédécesseur Donald Trump. Sous le mandat du 45e président américain (janvier 2017-janvier 2021), la FCC avait adopté le 14 décembre 2017 une décision historique mettant un terme à la « Net Neutrality » (2) par l’abrogation de l’« Open Internet Order » du 13 mars 2015 adopté par son prédécesseur Barack Obama (3).
Ce dernier, 44e président des Etats-Unis avait pris position, le 10 novembre 2014 (il y a près de dix ans), en faveur d’une « stricte »neutralité du Net. Elle se résumait en trois « no » : « No blocking, no throttling, no paid prioritization », comprenez « aucun blocage, aucun goulot d’étranglement, aucune priorisation payante » (4). Depuis le début de son mandat, Joe Biden voulait rétablir la neutralité d’Internet, mais le vote Démocrate au sein de la FCC n’était pas majoritaire. Jusqu’à ce que le 46e locataire de la Maison-Blanche nomme en mai Anna Gomez, donnant à la FCC une majorité démocrate. Pour la présidente de la FCC, la Démocrate Jessica Rosenworcel, la voie est libre : « Cette décision [de 2017] a placé la commission du mauvais côté de l’histoire, du mauvais côté de la loi et du mauvais côté du public américain. N’oubliez pas que 80 % des gens sont en faveur de la neutralité du Net. Aujourd’hui, nous proposons de rétablir des règles applicables et claires pour empêcher le blocage, la limitation et la priorisation payante ». Une fois promulgué, ce règlement redonnera toute compétence à la FCC au niveau national pour contrôler le respect de la Net Neutrality. Et ce, conformément au Titre II du Communications Act de 1934 amendé par le Telecommunications Act de 1996.
Ce même projet de règlement « Protections de l’Internet ouvert » vise en outre à reconnaître le haut débit fixe et mobile comme « service essentiel » et obliger les fournisseurs d’accès à Internet à résoudre rapidement les pannes de réseau, tout en assurant la cybersécurité des internautes et la protection de leur vie privée. Seulement une douzaine d’Etats des Etats-Unis avaient inscrit des règles de neutralité du Net dans leur législation locale. Un vrai patchwork. @

Les universitaires du Stigler Center signent un rapport accablant sur les plateformes numériques

Google, Facebook, Amazon, Apple, Microsoft, … Les plateformes digitales sont passées au crible par des universitaires du centre Stigler. Conclusion : les GAFA sont devenus tellement incontournables qu’il faut ouvrir leurs infrastructures et données aux nouveaux entrants. Réguler s’impose.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

Réunis au sein du prestigieux Stigler Center de l’université de Chicago, une trentaine d’universitaires (1) dénoncent la puissance des grandes plateformes numériques. Leur rapport intitulé « Stigler Committee on Digital Platforms » (2) compare les GAFA aux lobbies du passé (tabac, pétrole, finance, télécoms), et plaide pour une régulation, notamment pour éviter les effets d’addiction. On ne s’attendait pas à des accusations aussi virulentes venant de l’université de Chicago Business School, réputée pour ses positions anti-régulation.

Digital Platforms et « kill zones »
Le rapport « Stigler » met en exergue la difficulté pour un nouvel entrant de pénétrer un quelconque marché numérique qui concernerait l’une des grandes plateformes déjà en place. D’une part, les plateformes sont souvent des intermédiaires indispensables pour permettre à un nouvel entrant d’accéder au public, via les magasins d’application et les systèmes d’exploitation mobile. Or, cette position privilégiée permet aux plateformes numériques d’observer la progression du nouvel entrant et d’ajuster leur stratégie en conséquence (3). D’autre part, les plateformes ont tendance à racheter tout nouvel entrant qui présenterait un risque potentiel. Le rapport évoque une baisse d’investissement en capital-risque pour toute activité touchant aux domaines des « Digital Platforms » (l’acronyme GAFA n’est jamais utilisé par les auteurs). Les fonds de capital-risque considèrent ces activités hors limites (« kill zones »), où le taux de mortalité des nouveaux entrants est trop élevé pour investir. Pour remédier à ces problèmes, le rapport « Stigler » préconise un régime d’interopérabilité et d’interconnexion similaire à ce qui existe en télécommunications, et plus récemment en services de paiement, via la directive européenne « DSP2 ». Ainsi, un nouvel entrant pourrait s’appuyer en partie sur les infrastructures et données des plateformes pour proposer un nouveau service, sans que les plateformes puissent objecter, ni appliquer des redevances excessives. Sans aller jusqu’au démantèlement des GAFA, le rapport propose la création d’une autorité de régulation numérique spécialisée, à l’image de la FCC (le régulateur fédéral américain des télécoms), qui pourrait imposer des remèdes spécifiques en cas de refus d’interopérabilité. Pour empêcher les plateformes de racheter tout concurrent potentiel, les experts du Stigler Center préconisent un régime d’autorisation quasi systématique pour les opérations de concentration menées par les grandes plateformes. Actuellement, beaucoup d’opérations de fusion-acquisition tombent en dessous des seuils de notification. Les experts proposent d’abaisser ces seuils, afin que la quasi-totalité des opérations de fusions et acquisitions de grandes plateformes soient examinées.
Le rapport souligne que les services gratuits ne sont jamais gratuits, mais sont plutôt rémunérés en nature par les données fournies par les utilisateurs. Les plateformes se rémunèrent par ailleurs sur l’autre côté de leur marché biface, en appliquant des tarifs élevés d’intermédiation en matière de publicité (4). Selon le rapport, les autorités de concurrence doivent tenir compte de la qualité du service comme un élément du prix : une baisse dans la qualité du service – par exemple des conditions générales déséquilibrées, ou une faible protection des données personnelles – équivaut à une augmentation du prix pour l’utilisateur, signe d’un pouvoir sur le marché. Pour souligner la grande valeur des données générées par les utilisateurs, le rapport « Stigler » cite l’exemple de moteurs de recherche concurrents à Google qui proposent une forme de compensation aux internautes en échange de l’utilisation de leurs données, par exemple la plantation d’arbres pour lutter contre la déforestation (Ecosia) ou un programme de points de fidélité (Bing). Malgré ces incitations, la position de Google sur le marché des moteurs de recherche semble inébranlable.

Monopoles naturels et risque d’addiction
Le rapport n’exclut pas que certaines activités – par exemple, l’activité de moteur de recherche – puissent constituer des monopoles naturels, à savoir des activités pour lesquelles il serait normal et efficace de n’avoir qu’un seul opérateur. Mais dans ce cas, la régulation s’impose. Le rapport évoque l’idée d’imposer des obligations renforcées de loyauté et de transparence (fiduciary duty). Selon les sages du centre Stigler, un autre danger vient de la manipulation des usagers et de l’addiction : « Ajouter un phénomène d’addiction à une situation monopole et vous avez probablement la pire combinaison imaginable », selon eux (5). Ils demandent à ce que les phénomènes d’addiction soient étudiés à part entière, et que les plateformes ouvrent leurs données afin de faciliter ces recherches. Le rapport montre en outre que le journalisme est une victime collatérale des GAFA. La baisse de recettes publicitaires conduit à la quasi-disparition de la presse locale et régionale aux Etats-Unis. Les auteurs du rapport soulignent que la disparition de la presse locale n’est pas critiquable en soit, car de nombreuses industries disparaissent à cause de bouleversements technologiques – la « destruction créatrice » est un phénomène normal, notent les sages.

Presse : menaces sur le journalisme
Le problème réside plutôt dans l’absence d’alternatifs pour remplir le vide laissé par la presse locale, une presse qui contribue à la transparence de la politique locale et encourage l’engagement politique des citoyens. Or, les grandes plateformes ont peu d’incitations à promouvoir un journalisme d’investigation au niveau local, ni même à limiter la désinformation sur leurs réseaux. Les incitations vont plutôt dans le sens opposé, les algorithmes cherchant à maximiser l’engagement individuel de l’utilisateurs, une maximisation qui passe par la recommandation de contenus correspondant à la « bulle d’information » de l’utilisateur, et à la proposition de contenus accrocheurs voire choquants. L’absence de responsabilité des plateformes (6) crée une distorsion par rapport à la presse traditionnelle, selon les experts du Stigler Center. Ils proposent d’abolir cette protection lorsque les plateformes poussent des contenus vers l’utilisateur et bénéficient de recettes publicitaires. En ce qui concerne la protection du journalisme local, le groupe d’experts préconise l’expérimentation de différentes approches réglementaires au niveau local (7).
En matière de protection des données à caractère personnel cette fois, les auteurs du rapport « Stigler » constatent la futilité de s’appuyer sur un régime de consentement libre et éclairé. Les plateformes comprennent les faiblesses humaines et les biais en tout genre. L’une des propositions du rapport est d’imposer aux plateformes des paramètres par défaut qui correspondraient à ce que souhaiterait une majorité des utilisateurs. Un régulateur ou autre organisme indépendant conduirait des études scientifiques pour déterminer ce que souhaite la majorité des utilisateurs , et les entreprises seraient tenues d’appliquer ces préférences par défaut. Ces préconisations rejoignent l’approche européenne, à ceci près que le niveau minimum de protection serait fixé en fonction des attentes de la majorité des internautes, mesurées par des chercheurs indépendants. Le rapport souligne l’impact très positif des plateformes sur la liberté d’expression. Mais, en même temps, il s’inquiète du pouvoir sans précédent des plateformes sur le plan politique. Ses auteurs estiment que les sociétés Google et Facebook cumulent le pouvoir politique réuni d’ExxonMobil, du New York Times, de JPMorgan Chase, de la NRA (National Rifle Association) et de Boeing. De plus, cette puissance se concentre entre les mains de seulement trois individus, Mark Zuckerberg, Sergey Brin et Larry Page : « Trois personnes disposent d’un contrôle absolu sur les flux d’informations personnalisées et obscures de milliards d’individus » (8) s’inquiètent les sages. Le rapport préconise des obligations de transparence accrues, notamment sur les financements des campagnes politiques, ainsi que par rapport à toute pratique « non-neutre » à l’égard des messages politiques. Cette étude du Stigler Center est riche, bien étayée, mais surprenante par son agressivité à l’égard les GAFA, une agressivité que l’on trouve plus habituellement dans la bouche de personnages politiques, tels que la candidate démocrate à la présidence Elizabeth Warren. Surtout, les auteurs du rapport semblent oublier qu’il y a seulement quelques années, le monde académique était très divisé sur le pouvoir des GAFA et le rôle de la régulation. Une partie importante des universitaires restait prudente sur l’idée de réguler les plateformes numériques, estimant que la régulation était un outil trop rigide pour un marché en forte évolution technologique, et que le meilleur remède contre le pouvoir des plateformes était l’innovation technologique (9). Il est regrettable que le nouveau rapport n’ait pas examiné ces arguments, ne serait-ce que pour expliquer pourquoi les circonstances ont changé. @

* Winston Maxwell, ancien avocat associé du cabinet Hogan
Lovells, est depuis juin 2019 directeur d’études, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.

FOCUS

Neutralité de l’Internet : champ libre à la Californie pour légiférer
Peu après l’élection de Donald Trump, la FCC a annulé la plupart des dispositions qu’elle avait prises en matière de neutralité de l’Internet pour revenir à une position plus libérale. Ce revirement du régulateur fédéral américain des télécoms a été attaqué en justice par les défendeurs de la neutralité, dont la fondation Mozilla. Dans sa décision du 1er octobre 2019 (10), la cour d’appel a conclu que la FCC était en droit de changer sa position, puisque le texte de la loi fédérale sur les télécommunications est ambigu sur la régulation de l’Internet, et la FCC a de nouveaux arguments crédibles pour fonder son changement de position. Saluée par Donald Trump comme une victoire, la décision de la cour d’appel est en réalité un cadeau empoisonné pour la FCC, car la cour laisse le champ libre aux Etats fédérés pour adopter leurs propres lois sur la neutralité. Selon la cour, la FCC ne peut pas à la fois dire que l’Internet ne tombe pas dans son domaine de régulation, et en même temps empêcher les Etats américains de légiférer. Du coup, la Californie, qui a adopté un texte sur la neutralité du Net en 2018, se retrouve confortée dans sa législation. Comme en matière de protection des données à caractère personnel, la loi californienne deviendra peut-être la nouvelle norme nationale, à moins que la décision de la cour d’appel du 1er octobre ne soit annulée par la Cour suprême des Etats-Unis. @

Pourquoi la FCC prépare l’abrogation de son règlement sur la neutralité de l’Internet

L’administration Trump tente de détricoter l’« Open Internet Order » adopté en 2015 par l’administration Obama, car elle y voit « une menace de sur-régulation de l’Internet ». La consultation publique « Restoring Internet Freedom » qu’a menée la FCC s’est achevée le 30 août.

Par Winston Maxwell, avocat associé, Hogan Lovells

L’autorité américaine de régulation des communications électroniques, la FCC (1), a publié en mai dernier un projet de règlement (2) par laquelle elle abrogerait les règles américaines en matière de neutralité de l’Internet. Cette initiative n’est pas une surprise car depuis l’élection de Donald Trump à la Maison-Blanche, la FCC est présidée par un membre du parti Républicain, Ajit Pai, qui s’est publiquement opposé aux règles adoptées par la FCC
en 2015 sous l’administration Obama (3).

Les pouvoirs de la FCC en question
Les questions relatives à la neutralité de l’Internet sont politisées aux Etats-Unis,
le parti Républicain défendant une approche légère de régulation et le parti Démocrate soutenant une approche plus engagée. Adopté en 2015, le règlement américain sur
la neutralité de l’Internet – « Open Internet Order » (4) (*) (**) – s’inscrit dans un contexte juridique complexe, le débat se concentrant autant sur la forme que le fond. Car la plupart des républicains se disent favorables à un Internet ouvert. Le désaccord s’articule autour du rôle de la régulation. Une régulation contraignante est-elle nécessaire compte tenu du faible nombre d’incidents constatés ? Ensuite, même si une régulation contraignante s’avère nécessaire, est-ce que la FCC a le pouvoir de réguler en l’absence d’un texte législatif clair ? Examinons d’abord la question des pouvoirs
de la FCC avant celle, plus intéressante, de l’utilité d’une régulation contraignante en matière de neutralité de l’Internet.
La loi américaine sur les télécommunications, le Telecommunications Act qui date
de 1996, ne dit mot sur la neutralité de l’Internet. En tant qu’autorité administrative indépendante, la FCC devait faire preuve de créativité pour trouver une base législative à son action. En 2005, sous l’administration Bush, la FCC s’est limitée à une déclaration non-contraignante sur les principes d’un Internet ouvert (5). Sous l’administration Obama, la FCC a tenté d’adopter un règlement contraignant mais
ses premières tentatives ont été annulées par les tribunaux fédéraux en 2010 et 2014 (6) (*) (**). Dans sa tentative de 2015, la FCC a changé d’approche juridique en déclarant que les services d’accès à l’Internet étaient des services de communication électronique
« régulables » au titre du chapitre 2 de la loi de 1996, et non des services d’information régulables au titre du chapitre 1 de la loi. En déclarant les services d’accès à Internet un service de communications électroniques, la FCC pouvait facilement imposer des obligations de non-discrimination aux FAI. Sauf que, la FCC avait toujours soutenu que les services d’accès à Internet ne devaient pas être considérés comme des services de communications électroniques, afin de préserver un espace libre et non-régulé, propice à l’innovation. La décision de 2015 constituait donc une rupture avec la position historique de la FCC.
Pour Ajit Pai et la plupart des autres républicains, ce changement constituait une menace de sur-régulation de l’Internet et devait impérativement être combattu. Autre point des républicains : la régulation de la neutralité de l’Internet devrait passer par
une loi. La FCC ne devrait pas s’arroger des pouvoirs que le législateur ne lui a pas expressément donnés. Ces questions de droit interne prennent une place importante dans le débat outre-Atlantique. Mais au delà de la question des pouvoirs de la FCC,
il y a aussi celle de l’utilité d’une régulation contraignante en matière de neutralité de l’Internet.

Utilité d’une régulation contraignante
En dehors des Etats-Unis, la question de l’utilité de la régulation est plus intéressante. Par utilité, j’entends « l’utilité sociale d’une régulation contraignante sur la neutralité de l’Internet ». L’utilité sociale est généralement mesurée par une comparaison des coûts et des bénéfices directs et indirects pour la collectivité découlant de la régulation. Le nouveau président de la FCC estime que la régulation de 2015 sur la neutralité de l’Internet n’apporte pas un bénéfice net positif à la société et devrait pour cette raison être abrogée. Il propose de conduire une analyse coûts-bénéfices pour étayer sa thèse (voir encadré page suivante). La consultation publique de la FCC – arrivée à échéance le 30 août dernier après avoir été prolongée de quelques semaines à la demande de nombreuses organisations pro-Net Neutrality (7) – souligne qu’il y a eu peu de litiges concernant la neutralité de l’Internet. Ce qui est un signe, selon la FCC, que les forces du marché fonctionnent correctement, et qu’il n’existe pas de défaillance de marché nécessitant l’intervention du régulateur. Le comportement des opérateurs télécoms aurait été le même avec ou sans régulation contraignante. Résultat : la régulation n’aurait dégagé, selon la FCC, aucun bénéfice pour la collectivité.
En revanche, la FCC estime que la régulation crée des coûts pour la société, notamment une baisse des investissements par les opérateurs télécoms. La FCC cite une baisse d’environ 5,6 %, mais le lien de causalité entre cette baisse et la régulation de 2015 n’est pas étayée dans la consultation publique.

« Aucun bénéfice et coûts importants » (FCC)
La FCC annonce également que la régulation freine le développement d’offres commerciales innovantes s’appuyant notamment sur des partenariats commerciaux entre les fournisseurs de contenus et les fournisseurs d’accès à Internet (FAI). Toujours selon le régulateur fédéral des communications électroniques, le public pourrait bénéficier d’offres innovantes prenant appui sur le caractère biface du marché. Même
si certains partenariats commerciaux pourraient conduire à des pratiques anticoncurrentielles, la FCC estime que le droit de la concurrence et la législation sur la protection des consommateurs suffiraient pour traiter ces abus. En conclusion, la FCC estime que la régulation de 2015 apporte quasiment aucun bénéfice à la société, et engendre des coûts importants. On peut légitimement se demander pourquoi il n’y a pas eu plus de litiges concernant la neutralité de l’Internet, que ce soit aux Etats-Unis ou en Europe. Est-ce parce que le règlement européen et le règlement américain de 2015 ont dissuadé les opérateurs télécoms et FAI, ou est-ce parce que les forces du marché combinées avec le droit de la concurrence auraient de toute façon suffi pour maintenir les opérateurs sur le droit chemin ? En d’autres termes, est-ce que le règlement – américain ou européen – a changé quelque chose ? Si l’on regarde la neutralité de l’Internet à travers un prisme purement économique, on peut raisonnablement conclure que beaucoup d’abus en matière de neutralité de l’Internet auraient été de toute façon appréhendés par le droit de la concurrence. Un partenariat par lequel un FAI favoriserait ses propres contenus par rapport aux contenus de tiers constituerait probablement un accord anticoncurrentiel interdit.
Un rapport de février 2017 pour la Commission européenne (8) confirme que les abus en matière de « zero-rating » pourraient être appréhendés, dans la plupart des cas,
par le droit de la concurrence. Mais la neutralité d’Internet n’est pas seulement une question économique. Dans un discours du 17 juillet 2017, le président de l’Arcep Sébastien Soriano – président pour l’année 2017 de l’Organe des régulateurs européens des communications électroniques (Orece, ou en anglais Berec) – présente l’architecture de l’Internet comme une « infrastructure de liberté » (infrastructure of freedom), et la neutralité de l’Internet comme un garant de plusieurs droits fondamentaux, dont la protection de la vie privée et la liberté d’expression et d’accès à l’information (9).
On dépasse donc des questions purement économiques. La neutralité de l’Internet représente un symbole de la liberté d’accès à l’information, et plus largement des droits et libertés dans un monde numérique. @

ZOOM

Une régulation plus intelligente par l’analyse coûts-bénéfices
L’analyse coûts-bénéfices est un outil indispensable pour une saine régulation. Aux Etats-Unis comme en Europe de nombreux textes exigent une analyse coûts-bénéfices avant toute nouvelle réglementation. Et ce, afin d’anticiper le plus possible les effets désirables et indésirables de la mesure et de privilégier les options qui auront tendance à maximiser le bien-être social. Une analyse coûts-bénéfices permet surtout d’avoir une vision lucide des coûts cachés d’une régulation, notamment en termes de frein à l’innovation ou barrière au caractère ouvert et mondial de l’Internet. L’auteur de ces lignes a publié en juin 2017 un guide sur l’utilisation d’études coûts-bénéfices en matière de régulation de l’Internet (10).
Ce guide donne une feuille de route pour identifier et mesurer les impacts positifs et négatifs d’une régulation touchant les intermédiaires techniques de l’Internet. @

Dégrouper la « box » des opérateurs aux Etats-Unis : idée transposable aux objets connectés en Europe

Le régulateur américain des communications, la FCC, s’apprête à changer
de président pour être « Trump » compatible. Du coup, ses propositions de dégrouper les set-top-boxes des câblo-opérateurs risquent d’être enterrées
avant d’avoir existé. Pourtant, elles méritent réflexion – y compris en Europe.

Par Winston Maxwell*, avocat associé, Hogan Lovells

La prise de fonctions le 20 janvier 2017 du nouveau président des Etats-Unis, Donald Trump, sera suivie de la démission du président actuel de la FCC (1), Tom Wheeler. Le successeur
de ce dernier, issu du Parti républicain, sera nommé pour le remplacer. Le départ de Tom Wheeler (2) signifie l’abandon probable de l’idée de dégrouper le décodeur des câblo-opérateurs américains. Cette idée, qui a fait l’objet d’une proposition adoptée par la FCC le 28 février dernier, mérite néanmoins notre attention car elle illustre les enjeux liés à la télévision connectée et plus généralement au partage de données collectées dans le cadre des objets connectés.

Des set-top-boxes peu performantes
D’abord examinons la notion de « dégroupage » d’un décodeur, appelé aux Etats-Unis set-top-box. Les services de transmission d’un câblo-opérateur se divisent en deux
« tuyaux » logiquement distincts. Le premier tuyau consiste en la transmission de programmes utilisant de la bande passante réservée à cet effet. Il s’agit de services de transmission gérés de bout en bout par le câblo-opérateur. Le deuxième tuyau consiste en la fourniture d’un service d’accès à Internet. Cette deuxième partie du service est ouverte et soumise aux règles sur la neutralité de l’Internet. Pour accéder à l’offre télévisuelle sur la partie gérée du service, le téléspectateur doit utiliser un décodeur fourni par le câblo-opérateur. Aux États-Unis, la fourniture de cette « box » est payante, le téléspectateur s’acquittant d’un loyer mensuel. Selon la FCC, ce décodeur est non seulement cher, mais il est aussi peu performant, la technologie ayant peu évolué depuis une décennie. Les téléspectateurs américains semblent donc prisonniers d’une situation où le câblo-opérateur leur impose la location d’un décodeur peu performant. En 2015, la FCC, a lancé une première consultation publique pour mettre fin au monopole de fait qui existe en faveur des câblo-opérateurs pour la fourniture de leurs décodeurs. L’idée était de créer un marché dynamique où les développeurs indépendants pourraient proposer des fonctions qui aujourd’hui sont regroupées au sein du décodeur. Car cette « box » agrège plusieurs fonctions distinctes. La fonction
la plus basique consiste à transformer les signaux vidéo en images et sons lisibles par le téléviseur. Mais elle gère également l’accès aux programmes payants. Pour ce faire, elle a une fonction d’authentification et de gestion des conditions d’accès. Ces systèmes font régulièrement l’objet d’attaques par des pirates qui essayent de contourner le système afin d’organiser un marché noir d’accès aux programmes payants. C’est pour cette raison que les câblo-opérateurs et les ayant droits ne souhaitent pas que cette fonction soit séparée du décodeur, car l’existence d’un décodeur physique permet d’augmenter les mesures d’anti-piratage. Une autre fonction de la « box » est de fournir le guide électronique de programmes – Electronic Program Guide (EPG) – et de gérer les fonctions de recherches de programmes et de navigation. Les décodeurs actuels semblent archaïques comparé à l’interface d’une tablette ou d’un smartphone. C’est pour cette raison que la FCC a souhaité envisager de dégrouper les différentes fonctions du décodeur afin de permettre plus d’innovation et de choix au bénéfice du téléspectateur. La première proposition de la FCC aurait contraint les câblo-opérateurs à fournir des flux de données selon un standard ouvert, de manière à permettre à n’importe quel développeur d’intégrer ces fonctions dans différents types de terminaux. Ces fonctions pourraient être intégrées par exemple
dans le logiciel de navigation d’une tablette, ou d’une télévision connectée. La FCC
a rencontré une forte résistance de la part des câblo-opérateurs et des ayant droits. Dégrouper la fonction d’authentification et de gestion des conditions d’accès augmenterait le risque de piratage. La FCC a ainsi fait marche arrière et a proposé
une solution de compromis par laquelle le câblo-opérateur fournirait une application téléchargeable sur une tablette ou télévision connectée. Cette application resterait
sous le contrôle du câblo-opérateur permettant un niveau plus élevé de sécurité que
s’il s’agissait d’une application tierce.

Les enjeux de l’interface et des données
Mais la sécurité n’est pas le seul enjeu. La FCC souhaitait également ouvrir à la concurrence les fonctions du décodeur liées à l’interface avec les utilisateurs.
Cette proposition s’est également heurtée à une opposition des câblo-opérateurs
qui craignaient la perte de leurs relations commerciales avec leurs abonnés. L’enjeu était ici commercial. La maîtrise de l’interface de navigation permettrait à un prestataire tiers d’organiser la page d’accueil, d’apposer ses propres marques, et surtout de collecter des données sur les habitudes des téléspectateurs. Aux yeux des câblo-opérateurs, le décodeur reste un rempart contre la captation de la valeur des données par les grands prestataires d’Internet.

Dégroupage des objets connectés ?
A première vue, le dégroupage des « box » semble similaire à l’ouverture à la concurrence des téléphones dans les années 1990. Le dégroupage des téléphones a conduit à une vague d’innovation sans précédent, aux extrémités des réseaux. Cette innovation se perpétue encore aujourd’hui sur l’Internet, où il est possible d’« innover sans permission » – pour emprunter les termes de Yochai Benkler (3) – aux extrémités du réseau. Le droit d’innover aux extrémités du réseau est aujourd’hui garantie par la régulation sur la neutralité de l’Internet. Mais les règles sur la « Net Neutrality » ne s’appliquent pas aux services « gérés », comme la télévision accessible sur les « box ». S’agissant d’un opérateur de télécommunications bénéficiant d’un monopole juridique, imposer le dégroupage des terminaux en 1990 semblait logique. La question devient plus complexe lorsque l’opérateur en cause évolue dans un marché concurrentiel.
La proposition de la FCC fournit un exemple des complexités qui se transposent facilement à l’Internet des objets, où l’accès aux données est devenu un enjeu clé
pour l’innovation : compteurs électriques intelligents, maisons connectées, ou encore véhicules connectés. Obliger une entreprise privée à ouvrir à des tiers l’accès aux données de ses clients peut sembler à première vue attrayant pour encourager l’innovation. Mais vue de plus près, la question est complexe (4) et la notion
d’« innovation » incertaine (voir encadré ci-dessous), sans même parler de la protection des données à caractère personnel, un enjeu crucial. L’étude de l’Autorité de la concurrence (France) et de la Competition and Markets Authority (Grande-Bretagne) sur les écosystèmes et leurs effets sur la concurrence – analyse conjointe publiée en décembre 2014 (5) – montre que l’existence d’un écosystème fermé ne se traduit pas forcément par une diminution de la concurrence et de l’innovation. Chaque situation doit être examinée séparément. La même conclusion découle de l’étude récente conduite par la même Autorité de la concurrence avec cette fois la Bundeskartellamt (Allemagne) sur la collecte de données par les plateformes – analyse conjointe publiée en mai 2016 (6). Cette collecte de données ne conduit pas forcément à une diminution de l’innovation et de la concurrence.
La Commission européenne s’est exprimée le 10 janvier dernier sur le partage de données collectées dans le contexte des terminaux, compteurs ou encore véhicules connectés. Selon sa communication intitulée « Construire une économie européenne de la donnée » [« Building a European Data Economy », lire l’article pages 6 et 7, ndlr], la Commission européenne souligne la nécessité d’encourager le partage tout en respectant les négociations commerciales, la sécurité des systèmes, et l’investissement des entreprises ayant permis la production des données. Le débat sur le dégroupage des « box » et autres plateformes d’objets connectés promet de rester vif. @

* Winston Maxwell a eu l’occasion d’exposer la question du
dégroupage des « box » aux Etats-Unis au CSA Lab lancé
14 juin 2016, dont il est l’un des neuf membres experts,
ainsi qu’au Conseil d’Etat lors du colloque « Concurrence et
innovation à l’ère du numérique » le 9 décembre 2016.

ZOOM

Encourager l’innovation par la régulation, mais quelle « innovation » ?
Pour élaborer un système réglementaire qui favorise l’innovation, encore faut-il pouvoir la mesurer. Or, mesurer le niveau d’innovation est compliqué. Dans les années 1990, des recherches ont été faites aux Etats-Unis sur le lien entre la régulation sur la protection de l’environnement et l’innovation. A l’époque, certains disaient que la régulation favorisait l’innovation : cela s’appelait « l’hypothèse de Porter ». Valider cette hypothèse nécessite de se mettre d’accord sur ce que l’on entend par « innovation ».
Si l’on mesure l’innovation par les dépenses de recherches dédiées aux problèmes
de conformité (on parle de compliance innovation), alors, oui, la régulation conduit généralement à une augmentation de l’innovation. En revanche, si l’on mesure l’innovation par d’autres critères, par exemple le nombre de brevets déposés ou le nombre de start-up levant des fonds de capital risque, la réponse sera différente. Sans pouvoir mesurer l’innovation, on navigue à l’aveugle. La régulation peut elle-même innover. Certains auteurs prônent une régulation « adaptative » et « expérimentale »
qui s’adapterait en fonction des résultats observés. Préconisée dans la dernière étude annuelle du Conseil d’Etat, la réglementation expérimentale serait particulièrement bien adaptée aux marchés numériques, où le risque d’erreur est élevé. Mais cette forme de régulation nécessiterait des mécanismes de suivi sur l’efficacité de la régulation, et ces mécanismes sont rares. @