Les médias face à la concurrence des GAFA(N) : « total video » pour les uns et « web first » pour les autres

Qu’ils soient groupes audiovisuels comme RTL ou groupes de presse comme Sud-Ouest, les acteurs des médias traditionnels sont passés à l’offensive pour résister aux rouleaux compresseurs des GAFA. Leur meilleure arme dans la « glocalisation » est le total video pour les uns et le web first pour les autres.

« Notre métier de base, c’est la télévision. Mais il faut que l’on sorte de ce schéma pour poursuivre dans ce que nous appelons le “total video” qui couvre la diffusion multisupports, les contenus exploitables sur les plateformes des GAFA, et les investissements que nous faisons dans des plateformes vidéo », a expliqué Guillaume de Posch (photo de gauche), co-directeur général de RTL Group, lors du 26e colloque de NPA-Le Figaro organisé le 7 novembre sur le thème de « Plus que jamais la glocalisation ! ».

« Rapport de force avec les GAFA(N) »
De son côté, Olivier Gerolami (photo de droite), président du groupe Sud-Ouest, se situe sur un autre registre : « Nous sommes engagés dans une digitalisation à marche forcée, avec le virage de l’ensemble de la rédaction vers le schéma “web first” où l’ensemble de la rédaction produit des contenus en mode continue pour le papier, le site web et les applis mobiles ». Si les deux approches – total video et web first – sont très différentes de l’activité média historique respective de chacun des deux groupes (télé pour l’un, presse pour l’autre), elles ont un souci commun : ne pas se laisser dépasser localement par les GAFA mondialisés. « La télévision Lire la suite

Europe : Mariya Gabriel appelée à « casser les silos » du Net

En fait. Le 16 mai, le président de la Commission européenne, Jean-Claude Juncker, a proposé de nommer la Bulgare Mariya Gabriel – à qui il a remis une lettre de mission – commissaire à l’Economie et à la Société numériques. Le Parlement européen et les Etats membres devraient donner leur feu vert ces prochaines semaines.

En clair. Actuellement eurodéputée (1), Mariya Gabriel (photo) reprendrait le portefeuille « Economie et Société numériques » que Günther Oettinger a occupé jusqu’au 1er janvier dernier (2). A priori, il ne devrait y avoir aucun obstacle à ce que cette Bulgare de 38 ans ne soit « dans les semaines à venir » nommée à cette fonction – une fois que le Parlement européen et les Etats membres auront donné leur aval après auditions. Elle travaillera alors étroitement avec le vice-président de la Commission européenne Andrus Ansip, chargé, lui, du Marché unique numérique. Ce dernier avait récupéré provisoirement L’Economie et de la Société numériques de Günther Oettinger.

Francophone et francophile
Mariya Gabriel est bilingue – bulgare et français (elle parle aussi le russe) – et a fait des études en France à l’Institut d’études politiques de Bordeaux, après avoir obtenu en 2001 en Bulgarie un diplôme en Langues bulgare et française (dans la foulée d’un lycée bilingue). Elle a ensuite été diplômée en 2003 de Sciences Po Bordeaux. Une fois en fonction, la nouvelle commissaire à l’Economie et à la Société numériques contribuera aussi aux projets du vice-président Jyrki Katainen chargé, lui, de l’Emploi, de la Croissance, de l’Investissement et de la Compétitivité.
Dans sa lettre de mission que lui a remise par Jean-Claude Juncker, ce dernier a rappelé les objectifs : « Nous devons mieux utiliser les opportunités offertes par les technologies numériques qui ne connaissent pas frontières. Pour ce faire, nous devront casser les silos dans la régulation des télécoms, dans le droit d’auteur et Lire la suite

Xaviel Niel, qui va avoir 50 ans au mois d’août, garde le total contrôle d’Iliad et accélère à l’international

Le fondateur de Free va devenir quinquagénaire au mois d’août. Cette année marque aussi une accélération de ses investissements en Europe et aux Etats-Unis, que cela soit via Iliad, via sa holding personnelle NJJ Holding, via son fonds Kima Ventures ou encore via sa co-entreprise Mediawan. C’est beaucoup pour un seul homme.

Par Charles de Laubier

« Le succès du groupe dépend notamment de la pérennité de ses relations avec Xavier Niel, administrateur, directeur général délégué d’Iliad et actionnaire majoritaire du Groupe, et avec les autres dirigeants et collaborateurs clés », rappelle le document de référence 2016 du groupe Iliad, publié le 10 avril dernier. Et le chapitre des « risques » de poursuivre : « Xavier Niel détient une participation très importante dans le capital de la société et, est directeur général délégué. Il est ainsi en mesure d’avoir une influence déterminante sur la plupart des décisions sociales et stratégiques du groupe, et notamment, celles requérant l’approbation des actionnaires ».
Celui qui a fondé Free il y a près de vingt ans, et Free Mobile il y a cinq ans, ne détient plus que 52,43 % du capital du groupe coté Iliad, la maison mère. Et ce, après en avoir cédé début avril – via sa holding d’investissement personnelle NJJ Holding – 1,72 % de sa participation qui reste encore majoritaire. Xavier Niel (photo) détient surtout, du moins à fin février, 68,46 % des droits de votes d’Iliad.

Un stratège reconnu mais aussi un « risque » pour Iliad
« Cette concentration du capital et des droits de vote détenus par un seul actionnaire et la possibilité pour cet actionnaire de céder librement tout ou partie de sa participation dans le capital de la société, sont susceptibles d’avoir un effet significativement défavorable sur le cours des actions de la société », prévient en outre le rapport d’activité précité.
Le jour-même de l’annonce, le 5 avril dernier, de cette opération de cession d’actions du patron pour plus de 210 millions d’euros, le titre Iliad chutait de 2,50 % à 206,90 euros – avant de regagner des points ces derniers jours (voir graphique page suivante).
Xavier Niel est certes un atout pour le groupe Iliad, mais il présente aussi un « risque » pour l’opérateur télécoms français aux 19 millions d’abonnés – dont 6,4 millions d’abonnés haut débit/très haut débit et 12,7 millions d’abonnés mobiles (à fin 2016). En vue de l’assemblée générale des actionnaires qui se réunira le 17 mai prochain, le conseil d’administration – vice-présidé par Xavier Niel – s’est réuni Lire la suite

Agence européenne des télécoms : une idée déjà vue, à nouveau rejetée par les Etats membres

La Commission européenne est revenue à la charge en proposant de transformer l’actuel forum des régulateurs des télécoms nationaux – l’Orece – en une véritable agence de l’Union européenne. Mais ce projet est vivement combattu par les Etats-membres, comme ce fut déjà le cas par le passé.

Par Katia Duhamel, experte en droit et régulation des TIC, K. Duhamel Consulting

Rappelons que lors des discussions qui ont précédé la révision du « Paquet Télécoms » en 2009, la Commission européenne avait initialement proposé de créer une autorité supranationale permanente des télécoms dotée d’un statut d’agence communautaire. A cette époque, cette Autorité européenne du marché des communications électroniques (AEMCE) aurait eu vocation à remplacer le GRE (Groupe des régulateurs européens) et l’Enisa (Agence européenne chargée de la sécurité des réseaux et de l’information), tout en renforçant le pouvoir de veto de la Commission européenne.

Principe de subsidiarité et obstacles
Sous le feu des critiques, notamment celles du GRE, des Etats membres et de leurs représentants au Parlement européens, la Commission européenne avait dû abandonner ses prétentions au profit de la création de l’Orece (Organe des régulateurs européens des communications électroniques), dont les compétences furent significativement réduites par rapport à la proposition initiale de l’exécutif européen. Aujourd’hui, comme hier, le débat sur la création d’une hypothétique Agence de régulation européenne des télécoms ravive les tensions au regard de l’application
du principe de subsidiarité dans la politique de réalisation du marché intérieur des communications électroniques. Pour mémoire, le principe de subsidiarité, complété
par les principes d’attribution et de proportionnalité, est au cœur du dispositif européen. Le Traité de Lisbonne, modifiant le Traité sur l’Union européenne (UE), et le Traité instituant la Communauté européenne (1) les mentionnent dès l’énoncé des dispositions communes : « Le principe d’attribution régit la délimitation des compétences de l’Union. Les principes de subsidiarité et de proportionnalité régissent l’exercice de ces compétences » (art. 5-1). Ce premier alinéa est complété par trois autres qui précisent respectivement ces trois principes (voir encadré page suivante).
Or, pour le secteur des communications électroniques, les choses sont moins simples qu’il n’y parait dans la mesure où le numérique se trouve au carrefour des compétences exclusives (règles de concurrence nécessaires au fonctionnement du marché intérieur (2)) et des compétences partagées avec les Etats membres (marché intérieur, protection des consommateurs, réseaux transeuropéens des télécommunications, espace de liberté, de sécurité et de justice, … (3)).
Quoi qu’il en soit, et sans être dupe du jeu des acteurs institutionnels et des enjeux
de souveraineté nationale, il est assez clair que la finalisation du grand marché intérieur peine à se concrétiser. A ce titre, la volumineuse étude d’évaluation de l’impact de la réforme du cadre réglementaire européen des communications électronique – menée
et publiée en 2016 par la Commission européenne (4) – souligne trois séries de problèmes, à savoir : des obstacles à une connectivité illimitée au moyen d’infrastructures fixes et mobiles omniprésentes, à très haute capacité ; de l’inadaptation du cadre pour faire face aux évolutions rapides du marché et des technologies ; des aspects redondants et inefficaces, ainsi que du manque de cohérence, de la réglementation et de la régulation.
Plus particulièrement sur ce « manque de cohérence de la réglementation et de la régulation », cette étude affirme trois choses : d’abord que la cohérence des cadres réglementaires applicables dans chacun des Etats-membres reste limitée, affectant les projets des opérateurs internationaux et réduisant la visibilité des acteurs du marché et de leurs investisseurs ; ensuite que les solutions réglementaires optimales ne sont pas toujours mises en oeuvre, les pouvoirs de la Commission n’étant pas suffisants par exemple pour assurer la cohérence des remèdes adoptées par les autorités nationales en matière d’accès ; enfin que le manque de cohérence dans la gestion du spectre a contribué à retarder le déploiement de la 4G.

Revoir l’équilibre institutionnel ?
De facto, ces constats sont assez partagés par les parties prenantes et seuls les moyens d’y remédier font débat. En effet, nombre d’Etat comme la France le Royaume Uni ou le Portugal défendent « l’équilibre institutionnel qui a fait ses preuves », même
si certains comme l’Irlande, soulignent qu’il serait utile que les travaux soient plus transparents. A contrario, force aussi est d’observer la divergence – en fonction des pays – des remèdes imposés sur l’accès aux réseaux, notamment de fibre optique,
et par ricochet sur la diversité des offres de gros d’accès comme celle des conditions d’accès aux fréquences, ou bien encore le niveau de mise en oeuvre variable des règles de protection des consommateurs. Il est du reste probable que la source de
ces divergences se trouve en partie dans l’approche peut-être « trop » consensuelle
de l’Orece* qui consiste à octroyer de la flexibilité aux Etats membres ou à se fonder sur le plus petit dénominateur commun dans sa prise de décision.

Approche médiane et pragmatique
Il est également relativement certain que les incohérences relevées dans l’application des règles européennes persisteront voire s’aggraveront avec l’émergence de nouvelles technologies et de nouveaux usages. Toutefois, est-il pour autant nécessaire d’engager un combat institutionnel pour la création d’un super régulateur européen, combat qui a beaucoup de chance d’être perdu, surtout dans l’actuel climat de défiance des institutions européennes ?
La réponse à cette question n’est pas obligatoirement positive. De ce point de vue,
les conclusions de l’avis de l’Orece (5) vont dans le sens des autorités de régulation nationales telles que l’Arcep en France, qui veulent conserver leur indépendance.
Par ailleurs, la réduction des lourdeurs administratives comme des divergences d’application pourrait passer par l’amélioration de la gouvernance de l’Orece plutôt
que par la création d’une nouvelle agence décentralisée de l’UE. En revanche, contrairement à la position de l’Orece, l’introduction du pouvoir de la Commission européenne d’opposer son veto aux remèdes proposés les « Arcep » nationales, subordonné à l’avis préalable Orece, pourrait être utile et ne constitue pas forcément une infraction au principe de subsidiarité – eu égard aux compétences de l’UE relatives aux règles de concurrence nécessaires au fonctionnement du marché intérieur. Le retard pris dans certains des Etats membres dans le déploiement du très haut débit résulte en effet en partie, à notre sens, d’une régulation incohérente ou insuffisante
de la boucle locale : accès au génie civil et aux fibres optiques, migration du cuivre
vers la fibre, etc.
Enfin quelle que soit l’option qui sera in fine retenue pour la politique européenne commune de gestion du spectre (6), cette option est relativement indépendante de la création d’une autorité supranationale de régulation. Car cette option requerra avant tout la modification des dispositions communautaires actuelles relatives à cette question et du degré de contrainte que celles-ci imposent aux Etats. @

* A noter que l’Orece est présidé durant toute l’année 2017
par le président de l’Arcep, Sébastien Soriano, qui fut en
2016 vice-président de cet organisme,
lequel fut créé en décembre 2009 sous la houlette de la
Commission européenne pour remplacer le GRE (Groupe des
régulateurs européens). Celui-ci avait été installé
en 2002 à la place du GRI (Groupe des régulateurs
indépendants) créé en 1997 – sous l’impulsion de l’ancien
président de l’Arcep (ex-ART), Jean-Michel Hubert – mais
jugé par Bruxelles trop indépendant.

ZOOM

Les trois principes de l’Union européenne dans le texte : subsidiarité, attribution et proportionnalité
• En vertu du principe d’attribution, l’Union européenne (UE) n’agit que dans les limites des compétences que les Etats membres lui ont attribuées dans les traités pour atteindre les objectifs que ces traités établissent. Toute compétence non attribuée à l’UE dans les traités appartient aux Etats membres.

• En vertu du principe de subsidiarité, dans les domaines qui ne relèvent pas de sa compétence exclusive, l’UE intervient seulement si, et dans la mesure où, les objectifs de l’action envisagée ne peuvent pas être atteints de manière suffisante par les Etats membres, tant au niveau central qu’au niveau régional et local, mais peuvent l’être mieux, en raison des dimensions ou des effets de l’action envisagée, au niveau de l’UE. Les institutions de l’Union européenne appliquent le principe de subsidiarité conformément au protocole sur l’application des principes de subsidiarité et de proportionnalité (7). Les parlements nationaux veillent au respect du principe de subsidiarité conformément à la procédure prévue dans ce protocole.

• En vertu du principe de proportionnalité, le contenu et la forme de l’action de l’UE n’excèdent pas ce qui est nécessaire pour atteindre les objectifs des traités. Les institutions de l’UE appliquent le principe de proportionnalité conformément au protocole sur l’application des principes de subsidiarité et de proportionnalité. @

Dégrouper la « box » des opérateurs aux Etats-Unis : idée transposable aux objets connectés en Europe

Le régulateur américain des communications, la FCC, s’apprête à changer
de président pour être « Trump » compatible. Du coup, ses propositions de dégrouper les set-top-boxes des câblo-opérateurs risquent d’être enterrées
avant d’avoir existé. Pourtant, elles méritent réflexion – y compris en Europe.

Par Winston Maxwell*, avocat associé, Hogan Lovells

La prise de fonctions le 20 janvier 2017 du nouveau président des Etats-Unis, Donald Trump, sera suivie de la démission du président actuel de la FCC (1), Tom Wheeler. Le successeur
de ce dernier, issu du Parti républicain, sera nommé pour le remplacer. Le départ de Tom Wheeler (2) signifie l’abandon probable de l’idée de dégrouper le décodeur des câblo-opérateurs américains. Cette idée, qui a fait l’objet d’une proposition adoptée par la FCC le 28 février dernier, mérite néanmoins notre attention car elle illustre les enjeux liés à la télévision connectée et plus généralement au partage de données collectées dans le cadre des objets connectés.

Des set-top-boxes peu performantes
D’abord examinons la notion de « dégroupage » d’un décodeur, appelé aux Etats-Unis set-top-box. Les services de transmission d’un câblo-opérateur se divisent en deux
« tuyaux » logiquement distincts. Le premier tuyau consiste en la transmission de programmes utilisant de la bande passante réservée à cet effet. Il s’agit de services de transmission gérés de bout en bout par le câblo-opérateur. Le deuxième tuyau consiste en la fourniture d’un service d’accès à Internet. Cette deuxième partie du service est ouverte et soumise aux règles sur la neutralité de l’Internet. Pour accéder à l’offre télévisuelle sur la partie gérée du service, le téléspectateur doit utiliser un décodeur fourni par le câblo-opérateur. Aux États-Unis, la fourniture de cette « box » est payante, le téléspectateur s’acquittant d’un loyer mensuel. Selon la FCC, ce décodeur est non seulement cher, mais il est aussi peu performant, la technologie ayant peu évolué depuis une décennie. Les téléspectateurs américains semblent donc prisonniers d’une situation où le câblo-opérateur leur impose la location d’un décodeur peu performant. En 2015, la FCC, a lancé une première consultation publique pour mettre fin au monopole de fait qui existe en faveur des câblo-opérateurs pour la fourniture de leurs décodeurs. L’idée était de créer un marché dynamique où les développeurs indépendants pourraient proposer des fonctions qui aujourd’hui sont regroupées au sein du décodeur. Car cette « box » agrège plusieurs fonctions distinctes. La fonction
la plus basique consiste à transformer les signaux vidéo en images et sons lisibles par le téléviseur. Mais elle gère également l’accès aux programmes payants. Pour ce faire, elle a une fonction d’authentification et de gestion des conditions d’accès. Ces systèmes font régulièrement l’objet d’attaques par des pirates qui essayent de contourner le système afin d’organiser un marché noir d’accès aux programmes payants. C’est pour cette raison que les câblo-opérateurs et les ayant droits ne souhaitent pas que cette fonction soit séparée du décodeur, car l’existence d’un décodeur physique permet d’augmenter les mesures d’anti-piratage. Une autre fonction de la « box » est de fournir le guide électronique de programmes – Electronic Program Guide (EPG) – et de gérer les fonctions de recherches de programmes et de navigation. Les décodeurs actuels semblent archaïques comparé à l’interface d’une tablette ou d’un smartphone. C’est pour cette raison que la FCC a souhaité envisager de dégrouper les différentes fonctions du décodeur afin de permettre plus d’innovation et de choix au bénéfice du téléspectateur. La première proposition de la FCC aurait contraint les câblo-opérateurs à fournir des flux de données selon un standard ouvert, de manière à permettre à n’importe quel développeur d’intégrer ces fonctions dans différents types de terminaux. Ces fonctions pourraient être intégrées par exemple
dans le logiciel de navigation d’une tablette, ou d’une télévision connectée. La FCC
a rencontré une forte résistance de la part des câblo-opérateurs et des ayant droits. Dégrouper la fonction d’authentification et de gestion des conditions d’accès augmenterait le risque de piratage. La FCC a ainsi fait marche arrière et a proposé
une solution de compromis par laquelle le câblo-opérateur fournirait une application téléchargeable sur une tablette ou télévision connectée. Cette application resterait
sous le contrôle du câblo-opérateur permettant un niveau plus élevé de sécurité que
s’il s’agissait d’une application tierce.

Les enjeux de l’interface et des données
Mais la sécurité n’est pas le seul enjeu. La FCC souhaitait également ouvrir à la concurrence les fonctions du décodeur liées à l’interface avec les utilisateurs.
Cette proposition s’est également heurtée à une opposition des câblo-opérateurs
qui craignaient la perte de leurs relations commerciales avec leurs abonnés. L’enjeu était ici commercial. La maîtrise de l’interface de navigation permettrait à un prestataire tiers d’organiser la page d’accueil, d’apposer ses propres marques, et surtout de collecter des données sur les habitudes des téléspectateurs. Aux yeux des câblo-opérateurs, le décodeur reste un rempart contre la captation de la valeur des données par les grands prestataires d’Internet.

Dégroupage des objets connectés ?
A première vue, le dégroupage des « box » semble similaire à l’ouverture à la concurrence des téléphones dans les années 1990. Le dégroupage des téléphones a conduit à une vague d’innovation sans précédent, aux extrémités des réseaux. Cette innovation se perpétue encore aujourd’hui sur l’Internet, où il est possible d’« innover sans permission » – pour emprunter les termes de Yochai Benkler (3) – aux extrémités du réseau. Le droit d’innover aux extrémités du réseau est aujourd’hui garantie par la régulation sur la neutralité de l’Internet. Mais les règles sur la « Net Neutrality » ne s’appliquent pas aux services « gérés », comme la télévision accessible sur les « box ». S’agissant d’un opérateur de télécommunications bénéficiant d’un monopole juridique, imposer le dégroupage des terminaux en 1990 semblait logique. La question devient plus complexe lorsque l’opérateur en cause évolue dans un marché concurrentiel.
La proposition de la FCC fournit un exemple des complexités qui se transposent facilement à l’Internet des objets, où l’accès aux données est devenu un enjeu clé
pour l’innovation : compteurs électriques intelligents, maisons connectées, ou encore véhicules connectés. Obliger une entreprise privée à ouvrir à des tiers l’accès aux données de ses clients peut sembler à première vue attrayant pour encourager l’innovation. Mais vue de plus près, la question est complexe (4) et la notion
d’« innovation » incertaine (voir encadré ci-dessous), sans même parler de la protection des données à caractère personnel, un enjeu crucial. L’étude de l’Autorité de la concurrence (France) et de la Competition and Markets Authority (Grande-Bretagne) sur les écosystèmes et leurs effets sur la concurrence – analyse conjointe publiée en décembre 2014 (5) – montre que l’existence d’un écosystème fermé ne se traduit pas forcément par une diminution de la concurrence et de l’innovation. Chaque situation doit être examinée séparément. La même conclusion découle de l’étude récente conduite par la même Autorité de la concurrence avec cette fois la Bundeskartellamt (Allemagne) sur la collecte de données par les plateformes – analyse conjointe publiée en mai 2016 (6). Cette collecte de données ne conduit pas forcément à une diminution de l’innovation et de la concurrence.
La Commission européenne s’est exprimée le 10 janvier dernier sur le partage de données collectées dans le contexte des terminaux, compteurs ou encore véhicules connectés. Selon sa communication intitulée « Construire une économie européenne de la donnée » [« Building a European Data Economy », lire l’article pages 6 et 7, ndlr], la Commission européenne souligne la nécessité d’encourager le partage tout en respectant les négociations commerciales, la sécurité des systèmes, et l’investissement des entreprises ayant permis la production des données. Le débat sur le dégroupage des « box » et autres plateformes d’objets connectés promet de rester vif. @

* Winston Maxwell a eu l’occasion d’exposer la question du
dégroupage des « box » aux Etats-Unis au CSA Lab lancé
14 juin 2016, dont il est l’un des neuf membres experts,
ainsi qu’au Conseil d’Etat lors du colloque « Concurrence et
innovation à l’ère du numérique » le 9 décembre 2016.

ZOOM

Encourager l’innovation par la régulation, mais quelle « innovation » ?
Pour élaborer un système réglementaire qui favorise l’innovation, encore faut-il pouvoir la mesurer. Or, mesurer le niveau d’innovation est compliqué. Dans les années 1990, des recherches ont été faites aux Etats-Unis sur le lien entre la régulation sur la protection de l’environnement et l’innovation. A l’époque, certains disaient que la régulation favorisait l’innovation : cela s’appelait « l’hypothèse de Porter ». Valider cette hypothèse nécessite de se mettre d’accord sur ce que l’on entend par « innovation ».
Si l’on mesure l’innovation par les dépenses de recherches dédiées aux problèmes
de conformité (on parle de compliance innovation), alors, oui, la régulation conduit généralement à une augmentation de l’innovation. En revanche, si l’on mesure l’innovation par d’autres critères, par exemple le nombre de brevets déposés ou le nombre de start-up levant des fonds de capital risque, la réponse sera différente. Sans pouvoir mesurer l’innovation, on navigue à l’aveugle. La régulation peut elle-même innover. Certains auteurs prônent une régulation « adaptative » et « expérimentale »
qui s’adapterait en fonction des résultats observés. Préconisée dans la dernière étude annuelle du Conseil d’Etat, la réglementation expérimentale serait particulièrement bien adaptée aux marchés numériques, où le risque d’erreur est élevé. Mais cette forme de régulation nécessiterait des mécanismes de suivi sur l’efficacité de la régulation, et ces mécanismes sont rares. @

La Commission européenne est décidée à favoriser, tout en l’encadrant, l’économie de la data

Dans une communication publiée le 10 janvier 2017, la Commission européenne prévoit de favoriser – tout en l’encadrant – le commerce des données numériques. Cette régulation de la data suppose notamment de réviser dès
cette année la directive de 1996 sur la protection des bases de données.

L’année 2017 sera placée sous le signe de la data. La Commission européenne veut encadrer l’exploitation des données dans une économie de plus en plus numérique.
La communication qu’elle a publiée le 10 janvier, sous le titre
« Construire une économie européenne de la donnée » (1), devait être rendue publique en novembre. Finalement, elle
l’a été avec deux mois de retard et fait l’objet d’une vaste consultation publique – jusqu’au 26 avril prochain.

Une loi européenne d’ici juin 2017 ?
Ces nouvelles règles sur la data utilisée à des fins commerciales doivent mieux encadrer la manière dont les entreprises s’échangent des données numériques entre elles pour développer leur chiffre d’affaires et générer des pro f i t s . I l s’agit d’év i ter que les consommateurs – internautes et mobinautes – soient pris au piège d’accords d’utilisation qu’ils ne pourraient pas refuser, donnant ainsi implicitement à d’autres entreprises que leur fournisseur numérique l’accès à leurs données personnelles. Toutes les entreprises sont potentiellement concernées. Si la communication n’a pas de caractère contraignant, la Commission européenne se réserve la possibilité de légiférer si les entreprises n’appliquaient pas ses suggestions sur le partage de données. Andrus Ansip (photo), viceprésident de la Commissaire européen en charge du Marché unique numérique et – depuis le 1er janvier 2017 – de l’Economie et de la Société numériques (2), a déjà laissé entendre qu’un texte législatif sur la propriété des données et l’accès à ces données pourrait être proposé d’ici juin 2017.
Tous les secteurs de l’économie – industries, services, e-commerce, … – sont en ligne de mire. Déplorant l’absence d’étude d’impact, un cabinet d’avocats (Osborne Clarke)
a recommandé à la Commission européenne de ne pas se précipiter à édicter une nouvelle loi. De nombreux secteurs économiques craignent cette régulation de la data et la perçoivent comme un frein à leur développement. Par exemple, dans l’industrie automobile, l’Association européenne des constructeurs d’automobiles (3) a fait savoir lors d’une conférence à Bruxelles le 1er décembre dernier sur le thème de
« Smart cars: Driven by data » que les données des conducteurs appartenaient aux constructeurs, lesquels pouvaient les vendre à d’autres entreprises. Au moment où la voiture connectée et/ou autonome démarre sur les chapeaux de roue, les industriels
de l’automobile entendent garder la maîtrise des données collectées et leur exploitation comme bon leur semble. Or la Commission européenne souhaite au contraire ne pas laisser faire sans un minimum de règles communes et en appelle à des expérimentations comme dans le cadre du programme CAD (Connected and Autonomous Driving). Les autres secteurs ne sont pas en reste. Cela concerne aussi
le marché de l’énergie (comme les compteurs intelligents), le domaine de la maison connectée, la santé ou encore les technologies financières. En outre, le potentiel de l’Internet des objets (des thermostats aux lunettes connectées), des usines du futur ainsi que de la robotique connectée est sans limite et le flux de données en croissance exponentielle.
Alors que la data constitue plus que jamais le pétrole du XXIe siècle, tant en termes d’économie de marché, de création d’emplois et de progrès social, elle est devenue centrale. L’économie de la donnée est créatrice de valeur pour l’Europe, avec 272 milliards d’euros de chiffre d’affaires généré en 2015 – soit 1,87 % du PIB européen.
Ce montant pourrait, selon les chiffres fournis par la Commission européenne, pourrait atteindre 643 millions d’euros d’ici 2020, soit 3,17 % du PIB européen (4).

Encadrer sans freiner l’innovation
La communication « Construire une économie européenne de la donnée » veut donner une impulsion à l’utilisation des données à des fins lucratives, tout en l’encadrant, sans attendre l’entrée en vigueur à partir du 25 mai 2018 de la nouvelle réglementation européenne sur la protection des données (5). Mais la Commission européenne ne veut pas non plus freiner les Vingt-huit dans le développement de l’économie de la donnée et creuser un peu plus l’écart avec les Etats- Unis. Aussi, voit-elle dans la régulation de la data une manière de contribuer au développement du marché unique numérique en donnant un accès le plus large aux bases de données – au Big Data – et en empêchant les barrières à l’entrée au détriment des nouveaux entrants et de l’innovation. Objectif : favoriser la libre circulation des données au sein de l’Union européenne, ainsi que la libre localisation de ces données dans des data centers, sans que ces échanges et ces stockages se fassent au détriment des consommateurs et de leur libre arbitre. Il s’agit aussi d’éviter la fragmentation du marché unique numérique par des réglementations nationales différentes selon les pays européens. La data se retrouve au cœur du marché unique numérique, que cela soit en termes de flux libres, d’accès, de transfert, de responsabilité, de sécurité, de portabilité, d’interopérabilité et de standardisation.

Pour la libre circulation des données
Dans sa communication « Construire une économie européenne de la donnée », dont un draft était disponible en ligne depuis décembre dernier, Bruxelles réaffirme la libre circulation des données (free flow of data) au sein de l’Union européenne et s’oppose aux barrières réglementaires numériques telles que l’obligation de localiser les données dans le pays concerné (6). Dans le prolongement de sa communication, la Commission européenne discutera avec les Etats membres sur les justifications et la proportionnalité des mesures réglementaires de localisation des données, ainsi que de leurs impacts sur notamment les petites entreprises et les start-up. Bruxelles est prêt à durcir le ton en cas de localisation abusive des données.
Partant du principe que les données peuvent être personnelles ou non personnelles, il est rappelé que la réglementation de 2016 sur la protection des données personnelle (en vigueur à partir de fin mai 2018), s’applique aux premières. Et quand un appareil connecté génère de la donnée qui permet d’identifier une personne, cette donnée est considérée comme étant à caractère personnel jusqu’à ce qu’elle soit anonymisée.
Or, constate la Commission européenne, l’accès aux données au sein des Vingt-huit est limité. La plupart des entreprises utilisant une grande quantité de données le font en interne. La réutilisation des données par des tiers ne se fait pas souvent, les entreprises préférant les garder pour ellesmêmes. De plus, beaucoup d’entreprises n’utilisent pas les possibilités des API (Application Programming Interfaces) qui permettent à différents services d’interagir avec d’autres en utilisant les données extérieures ou en partageant les siennes. Peu d’entreprises sont en outre équipées d’outils ou dotées de compétences pour quantifier la valeur économique de leurs données.
Quant au cadre réglementaire, au niveau européen ou à l’échelon national, il ne les incite pas à valoriser leur capital data. S’il y a bien le nouveau règlement sur la protection des données personnelle, les données brutes impersonnelles produites
par les machines échappent à l’actuel droit sur la propriété intellectuelle faute d’être
« intelligentes ». Tandis que la directive européenne du 11 mars 1996 sur la protection juridique des bases de données permet, elle, aux auteurs de bases de données le droit d’empêcher l’extraction et/ou la réutilisation de tout ou partie de leurs bases de donnés. Sans parler de la nouvelle directive européenne sur le secret des affaires, à transposer par les Etats membres d’ici juin 2018, qui limite l’accès à certaines informations capitales pour l’entreprise. Difficile de s’y retrouver dans ce dédale de textes législatifs. Un cadre réglementaire plus lisible et compréhensible est donc nécessaire, aux yeux de la Commission européenne, pour les données générées par les machines et les objets connectés, sur leur exploitation et leur traçabilité. Faute de quoi, l’économie de la data continuera de relever le plus souvent de relations contractuelles. Or, Bruxelles estime que cela ne suffit pas et qu’il faut un cadre adapté pour les nouveaux entrants et éviter les marchés verrouillés. Ceux que la Commission européenne appelle les propriétaires de facto de données que leurs écosystème génère ont un avantage compétitif sur leur marché, surtout en l’absence de réglementation ou de cadre juridique appropriés.

Afin que les réglementations nationales différentes ne s’imposent au détriment d’une harmonisation communautaire et des services de données transfrontaliers, une législation sur l’accès aux données pourrait voir le jour en Europe afin : d’encadrer le commerce de données générées par les appareils connectés, de faciliter et d’inciter
au partage de telles données, de protéger les investissements et les actifs, d’éviter la divulgation de données sensibles ou confidentielles, et de minimiser les effets de blocage (lockin) dans l’accès aux données.
La Commission européenne prévoit notamment : de réviser en 2017 la directive
« Bases de données » de 1996, de favoriser le développement les API pour faciliter
la création d’écosystèmes numériques, d’édicter des contrats-type portant sur l’exploitation de données, de contrôler les relations contractuelles B2B (7) et d’invalider des clauses abusives, de donner accès aux données d’intérêt général ou issues des services publics (8), d’instaurer un droit des producteurs de données à accorder des licences d’utilisation de ces données, et, enfin, de donner accès à la data contre rémunération.

Responsabilité et assurance
La responsabilité juridique liée à l’exploitation de toutes ces données devra aussi être clarifiée – quitte à envisager la révision de la directive européenne de 1985 sur la responsabilité du fait des produits défectueux (9) – pour prendre en compte les nouveaux écosystèmes tels que l’Internet des objets ou encore la voiture autonome, sans parler des implications au niveau des assurances. @

Charles de Laubier

Liens hypertextes « pirates » : la jurisprudence « GS Media » menace-t-elle la liberté d’informer ?

Le 13 octobre 2016, le tribunal d’Attunda (Suède) a fait application pour la première fois en droit national des critères énoncés par la CJUE dans l’arrêt
« GS Media », et vient ainsi préciser les contours du régime s’appliquant au
droit de communication au public pour les liens hypertextes.

Par Etienne Drouard (photo), avocat associé, et Antoine Boullet, juriste, cabinet K&L Gates

L’intérêt de cette décision réside dès lors dans l’application concrète des critères abstraitement énoncés par la CJUE. Pour rappel, la Cour de justice de l’Union européenne (CJUE) a décidé – dans l’ arrêt « GS Media » rendu le 8 septembre dernier (1) – que pour juger du caractère licite ou illicite d’un acte de communication au public au sens de la directive européenne de 2001 sur le droit d’auteur (dite « DADVSI »), il fallait non seulement démontrer l’existence d’un acte de communication et l’existence d’un public, mais également « tenir compte de plusieurs critères complémentaires, de nature non autonome et interdépendants les uns par rapport aux autres » (2).

Le cas d’une vidéo d’accident
La CJUE a ainsi précisé le régime des liens hypertextes qui renvoient vers des œuvres protégées, librement disponibles sur un autre site Internet et sans l’autorisation du titulaire du droit d’auteur. Pour déterminer si de tels liens constituent des actes de communication illicites au public, il convient, selon l’arrêt européen, de « déterminer si ces liens sont fournis sans but lucratif par une personne qui ne connaissait pas ou ne pouvait raisonnablement pas connaître le caractère illégal de la publication de ces œuvres sur cet autre site Internet ou si, au contraire, lesdits liens sont fournis dans un tel but, hypothèse dans laquelle cette connaissance doit être présumée ». L’application concrète de ces critères par les juridictions nationales était attendue pour envisager leur pleine portée. Dans l’arrêt « Rebecka Jonsson c/ Les Editions de L’Avenir », le juge suédois est le premier à se prononcer dans le sillage de la CJUE.
Deux critères essentiels de la décision européenne méritent en effet d’être clarifiés. Tout d’abord, comment définir le but lucratif ? Ensuite, comment prouver la connaissance, ou au contraire l’absence de connaissance, du caractère illégal d’une publication qui rendrait un lien vers celle-ci lui-même licite ou illicite ? En l’espèce,
la plaignante Rebecka Jonsson a filmé en 2012 un accident de saut à l’élastique en Afrique. La vidéo a ensuite été mise en ligne sans son autorisation sur YouTube.
Le 9 juin 2012, le journal belge L’Avenir a publié cette vidéo sur son site Internet pour illustrer un article. La spécificité du litige résidait dans le fait que la plaignante n’avait ni autorisé la mise en ligne de la vidéo sur YouTube, ni sa publication par Les Éditions de l’Avenir. La plaignante reprochait au journal d’avoir porté atteinte à ses droits d’auteur en publiant la vidéo sur son site Internet, ainsi qu’une capture d’écran de la vidéo de celle-ci, et en ne reconnaissant pas à Rebecka Jonsson la qualité d’auteure de la vidéo. Les faits en cause se rapprochaient ainsi de ceux l’arrêt européen « GS Media » puisqu’ils portaient sur la publication d’un lien hypertexte vers une oeuvre publiée sans le consentement de son auteur. La juridiction suédoise a donc opportunément appliqué les critères développés par les juges européens.
Dans son jugement, le tribunal d’Attunda répond aux demandes de la plaignante en trois points, dont seul le premier retiendra particulièrement notre attention, les deux autres portant respectivement sur la publication d’une capture d’écran de la vidéo et
sur la qualité d’auteure de la plaignante. La juridiction suédoise commence par énoncer que la notion de « communication au public » doit être interprétée au regard de la directive « DADVSI » et de son analyse par le juge communautaire.
Le journal L’Avenir a, en l’espèce, publié le lien hypertexte litigieux sur son site Internet ; cette forme de mise à disposition du public constitue donc une « communication au public ». Cette communication s’adresse bien à un public distinct (les visiteurs du site web de L’Avenir ) du public visé par l’acte de communication originaire de l’oeuvre, c’est-à-dire un public nouveau. Les deux premiers critères permettant de caractériser un acte de communication au public sont donc satisfaits.

La jurisprudence « GS Media »
La juridiction suédoise s’appuie ensuite sur l’arrêt « GS Media » qui a confirmé que la publication d’un lien hypertexte vers une oeuvre protégée sans le consentement de son auteur constituait bien une communication au public. Dans la même affaire, la CJUE
a décidé que lorsque le fournisseur de lien hypertexte poursuit un but lucratif, sa connaissance de l’illicéité de la source doit être présumée. En l’espèce, Rebecka Jonsson nie avoir consenti à la publication de son film sur YouTube.
Par ailleurs, le journal L’Avenir ayant publié le lien litigieux sur une page d’actualité de son propre site, il poursuit ainsi un but lucratif. Selon le juge suédois, la connaissance du caractère illicite de la publication par le journal L’Avenir doit dès lors être présumée.

La notion de but lucratif
La décision suédoise fait pour la première fois application du critère du but lucratif mis en avant par la CJUE dans l’arrêt « GS Media ». La connaissance de l’illicéité de la publication vers laquelle renvoie le lien hypertexte est ainsi présumée et peut conduire à engager la responsabilité de la personne publiant le lien dans un contexte à but lucratif.
Le critère du but lucratif avait soulevé de nombreuses interrogations, en raison de son imprécision. En effet, comment déterminer si un site Internet – et encore moins un lien – poursuit un but lucratif ? La réponse à cette question doit être apportée par les juges nationaux, la CJUE ayant explicitement décidé que cette appréciation devait être
« individualisée ». Nous pouvons toutefois émettre l’hypothèse que le caractère lucratif d’une publication doit être déterminé selon qu’elle est le fait d’un professionnel ou d’un non-professionnel (3). La juridiction suédoise dessine une première interprétation de l’intention lucrative.
On regrettera toutefois l’absence de justification claire en l’espèce. En effet, le tribunal d’Attunda se contente d’affirmer qu’il apparaissait « évident » que le journal L’Avenir avait publié le lien hypertexte litigieux dans l’intention de réaliser un profit. La juridiction n’explique toutefois pas quels éléments lui ont permis de conclure que le défendeur poursuivait un but lucratif. En application du critère imprécis énoncé par la CJUE, la juridiction suédoise conclut donc à l’existence d’une intention lucrative de manière tout aussi obscure. Il sera donc aisé pour les demandeurs de démontrer l’intention lucrative du fournisseur de lien, et ainsi présumer sa connaissance du caractère illicite de la source vers laquelle pointe le lien hypertexte. Si la CJUE a formulé une présomption
de connaissance du caractère illicite de la source, une présomption simple implicite d’intention lucrative semble également peser sur le fournisseur de lien professionnel.
La présomption de responsabilité serait donc acquise s’agissant de la publication à but lucratif de lien hypertextes renvoyant vers une source illicite.

Les conséquences de la jurisprudence « GS Media » pourraient donc s’avérer plus redoutables qu’imaginées de prime abord, et éventuellement avoir « des conséquences fortement restrictives pour la liberté d’expression et d’information », comme le craignait la Commission européenne.
La présomption d’intention lucrative doublée d’une présomption de connaissance du caractère illicite de la source fait donc peser une présomption de responsabilité extrêmement lourd e s u r les professionnels fournissant des liens hypertextes. Selon les critères énoncés par la CJUE dans l’arrêt « GS Media », après avoir démontré l’existence d’un but lucratif, les personnes publiant des liens hypertextes peuvent encore s’exonérer de leur responsabilité en démontrant avoir accompli « les vérifications nécessaires pour s’assurer que l’oeuvre concernée n’est pas illégalement publiée sur le site auquel mènent lesdits liens hypertexte ».
Une nouvelle fois, la juridiction européenne se garde bien d’expliquer quelles diligences doivent être effectuées par les fournisseurs de liens pour s’assurer de la licéité de la source. Nous pouvons présumer qu’il s’agira de contacter l’éditeur du site web vers lequel le lien renvoi, voire de contacter directement l’auteur ou les ayants droit. La fiabilité du site-source pourrait également être un indice.
La juridiction suédoise réserve un traitement doublement exigeant à l’égard des fournisseurs de liens. Non seulement leur intention lucrative devient très facile à caractériser, mais en plus les titulaires de droits d’auteur bénéficient d’un traitement favorable. En effet, dans cette affaire « Rebecka Jonsson c/ Les Editions de L’Avenir », aucun devoir de vigilance n’était imposé à l’auteure de la vidéo.
Cette dernière a été admise à rechercher la responsabilité du journal, sans avoir à l’informer du caractère illicite de sa publication initiale sur la plateforme YouTube, ni même avoir à démontrer avoir accompli des diligences pour faire retirer le contenu illicite originairement publié sur YouTube.

Obligation lourde de vérification
Cette décision suédoise démontre que, contrairement au droit des marques, aucun devoir de surveillance ne pèse les titulaires de droits d’auteur dans l’utilisation de leurs œuvres. S’agissant des éditeurs de liens, ces derniers sont soumis à une obligation de vérification extrêmement lourde. Dès lors qu’ils fournissent un lien vers une vidéo YouTube ou vers un autre site en ligne, ils devront ainsi s’assurer au préalable que le titulaire initial de droits a autorisé ce site-là à publier l’oeuvre protégée. @