Smart Cities : clarifier l’objectif pour trouver intelligemment le chemin et… l’adhésion du public

Les villes intelligentes sont en vogue partout dans le monde, mais les financements ne suivent pas toujours. « Smart City » désigne des projets
de nature bien différente et, parfois, sert à camoufler précisément l’absence
de moyens, d’ambition voire d’adhésion des populations.

Par Rémy Fekete, avocat associé, Jones Day

La « Smart City » a été placée au coeur de la vision européenne
« Horizon 2020 » lancé il y a quatre ans (1). Ce programme vise
à la mise en place de réalisations « durables », sur un mode
« collaboratif, véloce, économe et frugal » en énergie. Derrière des mots qui sonnent comme des sésames administratifs, l’on trouve pourtant des budgets conséquents, placés sous la gouvernance d’une agence européenne – « Innovation and Networks Executive Agency » (INEA) – qui a déjà déboursé, quand même, de l’ordre de 300 millions d’euros en quatre ans pour une dizaine de projets comportant chacun plusieurs villes européennes de pays différents (2).

Des projets en voie de développement
Le concept de Smart City fait florès depuis un peu moins de dix ans dans les pays en développement. Gage de meilleure gouvernance et de projets innovants, il apparaît parfois comme le sésame permettant de débloquer des fonds des bailleurs internationaux. Ainsi, de la Jordanie aux côtes africaines, a émergé un véritable marché hautement compétitif de projets baptisés, parfois un peu rapidement, de Smart Cities, qui tentent, souvent en opposition les uns aux autres, d’attirer les capitaux étrangers. La période des « zones franches » est passée de mode, vive les « villes intelligentes ». La composante technologique de ces villes est pourtant fort variable. En Arabie saoudite, par exemple, un équipementier a pu prendre la direction d’une ville entièrement nouvelle, intégralement pensée dès son édification comme une citée totalement connectée. La fibre court dans chaque rue et connecte 100 % des logements et entreprises. Le système de vidéosurveillance est intégral et interconnecté avec les systèmes de surveillance internes aux habitations. Les digits des immeubles et parkings reliés à des systèmes de « domotique » permettant d’actionner l’ensemble de ses installations à distance (3).
Autre exemple : Tunis Telecom City (TTC) était un projet « greenfield » (créé ad hoc) prometteur, annoncé il y a dix ans pour un investissement potentiel de 3 milliards de dollars, mais qui manquait de contenus. Développé au bord de la méditerranée dans ce qui n’était qu’un terrain vague, le TTC avait pour ambition de se positionner comme un « hub numérique » régional et d’accueillir les entreprises à valeur ajoutée du secteur. Les atouts n’étaient pas minces si l’on cumule : le cadre fiscal et douanier dérogatoire et particulièrement attractif ; la bonne réputation de la Tunisie en matière de cadre de vie, de santé, de niveau scolaire ; la disponibilité de cadres ingénieurs informaticiens locaux ; et l’inscription de la ville intelligente côtière dans le cadre stratégique global du plan d’aménagement numérique haut débit adopté par le gouvernement. Las, les soubresauts politiques affectant la Tunisie depuis le printemps arabe de 2011, et surtout le manque d’investissement porté sur les éditeurs de contenus à vision régionale, ont eu raison de ce projet prometteur. Le projet tunisien n’est pas le seul à avoir vu une ambition globale de nouvelle ville intelligente numérique se transformer peu à peu en une énième zone franche. Ce qui plaçait le projet dans une concurrence délétère au mieux-disant fiscal par rapport à d’autres pays en développement, précisant ceux dans lesquels les ressources budgétaires font défaut.
Plus au Sud, le projet Sèmè City (4) lancé en 2017 avec un budget pluriannuel de 207 milliards de francs CFA (315 millions d’euros environ) dans les prochaines années veut faire la démonstration d’un « Bénin révélé » – du nom du programme d’investissement et de développement – en dédiant un territoire nouveau à une ville entièrement nouvelle et connectée, dédiée à l’enseignement, à la recherche et à l’incubation de start-up.
Ce qui n’est pas évident lorsque l’Afrique demeure le continent le moins connecté du monde, mais les atouts ne manquent pas : en plus des arguments habituels des zones franches (déductions fiscales et douanières), Sèmè City pourra proposer à ses partenaires la connectivité exceptionnelle que peut fournir le câble sous-marin international ACE (l’Africa Coast to Europe, dont environ 20 % seulement des capacités sont utilisées), et la proximité immédiate du plus grand marché africain : le Nigéria.

Des applications orientées populations
Le projet Sèmè City est entièrement concentré depuis sa genèse sur les contenus à valeur ajoutée à développer localement, et visant des publics ou clientèles cibles en Afrique de l’Ouest. Développer un savoir-faire éditorial local, enseigner les techniques de l’audiovisuel, imaginer les futures médecines douces adaptées aux maladies tropicales, favoriser l’incubation de start-up locales, au service des publics de la sous-région, sont autant d’orientations à même de favoriser l’implantation effective d’investisseurs internationaux, le cadre fiscal attractif n’intervenant qu’en appui.
De Londres à Cotonou, de Amman à Dakar, les projets de Smart Cities germent
dans le monde mais ne fleurissent pas toujours. Au-delà des effets d’annonce et du déploiement d’infrastructures de télécommunications, l’essentiel est ailleurs. Il consiste à donner un contenu réel, de la chair et du goût, à des applications sincèrement orientées vers les besoins des populations.

Smart City, Smart Grid, Smart… Data
Les consommateurs français semblent pour certains encore réticents à livrer les indicateurs de leur vie personnelle au grand nuage du Big Data. Le pêcheur de Sèmè ne sera à défaut pas plus prêt à s’inscrire dans un développement numérique que l’agriculteur de Saint-Macaire (Gironde) n’est enclin à laisser s’installer un compteur électrique connecté Linky. La multiplication des oppositions farouches aux projets de changements technologiques de toute nature rend indispensable un changement de paradigme s’agissant de la prise en considération de la composante humaine. En France, une étude récente dénombre pas moins de 25 Smart Cities, la plupart installées dans des agglomérations anciennes de plus de 200.000 habitants (5). La plupart de ces villes intelligentes disposent d’un service d’opérations data (notamment pour permettre aux usagers de circuler de manière plus intelligente), un wifi linéaire disponible pour le public (lire aussi ci-contre sur le «Wifi4EU » européen), une plateforme participative ou encore des services d’eadministration. Le mobilier urbain, lui, est rendu communiquant et certaines agglomérations vont jusqu’à installer un éclairage public intelligent, et même une collecte intelligente des déchets.
La ville intelligente se définit comme celle d’une agglomération qui met à profit les technologies de l’information pour améliorer la qualité des services rendus et réduire ses coûts. Selon Information Age (6), c’est Bill Clinton aurait mis à l’honneur ce concept en 2005. Depuis, les projets les plus innovants ont fini par imaginer des cités idéales, dignes des romans de science-fiction de Barjavel, dans lesquels l’onirisme rivalise avec une angoisse sourde. La Smart City, qui repose sur la conviction que le numérique, permet de fournir des services parfaitement adaptés à la réalité des existences et ainsi améliorer la vie en communauté au sein d’environnements urbains. Elle nécessite bien évidemment la disponibilité de moyens de communication haut débit. Il n’est pas inutile de rappeler ce postulat, alors que le niveau de qualité de service des accès à Internet demeure notoirement insuffisant au sein de l’Union européenne. La poursuite du déploiement de la fibre, notamment dans le cadre de projets FTTH (7), et l’avènement futur de la couverture 5G devraient aboutir à fournir au citoyen européen, à tout le moins à celui qui vit en ville, la connectivité suffisante à l’utilisation de services administratifs dits « intelligents ». Surtout, le déploiement de réseaux de collectes de données via l’Internet des Objets est en cours. On estime à plus de 50 milliards le nombre d’objets connectés dans le monde d’ici deux ans (2020). Tout est transformé
en capteur de données : l’intégralité du mobilier urbain, les véhicules, la plupart des bâtiments, des objets de la vie quotidienne, les appareils électroménagers, l’outillage sportif et jusqu’aux habits. Comme dans la chanson populaire, « tout, tout, tout, vous saurez tout » (8) sur l’intimité des comportements de vos prochains. Ou presque car, gage de protection des données personnelles, celles-ci sont collectées par un opérateur de réseau IoT (9), elles sont traitées par un agrégateur et leurs enseignements soigneusement sélectionnés en fonction de chaque type de clientèle.
Certes, l’affaire « Cambridge Analytical » touchant Facebook, et son rôle dans le basculement des grands électeurs des Etats du Michigan, du Wisconsin et de la Pennsylvanie en faveur de Donald Trump, ont mis le projecteur sur la facilité d’exploitation de données personnelles pour orienter les convictions d’une partie de
la population. Les armes juridiques ont sans doute évolué depuis, du moins en Europe à la faveur du RGPD (10), il reste que les réticences de la population à l’irruption de collecteurs de données personnelles dans leur vie personnelle ont manifestement été minorée. Les nombreuses oppositions au déploiement du compteur Linky en est une illustration (11). Pourtant cet équipement est au cœur des nombreux projets de Smart Cities et de leur promesse de « smart grid », réseau de distribution d’électricité intelligent : le compteur indique la consommation en temps réel, avec la promesse d’une réduction significative de la consommation des ménages (12). Il promet même
à terme une orientation bidirectionnelle, ce qui devrait permettre à chacun, grâce à
des sources individuelles de production d’énergie (13), de devenir tour à tour consommateur ou fournisseur d’électricité pour son voisinage. @

ZOOM

Wifi4EU : du Wifi gratuit en ville pendant au moins trois ans
L’Union européenne a placé l’accès Internet au centre de sa stratégie de marché unique numérique. L’initiative Wifi4EU est destinée aux communes européennes qui peuvent candidater selon une procédure relativement simple. L’enjeu est l’attribution
de « coupons » de 15.000 euros par appel à candidatures. Cette somme a pour objet l’installation d’un point d’accès Wifi et sa mise en fonctionnement dans un « centre de vie publique ». Il restera à la commune de prendre en charge le coût de l’appel d’offres, la mise en place du réseau de collecte si nécessaire et le coût de la connectivité, tout en s’engageant à fournir un accès totalement gratuit aux utilisateurs pendant une durée d’au moins trois ans. @

Radio France : Sibyle Veil n’abandonne pas le projet de « radio sur mesure » initié par Mathieu Gallet

Mathieu Gallet en avait rêvée pour 2018 ; Sibyle Veil va la faire d’ici 2022 : la radio sur mesure va transformer à l’avenir de Radio France. Cette « radio personnalisée » s’appuiera sur les sept stations du groupe, les comptes-utilisateurs des internautes et l’exploitation de leurs données. Mais il reste à financer le projet.

Il y a un an maintenant, l’ancien président de Radio France, Mathieu Gallet, lançait la plateforme « Un monde de Radio France » offrant une sélection d’émissions de radio en replay issues des programmes de Franceinfo, France Inter, France Bleu, France Culture, France Musique, Fip et Mouv. Et ce, avec la promesse faite aux auditeurs et internautes de pouvoir « se composer leur radio sur mesure dès 2018 » – dixit Mathieu Gallet (1). Cette radio sur mesure devait être lancée par Radio France au premier trimestre de cette année, avec la possibilité pour chaque internaute de créer son compte et sa propre grille de programmes à partir des émissions des sept stations du groupe public. Mais la révocation de Mathieu Gallet en janvier (2) par le Conseil supérieur de l’audiovisuel (CSA), lequel a ensuite nommé en avril sa successeuse Sibyle Veil (photo), n’a pas permis de mener à bien ce projet ambitieux de radio personnalisée. Il y a aussi la complexité du projet et le montant de l’investissement en technologies et infrastructure qui ont renvoyé à plus tard le lancement d’une telle plateforme radiophonique interactive. D’autant que la Maison Ronde est dans une période de restriction budgétaire exigée par l’Etat actionnaire, avec un retour à l’équilibre espéré cette année dans le cadre de la « trajectoire du COM 2015-2019 ».

Comptes-utilisateurs, personnalisation, data, publicités ciblées, …
« Pour l’instant, la personnalisation n’a pas été faite car cela nécessite des équipements très importants. On y travaille avec des start-up [telles que Les Croissants, Radio France étant par ailleurs partenaire de l’incubateur Creatis Media et présent à Station F, ndlr] afin de pouvoir créer des comptes-utilisateur qui permettent de collecter les données d’usage des internautes pour personnaliser les contenus. Cela nécessite techniquement de l’investissement », a expliqué Sibyle Veil devant l’Association des journalistes médias (AFM) le 5 juillet dernier, pour justifier le retard mais en restant vague sur le calendrier de lancement. « C’est un travail sur les trois prochaines années », a-t-elle indiqué. « La radio personnalisée est complexe à faire techniquement. C’est une vraie priorité pour les prochaines années », a-t-elle cependant assuré.

Radio France fait alliance avec la Chine
La présidente de Radio France observe de près ce qui se fait à l’étranger.
« J’étais en Chine récemment où j’ai été voir des radios qui commencent à le faire. On en est aux prémices parce qu’il faut un lien plus direct avec l’internaute et une interaction. Cela suppose un investissement technique et une infrastructure, ainsi qu’une collecte et une analyse de données issues de ces comptes-utilisateur ». Selon nos informations, Sibyle Veil s’est rendue du 22 au 24 juin en Chine – avec une délégation du Premier ministre – où elle est restée une matinée entière à la radio de Shanghaï, SMG Radio, du groupe audiovisuel public Shanghai Media Group (réunissant télés et radios publiques), afin de constater leurs avancées dans ce domaine. A noter que Radio France a intégré en juin le Comité France Chine (CFC).
Mais la radio personnalisée va coûter de l’argent. C’est aussi le message que Sibyle Veil a fait passer auprès des députés et des sénateurs lors de ses auditions respectives des 13 et 6 juin derniers. En creux, le projet de radio sur mesure est suspendu au futur cadrage budgétaire de l’audiovisuel public et surtout à la dotation qui sera votée dans le projet de loi de Finances pour 2019 à l’automne. Celle qui fut auparavant directrice déléguée en charge des opérations et des finances de Radio France table sur « un chiffrage pluriannuel » pour mettre en oeuvre sa stratégie dans le temps et avec une visibilité d’ici à 2022. La nouvelle PDG de la radio publique veut s’inscrire dans la durée – y compris dans le numérique en faisant référence à « la stratégie de long terme de Jeff Bezos sur Amazon ». Et ce, malgré la vaste réforme immédiate de l’audiovisuel public qu’a initiée le président de la République, Emmanuel Macron. Elle a d’ailleurs confié devant l’AJM avoir gardé « une relation d’amitié d’école qui ne va pas au-delà en termes professionnel » – depuis l’ENA d’où ils sont sortis de la même promotion Senghor (2002-2004). Quoi qu’il en soit, son mandat de présidente de Radio France est d’une durée de cinq ans et le projet ambitieux de radio personnalisée est en bonne place dans son projet stratégique 2018-2023 qu’elle a présenté en avril au CSA juste avant d’être retenue (3). A l’heure du Net, le secteur de la radio va être amené à basculer dans le monde de la data et des algorithmes de recommandation. « La personnalisation de la relation avec l’internaute va reposer sur l’exploitation des données d’usage produites à chaque interaction et agrégées au profil de chaque utilisateur.
Pour pouvoir offrir un espace de personnalisation, Radio France devra accentuer ses efforts de recherche et de développement sur l’exploitation de ces données. L’objectif est (…) que l’auditeur/internaute qui entre par un type de programme ou par une marque se voit offrir l’accès à l’univers plus large des contenus de la radio publique », avait-elle expliqué au régulateur de l’audiovisuel, en mentionnant la plateforme « Un monde de Radio
France » mise en place par son prédécesseur pour y parvenir. Cela suppose pour la Maison Ronde de se lancer dans l’analyse des données d’usage nécessaires pour faire des recommandations susceptibles d’enrichir l’écoute, et ce dans un esprit de « prescription culturelle » et de « média de service public ».
« Cela implique de travailler sur un algorithme intelligent ou sur un outil de recommandation ouvert (comme la radio américaine Pandora) paramétré pour ne pas polariser l’usager sur ses seuls centres d’intérêt (4) », avait-elle précisé.
Mathieu Gallet, lui, prenait volontiers en exemple ni la plateforme audio américaine Pandora ni la radio chinoise SMG, mais l’application de radio personnalisée NPR One lancée en 2014 par la radio publique américaine National Public Radio. La personnalisation interactive de ce média revient en quelque sorte à faire en streaming un « Spotify gratuit de la radio » et pourrait sonner à terme le glas des podcasts à télécharger (lire aussi p. 4). Sibyle Veil, elle, va chercher son inspiration ailleurs. « Je suis allé en Chine, en Allemagne ; nous avons des relations avec la RTBF en Belgique et nous allons voir prochainement nos homologues suédois (Sveriges Radio). Toutes les questions sur les évolutions de nos médias, on les partage très fortement avec les autres. Dans les enjeux de transformation, il faut que l’on passe du monde ancien – où l’on parlait marques et audiences – à un monde nouveau du numérique – où l’on parle individu et expérience client. Il faut que l’on arrive à avoir une relation personnalisée avec ceux qui s’intéressent à nos programmes et que, par innovations successives, nous les gardions et les fidélisions », a-t-elle insisté devant l’AJM.

« Ma radio demain » sera ciblée
A cet égard, la prochaine concertation avec le public – qui sera lancée à la rentrée sur une plateforme participative « Ma radio demain » et dont les résultats seront communiqués à l’automne – permettra d’engager une première réflexion en ligne avec le public auditeur-internautes pour cerner avec lui les enjeux radiophoniques futures (audio, texte, image et vidéo) des prochaines années où la radio sur mesure donnera le la. Pour l’heure, la radio linéaire hertzienne de la FM reste comme ailleurs dominante à Radio France (88 % de l’écoute) par rapport au numérique (12 %). Pour l’instant… @

Charles de Laubier

L’Open data risque de se heurter aux droits de propriété intellectuelle des services publics

Le buffet des données publiques est ouvert, mais les administrations réfractaires à l’open data n’ont peut-être pas dit leur dernier mot avec le droit d’auteur. La loi « République numérique » pourrait leur avoir offert une nouvelle arme pour lutter contre la réutilisation de leurs données.

Marie-Hélène Tonnellier (avocat associée) & Corentin Pallot (avocat) – Latournerie Wolfrom Avocats

L’« économie de la donnée » est sur toutes les lèvres, et l’ouverture en grand des vannes des données générées par les services de l’Etat et des collectivités territoriales est présentée par beaucoup comme un sérieux levier de croissance. A voir les données déjà « offertes » au téléchargement par les administrations sur la plateforme publique Data.gouv.fr, l’on comprend aisément tout le potentiel pour les opérateurs économiques : base « Sirene » de l’ Institut national de la statistique et des études économiques (Insee) donnant accès au répertoire de 9 millions d’entreprises et 10 millions d’établissements actifs, mais aussi par ailleurs données de trafic des transporteurs publics, cartes maritimes, liste des fournisseurs des départements, dépenses d’assurance maladie par les caisses primaires et départementales, etc.

Accélération du mouvement open data
Mais l’open data entend dépasser la seule sphère économique et compte s’imposer comme un véritable outil démocratique en permettant à tous, et notamment aux journalistes et aux médias, d’accéder et d’exploiter les masses colossales de données générées par l’administration. Toujours sur la plateforme Data.gouv.fr, développée et animée par la mission Etalab (voir encadré page suivante), les statistiques relatives aux impôts locaux, aux infractions constatées par département ou encore les résultats de tous les établissements scolaires privés et publics français, représentent sans conteste une source exceptionnelle mise à la disposition des journalistes de données (data journalists) pour entrer dans l’intimité du fonctionnement de l’Etat. C’est la loi « pour une République numérique » du 7 octobre 2016 (1), portée par Axelle Lemaire (alors secrétaire d’Etat chargée du Numérique et de l’Innovation), qui a souvent été présentée comme la grande réforme de l’open data. Le chantier avait en réalité été déjà bien entamé dans les mois qui l’avaient précédée. Ainsi le législateur avait-il par exemple décidé d’aller au-delà des impératifs européens en matière de tarification des données, en consacrant purement et simplement le principe de la gratuité avec la loi « Valter » (2). Mais il faut néanmoins reconnaître à Axelle Lemaire une avancée législative notable pour l’open data, qui a d’ailleurs introduit la notion de « service public de la donnée » (3). Parmi ses mesures les plus emblématiques, l’ouverture des données
des services publics industriels et commerciaux apporte un élargissement considérable à la notion d’« information publique ». Alors que la réglementation autorisait jusqu’à cette réforme l’accès à ces données mais en interdisait la libre réutilisation (4), il est à présent possible d’exploiter ces immenses gisements informationnels.
Nous pourrions également citer d’autres nouveautés d’une aide indéniable pour le développement de l’open data, comme l’obligation faite aux administrations de publier en ligne certains documents et informations, tels que les « bases de données, mises à jour de façon régulière, qu’elles produisent ou qu’elles reçoivent et qui ne font pas l’objet d’une diffusion publique par ailleurs » ou encore « les données, mises à jour de façon régulière, dont la publication présente un intérêt économique, social, sanitaire ou environnemental » (5). De même, la contrainte faite aux administrations qui souhaitent soumettre la réutilisation gratuite à des licences de choisir parmi une liste fixée par décret permettra nécessairement une plus grande facilité de réutilisation (6), même
si les administrations conservent néanmoins la possibilité d’élaborer leurs propres licences, à condition néanmoins de les faire homologuer par l’Etat.
Mais qui trop embrasse mal étreint. Et à vouloir border textuellement tous les aspects de l’open data, la loi « République numérique » pourrait avoir offert aux administrations une nouvelle arme pour lutter contre la réutilisation de leurs données, grâce à leurs droits de propriété intellectuelle.

Opposition à la libre-circulation des data
Il existait depuis longtemps un débat sur la faculté pour les administrations d’opposer
à la libre réutilisation de leurs informations publiques leurs droits de propriété intellectuelles sur les documents dans lesquels ces précieuses données figuraient (bases de données, logiciels, etc.). Certes, la Commission d’accès aux documents administratifs ( CADA ) , a u torité administrative chargée de veiller à la liberté d’accès aux documents administratifs, avait eu l’occasion de répondre par la négative à cette question (7).

Propriété intellectuelle et droit d’auteur
Mais la doctrine d’une administration ne suffit pas à faire le droit et la cour administrative d’appel de Bordeaux, en 2015, avait justement jugé le contraire, en considérant que le conseil général du département de la Vienne pouvait opposer son droit sui generis de producteur de bases de données pour s’opposer à la réutilisation des archives publiques de la collectivité (8). Le Code de la propriété intellectuelle permet notamment d’interdire l’« extraction, par transfert permanent ou temporaire de
la totalité ou d’une partie qualitativement ou quantitativement substantielle du contenu d’une base de données sur un autre support, par tout moyen et sous toute forme que ce soit [et la] réutilisation, par la mise à la disposition du public de la totalité ou d’une partie qualitativement ou quantitativement substantielle du contenu de la base, quelle qu’en soit la forme » (9). Saisi de la question, le Conseil d’Etat a rejeté l’argumentaire des magistrats bordelais par un arrêt du 8 février 2017 (10). En interdisant à l’administration d’opposer un quelconque droit de propriété intellectuelle, le Conseil d’Etat apportait ainsi sa pierre à l’édifice de l’open data. Sauf qu’entre-temps le législateur avait à tout prix souhaité légiférer sur le sujet.
Visiblement inquiets, si l’on en croit les discussions parlementaires, de l’arrêt de la
cour administrative de Bordeaux précité, les rédacteurs de la loi ont cru devoir écarter expressément la faculté pour l’administration d’opposer ses droits sui generis de producteur de base de données. Mais l’enfer est pavé de bonnes intentions et, apparemment obnubilés par cet arrêt d’appel, les rédacteurs se sont alors contentés d’interdire aux administrations d’opposer ce droit sui generis sans faire mention des autres droits de la propriété intellectuelle – notamment le droit d’auteur. Les administrations host i les à l’open data ne manqueront probablement pas d’exploiter cette maladresse pour opposer leurs autres droits de propriété intellectuelle. Tout
aussi contraire à l’esprit d’ouverture de la loi , celle-ci cantonne ce t te interdiction d’opposer le droit sui generis de producteur de bases de données à la réutilisation
des seuls contenus de « bases de données que ces administrations ont obligation de publier ». A savoir : les « bases de données, mises à jour de façon régulière, [que les administrations] produisent ou qu’elles reçoivent et qui ne font pas l’objet d’une diffusion publique par ailleurs » (11). Cette disposition ouvre encore ici la voie à une interprétation a contrario des administrations réticentes, puisque seules certaines bases de données doivent impérativement être publiées.
La CADA a eu beau s’émouvoir de ce dangereux excès de précision, la loi a été votée et promulguée en l’état (12). Il existe donc à ce jour une marge d’interprétation et, partant, une source d’inconnu quant à la faculté pour l’administration de s’opposer à la libre réutilisation de données lorsque celles-ci sont contenues dans des documents sur lesquels elle détient des droits de propriété intellectuelle : soit parce qu’elle invoque des droits de propriété intellectuelle autres que ceux du producteur de bases de données, soit parce qu’il s’agit de bases de données dont la publication n’est pas obligatoire.

Des administrations peu enclines à partager
On sait que certaines administrations n’ont pas été particulièrement enchantées par
le mouvement l’ouverture des données publiques, pour diverses raisons : nécessaire surcharge d’activité induite par le travail de mise à disposition, refus de partager leurs précieuses données jalousement conservées depuis des décennies (ou pense notamment aux services publics industriels et commerciaux), manque à gagner puisque certaines administrations monétisaient – parfois fort cher ! – leurs données. Ces administrations ne manqueront certainement pas de s’engouffrer dans la brèche.
La grande razzia sur les données publiques que l’on nous avait annoncée se révèlera peut-être moins facile qu’on nous l’avait promise. @

ZOOM

Google, Microsoft, Orange ou encore Salesforce, partenaires d’Etalab
En France, la politique d’ouverture en ligne des données publiques (Open data) est pilotée par la mission Etalab, placée sous l’autorité du Premier ministre depuis février 2011 et, depuis octobre 2012, rattachée directement au Secrétaire général pour la modernisation de l’action publique. Etalab gère le portail unique interministériel Data.gouv.fr, lequel met « à disposition librement l’ensemble des informations publiques de l’Etat, de ses établissements publics et, si elles le souhaitent, des collectivités territoriales et des personnes de droit public ou de droit privé chargées d’une mission de service public ». Etalab rassemble en outre des acteurs de l’innovation en France au sein d’une communauté appelée Dataconnexions, dans laquelle l’on retrouve Google, Microsoft, Orange ou encore Salesforce parmi les partenaires. C’est dans ce cadre que sont organisés des concours pour encourager l’usage des données publiques et récompenser les projets les plus innovants. Six éditions ont déjà eu lieu. @

Charles de Laubier

Consultation publique sur la publicité online et data

En fait. Le 3 juillet, l’Autorité de la concurrence a présenté son rapport d’activité 2016 (310 décisions et avis rendus, 203 millions d’euros de sanctions). Sa président, Isabelle de Silva, lance en juillet la consultation publique tant attendue sur la publicité en ligne et rendra son avis « à l’automne ».

En clair. L’enquête sectorielle sur « l ’exploitation des données dans le secteur de
la publicité en ligne » suit son cours depuis que l’Autorité de la concurrence s’est autosaisie le 23 mai 2016. Sont auditionnés les différents acteurs de cet écosystème
de plus en plus complexe (voir schéma), afin que « les langues se délient » – dixit Bruno Lasserre, à l’initiative de cette autosaisine lorsqu’il en était encore président (EM@146, p. 3). Selon nos informations, la consultation publique sera lancée mi-juillet. « Nous examinons les risques concurrentiels (hausse de prix, barrières à l’entrée, baisse de l’innovation…) et les différents types de comportements : couplages, exclusivités, conditions d’accès à des ensembles de données, différences de traitement, manque de transparence », a indiqué Isabelle de Silva, présidente de l’Autorité de la concurrence.
L’enquête porte sur les données et les algorithmes de Google, mais aussi ceux des réseaux sociaux tels que Facebook et Twitter, alors que de gros acteurs français (Lagardère Active, M6, SFR/NextRadioTV/L’Express-Libération, Les Echos-Le Parisien, Fnac Darty, Solocal, …) ont lancé le 4 juillet leur alliance Gravity. Et les groupes Le Monde et Le Figaro se sont associés le 6 juillet dans Skyline. Le 1er janvier 2018 entrera en vigueur les obligations de transparence envers les annonceurs @.

Consentement préalable : le futur règlement « ePrivacy » redonne la main aux internautes

Alors que publicitaires et éditeurs s’alarment de la prochaine obligation d’obtenir le consentement préalable des internautes – dès le niveau du navigateur Internet – avant de déposer des cookies, les consommateurs s’apprêtent à reprendre le pouvoir avec le projet de règlement « ePrivacy ».

La Commission européenne veut que sa nouvelle proposition de règlement sur la vie privée et les communications électroniques (ePrivacy) – présentée
en janvier dernier (1) – entre en vigueur le 25 mai 2018
« au plus tard », soit dans un peu moins d’un an maintenant, en même temps le règlement général
« Protection des données » déjà promulgué, lui, le 4 mai 2016. Mais l’une des mesures, à savoir le consentement préalable des internautes avant tout cookie, satisfait les uns (les consommateurs) mais inquiète les autres (les éditeurs de sites web).

Consentement au niveau des navigateurs
Le Bureau européen des Unions de consommateurs (Beuc), lequel compte plus d’une quarantaine de membres dont UFC-Que choisir et la CLCV (2) en France, n’a de cesse de demander « instamment » aux législateurs européens d’adopter des règles obligeant les fournisseurs de services sur Internet à instaurer de « robustes paramètres de confidentialité par défaut » et à « imposer des limites strictes à la collecte des don-
nées ». Selon le Beuc, citant une enquête Eurobaromètre sur la vie privée en ligne,
une grande majorité (82 %) des Européens interrogés considère que « les systèmes
de surveillance de leurs activités en ligne (tels que les cookies) ne devraient pouvoir être activés qu’avec leur consentement préalable ».
Basé à Bruxelles, le Beuc vient de publier son « position paper » – daté de juin (3) –
sur le projet de règlement « ePrivacy » . Il accueille avec satisfaction les dispositions
de l’article 8.1 du projet de règlement qui met le consentement de l’internaute au cœur du dispositif. « La formulation de l’article, qui se réfère “à l’utilisation de traitement et des capacités de stockage” du terminal en plus “de la collecte d’informations” sur un
tel équipement, garantira que toute sorte de mécanisme de suivi à la trace (tracking mecanism) tombera sous le coup de cette disposition, pas seulement des outils traditionnels tels que les cookies », explique l’organisation européenne des consommateurs. Le ciblage publicitaire est, selon le Beuc présidé par le Suédois Örjan Brinkman (photo), l’une des raisons principales de la généralisation du tracking (suivi) et des pratiques de monitoring (surveillance) auxquelles les consommateurs peuvent être soumis. Le Beuc regrette que « l’essentiel du modèle économique sur lequel la publicité est basée a été développé au détriment de la vie privée des consommateurs, sur une surveillance 24h/24 7j/7 et sur une monétisation de chaque mouvement du consommateur par une myriade d’acteurs (publicitaires, éditeurs, réseaux publicitaires, plateformes d’Ad-Exchange, Data Brokers, etc) ». La plupart des internautes en sont inconscients et/ou impuissants face à cette situation. De plus, déplore le Beuc, il n’y a pratiquement aucun autre choix que d’accepter d’être suivi à la trace si vous voulez avoir l’accès au service en ligne. L’article 9.2 du projet de règlement, lui, prévoit la possibilité d’exprimer le consentement préalable en utilisant les paramètres techniques appropriés de logiciel permettant l’accès à Internet. Cette mesure au niveau des navigateurs Internet (4) devrait aider, d’après le Beuc, à réduire le nombre de demandes de consentement et éviter les demandent systématiquement de la part des prestataires de services au risque d’être invasifs pour la vie privée. Et de rappeler que les « Cnil » européenne (réunies dans le G29) ont considéré que – pour être valables – les paramètres techniques pour recueillir le consentement préalable ne peuvent pas être prédéterminés pour accepter tous les cookies en vrac par exemple. Des informations complètes et entièrement visibles sont aussi nécessaires afin de s’assurer d’obtenir un consentement valable de la part de l’internaute. En outre, il ne devrait pas être possible de contourner le choix fait par l’utilisateur dans les paramètres. Quoi qu’il en soit, le Beuc demande au législateur européen à ce que soient bannis les « tracking walls » (barrières d’accès au contenu) qui proposent aux internautes de les suivre en échange d’une levée des restrictions d’accès aux contenus du site web. De même, la désactivation des « anti-tracking tools » (outils anti-surveillance) ne devrait être faite qu’avec le consentement de l’internaute (5).

Les éditeurs de presse et de sites se rebiffent
De leur côté, une trentaine d’éditeurs de presse en Europe ont publié fin mai une
« Lettre ouverte au Parlement européen et au Conseil de l’Union » (6) pour faire part de leurs inquiétudes, notamment sur le consentement préalable à partir des navigateurs :
« Le passage d’un consentement pour la collecte de données sollicité par chaque éditeur de presse en ligne lorsque son site est consulté à un consentement global recueilli par quelques puissantes plateformes, est une mauvaise solution pour l’avenir de la presse ». Plusieurs organisations professionnelles françaises (7) ont-elles aussi exprimé en juin (8) leurs préoccupations. @

Charles de Laubier

La Commission européenne est décidée à favoriser, tout en l’encadrant, l’économie de la data

Dans une communication publiée le 10 janvier 2017, la Commission européenne prévoit de favoriser – tout en l’encadrant – le commerce des données numériques. Cette régulation de la data suppose notamment de réviser dès
cette année la directive de 1996 sur la protection des bases de données.

L’année 2017 sera placée sous le signe de la data. La Commission européenne veut encadrer l’exploitation des données dans une économie de plus en plus numérique.
La communication qu’elle a publiée le 10 janvier, sous le titre
« Construire une économie européenne de la donnée » (1), devait être rendue publique en novembre. Finalement, elle
l’a été avec deux mois de retard et fait l’objet d’une vaste consultation publique – jusqu’au 26 avril prochain.

Une loi européenne d’ici juin 2017 ?
Ces nouvelles règles sur la data utilisée à des fins commerciales doivent mieux encadrer la manière dont les entreprises s’échangent des données numériques entre elles pour développer leur chiffre d’affaires et générer des pro f i t s . I l s’agit d’év i ter que les consommateurs – internautes et mobinautes – soient pris au piège d’accords d’utilisation qu’ils ne pourraient pas refuser, donnant ainsi implicitement à d’autres entreprises que leur fournisseur numérique l’accès à leurs données personnelles. Toutes les entreprises sont potentiellement concernées. Si la communication n’a pas de caractère contraignant, la Commission européenne se réserve la possibilité de légiférer si les entreprises n’appliquaient pas ses suggestions sur le partage de données. Andrus Ansip (photo), viceprésident de la Commissaire européen en charge du Marché unique numérique et – depuis le 1er janvier 2017 – de l’Economie et de la Société numériques (2), a déjà laissé entendre qu’un texte législatif sur la propriété des données et l’accès à ces données pourrait être proposé d’ici juin 2017.
Tous les secteurs de l’économie – industries, services, e-commerce, … – sont en ligne de mire. Déplorant l’absence d’étude d’impact, un cabinet d’avocats (Osborne Clarke)
a recommandé à la Commission européenne de ne pas se précipiter à édicter une nouvelle loi. De nombreux secteurs économiques craignent cette régulation de la data et la perçoivent comme un frein à leur développement. Par exemple, dans l’industrie automobile, l’Association européenne des constructeurs d’automobiles (3) a fait savoir lors d’une conférence à Bruxelles le 1er décembre dernier sur le thème de
« Smart cars: Driven by data » que les données des conducteurs appartenaient aux constructeurs, lesquels pouvaient les vendre à d’autres entreprises. Au moment où la voiture connectée et/ou autonome démarre sur les chapeaux de roue, les industriels
de l’automobile entendent garder la maîtrise des données collectées et leur exploitation comme bon leur semble. Or la Commission européenne souhaite au contraire ne pas laisser faire sans un minimum de règles communes et en appelle à des expérimentations comme dans le cadre du programme CAD (Connected and Autonomous Driving). Les autres secteurs ne sont pas en reste. Cela concerne aussi
le marché de l’énergie (comme les compteurs intelligents), le domaine de la maison connectée, la santé ou encore les technologies financières. En outre, le potentiel de l’Internet des objets (des thermostats aux lunettes connectées), des usines du futur ainsi que de la robotique connectée est sans limite et le flux de données en croissance exponentielle.
Alors que la data constitue plus que jamais le pétrole du XXIe siècle, tant en termes d’économie de marché, de création d’emplois et de progrès social, elle est devenue centrale. L’économie de la donnée est créatrice de valeur pour l’Europe, avec 272 milliards d’euros de chiffre d’affaires généré en 2015 – soit 1,87 % du PIB européen.
Ce montant pourrait, selon les chiffres fournis par la Commission européenne, pourrait atteindre 643 millions d’euros d’ici 2020, soit 3,17 % du PIB européen (4).

Encadrer sans freiner l’innovation
La communication « Construire une économie européenne de la donnée » veut donner une impulsion à l’utilisation des données à des fins lucratives, tout en l’encadrant, sans attendre l’entrée en vigueur à partir du 25 mai 2018 de la nouvelle réglementation européenne sur la protection des données (5). Mais la Commission européenne ne veut pas non plus freiner les Vingt-huit dans le développement de l’économie de la donnée et creuser un peu plus l’écart avec les Etats- Unis. Aussi, voit-elle dans la régulation de la data une manière de contribuer au développement du marché unique numérique en donnant un accès le plus large aux bases de données – au Big Data – et en empêchant les barrières à l’entrée au détriment des nouveaux entrants et de l’innovation. Objectif : favoriser la libre circulation des données au sein de l’Union européenne, ainsi que la libre localisation de ces données dans des data centers, sans que ces échanges et ces stockages se fassent au détriment des consommateurs et de leur libre arbitre. Il s’agit aussi d’éviter la fragmentation du marché unique numérique par des réglementations nationales différentes selon les pays européens. La data se retrouve au cœur du marché unique numérique, que cela soit en termes de flux libres, d’accès, de transfert, de responsabilité, de sécurité, de portabilité, d’interopérabilité et de standardisation.

Pour la libre circulation des données
Dans sa communication « Construire une économie européenne de la donnée », dont un draft était disponible en ligne depuis décembre dernier, Bruxelles réaffirme la libre circulation des données (free flow of data) au sein de l’Union européenne et s’oppose aux barrières réglementaires numériques telles que l’obligation de localiser les données dans le pays concerné (6). Dans le prolongement de sa communication, la Commission européenne discutera avec les Etats membres sur les justifications et la proportionnalité des mesures réglementaires de localisation des données, ainsi que de leurs impacts sur notamment les petites entreprises et les start-up. Bruxelles est prêt à durcir le ton en cas de localisation abusive des données.
Partant du principe que les données peuvent être personnelles ou non personnelles, il est rappelé que la réglementation de 2016 sur la protection des données personnelle (en vigueur à partir de fin mai 2018), s’applique aux premières. Et quand un appareil connecté génère de la donnée qui permet d’identifier une personne, cette donnée est considérée comme étant à caractère personnel jusqu’à ce qu’elle soit anonymisée.
Or, constate la Commission européenne, l’accès aux données au sein des Vingt-huit est limité. La plupart des entreprises utilisant une grande quantité de données le font en interne. La réutilisation des données par des tiers ne se fait pas souvent, les entreprises préférant les garder pour elles-mêmes. De plus, beaucoup d’entreprises n’utilisent pas les possibilités des API (Application Programming Interfaces) qui permettent à différents services d’interagir avec d’autres en utilisant les données extérieures ou en partageant les siennes. Peu d’entreprises sont en outre équipées d’outils ou dotées de compétences pour quantifier la valeur économique de leurs données.
Quant au cadre réglementaire, au niveau européen ou à l’échelon national, il ne les incite pas à valoriser leur capital data. S’il y a bien le nouveau règlement sur la protection des données personnelle, les données brutes impersonnelles produites
par les machines échappent à l’actuel droit sur la propriété intellectuelle faute d’être
« intelligentes ». Tandis que la directive européenne du 11 mars 1996 sur la protection juridique des bases de données permet, elle, aux auteurs de bases de données le droit d’empêcher l’extraction et/ou la réutilisation de tout ou partie de leurs bases de donnés. Sans parler de la nouvelle directive européenne sur le secret des affaires, à transposer par les Etats membres d’ici juin 2018, qui limite l’accès à certaines informations capitales pour l’entreprise. Difficile de s’y retrouver dans ce dédale de textes législatifs. Un cadre réglementaire plus lisible et compréhensible est donc nécessaire, aux yeux de la Commission européenne, pour les données générées par les machines et les objets connectés, sur leur exploitation et leur traçabilité. Faute de quoi, l’économie de la data continuera de relever le plus souvent de relations contractuelles. Or, Bruxelles estime que cela ne suffit pas et qu’il faut un cadre adapté pour les nouveaux entrants et éviter les marchés verrouillés. Ceux que la Commission européenne appelle les propriétaires de facto de données que leurs écosystème génère ont un avantage compétitif sur leur marché, surtout en l’absence de réglementation ou de cadre juridique appropriés.

Afin que les réglementations nationales différentes ne s’imposent au détriment d’une harmonisation communautaire et des services de données transfrontaliers, une législation sur l’accès aux données pourrait voir le jour en Europe afin : d’encadrer le commerce de données générées par les appareils connectés, de faciliter et d’inciter
au partage de telles données, de protéger les investissements et les actifs, d’éviter la divulgation de données sensibles ou confidentielles, et de minimiser les effets de blocage (lockin) dans l’accès aux données.
La Commission européenne prévoit notamment : de réviser en 2017 la directive
« Bases de données » de 1996, de favoriser le développement les API pour faciliter
la création d’écosystèmes numériques, d’édicter des contrats-type portant sur l’exploitation de données, de contrôler les relations contractuelles B2B (7) et d’invalider des clauses abusives, de donner accès aux données d’intérêt général ou issues des services publics (8), d’instaurer un droit des producteurs de données à accorder des licences d’utilisation de ces données, et, enfin, de donner accès à la data contre rémunération.

Responsabilité et assurance
La responsabilité juridique liée à l’exploitation de toutes ces données devra aussi être clarifiée – quitte à envisager la révision de la directive européenne de 1985 sur la responsabilité du fait des produits défectueux (9) – pour prendre en compte les nouveaux écosystèmes tels que l’Internet des objets ou encore la voiture autonome, sans parler des implications au niveau des assurances. @

Charles de Laubier

Le premier quotidien national Le Figaro, détenu par Serge Dassault, ne pèse plus que 20 % du groupe

Il y a un an, le groupe Le Figaro finalisait l’acquisition de CCM Benchmark qui édite Linternaute.com, Commentcamarche.net, Journaldesfemmes.com ou encore Journaldunet.com. Le groupe média de Serge Dassault poursuit sa diversification en ligne, au risque de réduire le quotidien à une portion congrue.

Le groupe Le Figaro devrait réaliser cette année 530 millions d’euros de chiffre d’affaires, soit une hausse de 6 % sur un an (1). Mais son quotidien – le plus ancien de la presse française puisque né il y a… 190 ans et aujourd’hui premier au niveau national (hormis Ouest-France) – ne pèse plus lourd au sein de ce conglomérat de médias, de e-commerce et de hors médias en termes de revenu et de diffusion.

Version numérique à la rescousse
La diversification du groupe Le Figaro, détenu depuis une douzaine d’années par l’industriel milliardaire et sénateur de l’Essonne Serge Dassault (2), a été boostée il y
a un an par l’intégration de la société CCM Benchmark rachetée environ 120 millions d’euros – pour un chiffre d’affaires à l’époque de 36 millions d’euros (a priori stable en 2016) et une bonne rentabilité. Mais le quotidien s’en est retrouvé un peu plus dilué dans cette diversification numérique tous azimuts : le journal papier, déficitaire, devrait à peine dépasser les 100 millions d’euros de chiffre d’affaires cette année, soit seulement 20 % du chiffre d’affaires global du groupe.
Le titre-phare est ainsi largement dépassé par les revenus globaux du digital, lequel devrait peser 35 % du chiffre d’affaires du groupe cette année – et surtout 60 % de ses profits (3). Et à cette dilution du quotidien s’ajoute l’érosion continue de sa diffusion payée, avec un nouveau recul de 2,40 % enregistré sur 2015-2016, d’après l’APCM (ex-OJD) : Le Figaro se vend à 305.387 exemplaires en moyenne par jour. Et encore, ce décompte certifié inclut les ventes quotidiennes moyennes de 47.830 versions numériques – ces exemplaires digitaux qui sont l’équivalent de la totalité du journal papier mais au format tablette ou smartphone. Cette proportion de 20 % de versions numériques va être amenée à croître, le directeur général du groupe, Marc Feuillée (photo), tablant sur 70.000 versions numériques d’ici deux ans. Autrement dit, comme pour l’ensemble des quotidiens de la presse française, ces éditions de type PDF en croissance permettent de garder bonne figure malgré une diffusion imprimée en baisse continue.
Les ventes de celui qui se revendiquait – en Une jusqu’à fin 1999 – être « le premier quotidien national français » font pâle figure au regard de l’audience numérique de l’ensemble « Groupe Figaro CCM Benchmark » qui s’exprime, elle, en millions de visiteurs uniques : 30,5 millions provenant d’ordinateurs, de mobiles et/ou de tablettes en juillet dernier, selon les derniers chiffres « Internet global » en date de Médiamétrie. En octobre cette fois et seulement à partir d’un ordinateur, le nombre de visiteurs uniques est de plus de 23,2 millions – derrière Google (41,6 millions), Microsoft (35,5 millions) et Facebook (27,6 millions). Si l’on s’en tient à l’audience mobile à partir d’un smartphone, celle du « Groupe Figaro CCM Benchmark » dépasse les 16,8 millions de visiteurs uniques au mois d’août (dernière mesure disponible) – derrière Google (34,5 millions) et Facebook (31,8 millions). Seule consolation pour le quotidien, son site web Lefigaro.fr affiche en octobre plus de 9,6 millions de visiteurs uniques sur ordinateur,
ce qui le place devant les 7,9 millions sur Lemonde.fr.
Condamné à trouver des relais de croissance en ligne, afin de résister aux deux rouleaux compresseurs de la publicité en ligne que sont Google et Facebook, le groupe média et hors média de Serge Dassault poursuit sa stratégie d’acquisitions dans le numérique entamée dans les années 2000. Objectif revendiqué : être « le premier groupe média digital français », pendant du « premier quotidien français », quitte à s’éloigner de son métier d’origine d’éditeur de presse en étant de plus en plus e-commerçant, société de services, croisiériste ou encore touropérateur. Cela a commencé avec Météo Consult/La Chaîne Météo (infos météo), Adenclassified devenu Figaro Classifieds (petites annonces (4)), Sport24 (informations sportives), Ticketac (billetterie) et autres sites web thématiques (santé, automobile, …), en passant par la plateforme vidéo pionnière MySkreen, dont l’éditeur français The Skreenhouse Factory était détenu par le groupe Figaro et Habert Dassault Finance (5) jusqu’à sa liquidation début 2015. Après avoir acheté à l’automne dernier Lesmaisonsduvoyage.com, site qui lui apporte 40 millions d’euros de revenu, le groupe a annoncé début décembre s’être emparé de l’agence de publicité en ligne Mensquare spécialisée dans les « contenus de marques » (brand content). A noter que Le Figaro s’aventure aussi dans la VOD via le site de TV magazine (Tvmag.com).

Data, Audience, régie et programmatique
Depuis que le centre névralgique du groupe a basculé dans le numérique, la data est en passe d’occuper une vingtaine de personnes regroupées sous la houlette du Chief Data Officer (CDO), Samuel Profumo. Le groupe de plus en plus hors média a en outre confié toutes les données de ses dizaines de sites web à la société californienne Krux Digital, spécialiste de la gestion de données à des fins publicitaires (6), tandis que ses mesures d’audiences sont assurées par Google Analytics, et sa publicité programmatique par la société new-yorkaise AppNexus. Il y a un an aussi, Media.Figaro est née de la régie du Figaro et de CCM pour constituer une même
« régie globale ». @

Charles de Laubier