Si Facebook devenait has been, Mark Zuckerberg pourrait toujours se faire élire président des Etats-Unis en 2020 !

Le numéro un mondial des réseaux sociaux est à son firmament avec 2,01 milliards d’utilisateurs revendiqués. Mais il doit mettre le paquet s’il ne veut pas être « ubérisé » ni devenir has been auprès des jeunes attirés par Snapchat et d’autres plateformes. En cas d’échec, son PDG fondateur pourrait se reconvertir en… président des Etats-Unis.

Par Charles de Laubier

Mark Zuckerberg (photo), successeur de Donald Trump à la Maison-Blanche en 2020 : ce n’est pas tout à fait une fake news ni une rumeur, et encore moins une fiction politique. C’est une hypothèse prise très au sérieux par l’actuel président des Etats-Unis. Si lui, Donald Trump – milliardaire issu de l’immobilier, 544e fortune mondiale (3,5 milliards de dollars) – a pu être élu à la tête des Etats-Unis en novembre 2016, alors pourquoi Mark Zuckerberg – milliardaire lui aussi, issu du nouveau monde numérique, 5e fortune mondiale (69,8 milliards de dollars) – n’aurait-il pas autant de chance, sinon plus, pour être élu 46e président américain en novembre 2020 ?
Selon le média en ligne Politico, daté du 21 août dernier, cette perspective aussi incroyable soit-elle est bien envisagée par l’équipe de campagne de l’actuel président Trump qui a dressé la liste des adversaires potentiels pour 2020. Ainsi, parmi la douzaine de candidats démocrates possibles pour la prochaine élection présidentielle américaine, il y a un certain Mark Zuckerberg.

Du réseau social au contrat social
Le PDG de Facebook, cocréateur du réseau social en 2004, s’est toujours refusé à envisager un engagement politique. Mais il ne cache pas ses accointances avec le parti démocrate. N’a-t-il pas recruté pour sa fondation Chan Zuckerberg Initiative l’ancien directeur de campagne de Barack Obama en 2008 (David Plouffe) et l’ancien responsable stratégique de la campagne d’Hillary Clinton en 2016 (Joel Benenson) ?
Le PDG fondateur, qui aura seulement 36 ans en 2020 (1), ne se limite pas à ses quelque 95,4 millions d’ »amis » qui le suivent personnellement sur le numéro un mondial des réseaux sociaux. Il aspire aussi à aller à la rencontre des Américains, comme il a pu le faire en janvier dernier en se déplaçant dans différents Etats (Texas, Alaska, Michigan, …) et en allant à la surprise générale jusqu’à aller dîner chez une simple famille de l’Ohio. « Je veux parler à plus de gens sur la manière dont ils vivent, travaillent et pensent sur le futur », avait confié Mark Zuckerberg lors de cette tournée des Etats-Unis.
Ce tour à travers le pays n’a pas manqué d’alimenter les spéculations sur une éventuelle candidature présidentielle, dans trois ans. A tel point que Lire la suite

Efficace au début, la réponse graduée de l’Hadopi – doublement aveugle – ne le serait presque plus

Une étude préconise une autre mise en oeuvre de la réponse graduée afin de la rendre plus efficace. Pour cela, l’Hadopi devrait se concentrer sur les plus gros pirates et traiter tous les procès verbaux – 50.000 par jour – que lui fournissent les organisations d’ayants droits (Alpa, SCPP, SPPF, Sacem et SDRM).

Selon nos informations, le président de l’Hadopi, Christian Phéline (photo de gauche), n’est pas opposé à ce que l’Hadopi concentre ses efforts sur les
« gros poissons » – comprenez les internautes qui échangent le plus de fichiers de musiques et/ou de films sur les réseaux peer-to-peer (sur lesquels porte uniquement la réponse graduée). Ce qualificatif de « gros poissons » a été utilisé dès 2009 par l’Inria (1) dans son programme de recherche intitulé « Angling for Big Fish in BitTorrent » (2).

« Habiliter » le secrétaire général ?
Membre du collège depuis 2012 et président de l’Hadopi depuis un anmaintenant (3), Christian Phéline semble acquis à l’idée de traiter les « Big Fish » parmi l’ensemble des 50.000 procès verbaux d’infraction quotidiens que les ayants droits – de la musique (SCPP, SPPF, Sacem, SDRM) pour une 60 % et de l’audiovisuel (Alpa) pour 40 % – font parvenir à la direction de protection des droits (DPD) de l’autorité. Maintenant
que l’Hadopi a depuis le 1er février son nouveau secrétaire général en la personne de Jean- Michel Linois-Linkovskis (photo de droite), épaulé par Pauline Blassel devenant secrétaire générale déléguée (après avoir assuré l’intérim), il ne resterait plus qu’à
« habiliter » (4) le successeur d’Eric Walter pour réfléchir avec la commission de protection des droits (CPD) – le bras armée de l’autorité présidée par Dominique Guirimand – aux modalités de mise en oeuvre de cette politique plus ciblée et supposée plus efficace. Car, jusqu’à maintenant, seule une minorité des adresses IP repérées par la société nantaise Trident Media Guard (TMG) comme mettant en partage une ou plusieurs oeuvres sous droits est en définitive exploitée et donne lieu
à une demande d’identification du titulaire de l’abonnement : seulement une sur trente-cinq en 2012 et encore une sur six en 2015, selon les chiffres de l’Hadopi cités par l’étude effectuée par Jean Berbinau – lequel fut membre du collège de l’autorité six années durant – et Patrick Waelbroeck, professeur d’économie industrielle et d’économétrie à Télécom ParisTech. Ces travaux ont été publiés en janvier par le département des études, de la prospective et des statistiques (DESP) du ministère
de la Culture et de la Communication (5). « La réponse graduée est aujourd’hui un processus doublement à l’aveugle. D’une part, c’est au hasard que chaque jour calendaire sont choisies (…) les 25.000 adresse IP [pour l’audiovisuel et autant pour la musique, ndlr] qui, au maximum, feront l’objet d’un constat transmis à la CPD. D’autre part, après avoir écarté les constats où plusieurs horaires d’infraction figurent pour une même adresse IP, soit environ un quart des constats, c’est au hasard que la CPD choisit ceux pour lesquels elle va demander au fournisseur d’accès [à Internet] l’identité de l’abonné (…), soit un procès-verbal sur cinq », analysent les deux auteurs qui parlent alors d’« aléa », auquel s’ajoute celui, certes moindre, du processus d’identification des abonnés présumés pirates chez le FAI qui aboutissait seulement dans 72 % des cas en 2012 et encore dans 89 % des cas en 2015.

Conclusion : « Ce double tirage à l’aveugle diminue artificiellement le nombre d’abonnés qui se voient reprocher un nouveau manquement à leur obligation de surveillance de leur accès à Internet. Il n’est pas fondé d’en déduire un changement réel des comportements dans les mêmes proportions (abandon du téléchargement de pair à pair pour d’autres modes d’appropriation des œuvres, légaux ou non [streaming, direct download, etc]) ».
A cause de ces « aléas », seulement 10 % des internautes avertis une première fois
– dans le cadre des e-mails d’avertissement de la réponse graduée – reçoivent une deuxième recommandation en raison de la détection par la CPD de récidives. Selon Jean Berbinau et Patrick Waelbroeck, « ces aléas rendent peu probable de retrouver deux fois le même abonné au cours d’une période de six mois ».

Réponse graduée : pas très efficace
De plus, le taux de saisines comportant des doublons (saisines identiques) avoisine
15 % du total des 60.000 procès-verbaux environ adressés à la CPD par jour : sur les 36.000 saisines quotidiennes de l’industrie musicale, 10 000 sont des doublons ; sur les 24.000 saisines de l’audiovisuel, il n’y a pas de doublons. En effet, il est fréquent que les organisations de l’industrie musicale soient plusieurs à être titulaires de droits sur la même oeuvre qu’elles retrouvent mise à disposition de façon illicite sur les réseaux peer-to-peer. En revanche, puisque l’Alpa (6) est la seule organisation à traquer les pirates de films, de séries, de documentaires ou encore de clips musicaux pour le compte de l’audiovisuel et du cinéma, ce phénomène de redondance n’existe quasiment pas.

Se concentrer sur les « Big Fish »
Une chose est sûre aux yeux des coauteurs : la réponse graduée ne tourne pas à plein régime et pourrait gagner en efficacité. Mais le contrat que les organisation d’ayants droits des industries culturelles ont signé à l’époque – sans cesse renouvelé depuis – avec TMG s’en tient à 50.000 infractions à transmettre chaque jour à la CPD. Pourtant, ces cinq organisations avaient bien obtenu de la Cnil (7) en juin 2010 la possibilité de dresser ensemble un total maximum de 125.000 procès verbaux d’infractions par jour, soit quotidiennement 25.000 saisines possibles de l’Hadopi pour chacune d’entre elles (8). Dans leur contribution intitulée « La réponse graduée : un modèle de simulation du cas français », Jean Berbinau et Patrick Waelbroeck préconisent donc que non seulement l’Hadopi concentre son action sur les adresses IP des plus gros pirates
– les fameux « Big Fish » – mais aussi prenne en compte toutes les infractions « sans se limiter à 25.000 par jour », limite prévue pour chaque organisation dans leur autorisation respective par la Cnil. Aux Etats-Unis, il n’y avait pas de limitation au nombre de signalements dans le cadre du Copyright Alert System (CAS), lequel vient d’ailleurs de s’arrêter après quatre ans de fonctionnement.
Si, toujours selon nos informations, Christian Phéline a accordé une oreille attentive à ces travaux statistiques sur la réponse graduée, il semble que ni l’ancienne présidente de l’Hadopi, Marie-Françoise Marais, ni l’ancienne présidente de la CPD Mireille Imbert-Quaretta (MIQ) – auxquelles Jean Berbinau avait exposé par écrit dès juillet 2011 un argument statistique, suivi en mai 2012 d’un modèle stochastique (9) en vue d’améliorer l’efficacité de la réponse graduée – n’y avaient donné suite. Pourtant,
rien ne s’y opposait a priori car « le système d’information “cible”, qui a remplacé en septembre 2012 le système d’information “prototype” a été dimensionné, sur cahier
des charges de la CPD, pour pouvoir traiter 200.000 saisines par jour »… Seule MIQ était opposée à « concentrer le traitement » sur les « Big Fish », préférant miser, elle, sur la pédagogie du premier avertissement. Quant au secrétaire général de l’Hadopi, Jean-Michel Linois-Linkovskis, il a été tenu récemment tenu au courant de ces travaux et recommandations d’amélioration de la réponse graduée. Son prédécesseur, Eric Walter, avait fait état de son accord sur l’analyse. La présidente de la Cnil, Isabelle Falque-Pierrotin, seraient aussi favorable à une telle évolution pour peu que les organisations d’ayants droits lui en fasse la demande.
Pour l’heure, la réponse graduée est loin d’avoir rempli ses objectifs tels qu’ils étaient présentés dans l’étude d’impact de la loi Hadopi, lors du projet adopté en conseil des ministre le 18 juin 2008. Notamment sur l’hypothèse selon laquelle que « la proportion d’internautes pratiquant l’appropriation illicite de musiques et d’oeuvres audiovisuelles sur les réseaux de pair à pair passe de un sur quatre à un sur quatre-vingt ». Aujourd’hui, d’après une étude de Médiamétrie menée avec l’Alpa, le CNC et TMG et publiée en avril 2016, « cette proportion serait de l’ordre d’un internaute sur huit pour l’audiovisuel, voire d’un sur dix à quinze pour tenir compte du fait que le visiteur d’un site ne devient pas de facto source de mise à disposition de l’oeuvre ». Les deux experts proposent donc – en complément des sondages déclaratifs auprès d’un échantillon représentatif ou d’un logiciel d’observation des équipements d’un panel d’abonnés – une « méthode de simulation » fondée sur « des données observées à chacun des stades de la réponse graduée ».
Les coauteurs font enfin remarquer que leur approche « Big Fish » et non aléatoire
de la réponse graduée complète les études empiriques déjà publiées qui « semblent indiquer soit un effet de courte durée (études Adermon/Liang de 2011 sur le piratage
de musiques et Aguia de 2015), soit un effet non significatif (étude Peukert/Claussen/Kretschmer de 2015) ».

Des effets de substitution induits
D’autres études empiriques « mettent en évidence des effets de substitution » : la réponse graduée aurait par exemple favorisé en France les films américains en salles de cinéma au détriment des films français (étude Bellégo/De Nijs de 2015, Insee) ; elle aurait par ailleurs incité les « petits » pirates à réduire leur activité sur les réseaux peer-to-peer pendant que les « gros » pirates se seraient tournés, eux, « vers des serveurs plus difficilement détectables tout en augmentant leur activité ». De là à dire que la réponse graduée est un coup d’épée dans l’eau dans la lutte contre le piratage, il n’y
a pas loin… @

Charles de Laubier

Droits d’auteur numériques dans le monde : vers 1 milliard d’euros collectés en 2017

La collecte des royalties des droits d’auteur dans les mondes du numérique et du multimédia s’achemine à rythme soutenu vers 1 milliard d’euros, barre qui pourrait être franchie en 2017 si ce n’est l’année suivante. Mais pour l’organisation mondiale des sociétés de gestion collective, ce n’est pas assez.

La Confédération internationale des droits d’auteurs et compositeurs (Cisac), qui réunit 239 sociétés de gestion collective telles que, pour la France, la Sacem, la SACD, la Scam, ou encore la SGDL, n’est toujours pas satisfaite de la collecte des droits d’auteur dans le monde numérique. « La part des revenus du numérique sur l’ensemble des droits collectés par nos membres reste faible à seulement 7,2 %. Ceci est principalement lié à des lacunes juridiques et des lois obsolètes empêchant nos membres d’obtenir une rémunération juste, équitable et proportionnelle de la part des plateformes numériques dans de nombreux pays », a déploré Gadi Oron (photo), directeur général de la Cisac, lors de la publication de son rapport annuel le 23 novembre dernier.

Digital & Multimédia : déjà 622,2 millions d’euros en 2015
Pourtant, sur le total des 8,6 milliards d’euros collectés en 2015 – un nouveau record – par les « Sacem » à travers le monde, les droits d’auteur provenant de ce que la Cisac regroupe dans le poste « Digital & Multimédia » représentent 622,2 millions d’euros. Cela inclut les licences provenant des oeuvres disponibles sur les plateformes numériques telles que Spotify, YouTube, Apple Music ou encore Deezer, mais aussi des créations proposées sur des supports d’enregistrement numérique comme les images sur CD Rom par exemple. Sur un an, la progression de ces royalties provenant du numérique est de 21,4%. Mais l’essentiel de ces revenus, dont bénéficient plus de 4 millions de créateurs dans le monde, provient des droits musicaux qui pèsent 86,8% du total collecté – suivie par les droits audiovisuels pour 6,6 %, les droits littéraires pour 2,3 %, les arts dramatiques pour 2,2% et les arts visuels pour 2,1 %. Bon an mal an, la croissance annuelle des droits d’auteur issus du monde numérique et multimédia oscille de 20% à 30%. Aussi,  Lire la suite

Le nouveau protocole IPv6 pourrait améliorer la diffusion des flux vidéo sur Internet

La loi « République numérique », promulguée le 8 octobre, prévoit qu’« à compter du 1er janvier 2018, tout nouvel équipement terminal (…) doit être compatible avec la norme IPv6 ». Passer d’IPv4, dont les adresses seront épuisées dans
cinq ans, à IPv6 permettrait notamment d’améliorer l’audiovisuel en ligne.

Quel est l’intérêt de passer à IPv6 pour les contenus en ligne ? A priori, aucun ! Sauf qu’à y regarder de plus près, le successeur du protocole IPv4 qui assure les connexions sur Internet permettrait d’améliorer de façon significative les performances des applications mobile. C’est ce qu’affirme par exemple Facebook où le temps de réponse du numéro un des réseaux sociaux est jusqu’à 40 % meilleur sous IPv6 par rapport à un accès mobile sous IPv4.

Quel intérêt « commercial » ?
A l’heure où nombre d’acteurs du Net misent sur la vidéo, le différentiel justifierait à
lui seul l’adoption de ce « nouveau » protocole Internet. « Le protocole IPv6 pourrait permettre un acheminement plus performant des flux vidéo », souligne le rapport de l’Arcep remis en juin dernier au gouvernement français sur « l’état de déploiement du protocole IPv6 en France », et publié le 30 septembre dernier (1). Les services vidéo tels que les plateformes de partage vidéo (YouTube, Dailymotion, …), la VOD, la télévision de rattrapage, les bouquets de chaînes de type Molotov ou encore les publicités vidéo pourraient voir leurs temps de latence réduits grâce à l’IPv6.
Pourtant, malgré l’augmentation de la consommation de vidéo et de contenus dévoreurs de bande passante, tous les terminaux ne sont pas compatibles avec ce nouveau protocole Internet. C’est ce que constate d’ailleurs Akamai, l’un des leaders mondiaux des services de réseau de diffusion de contenu (CDN (2)), dans son dernier rapport trimestriel sur l’état d’Internet : « Il y a une absence de compatibilité d’IPv6
dans certains appareils électroniques grand public (tels que les téléviseurs connectés
et les media players), ce qui représente une barrière à son expansion ».
Alors que la vidéo devient la killer application du Web et des applications mobile, il est paradoxale de constater que le protocole IPv6 – permettant de simplifier certaines fonctions de la couche réseau telles que le routage et la mobilité – peine à être adopté. Et l’on ne peut pas dire que les acteurs du Net sont pris de court : les spécifications techniques d’IPv6 ont une vingtaine d’années d’existence et le lancement mondial de ce protocole par l’Internet Society est intervenu le 6 juin 2012, il y a déjà plus de quatre ans ! Selon l’observatoire « 6Lab » de Cisco (3), la part de contenus en ligne disponible en IPv6 – sur les 500 sites web les plus visités par des internautes en France – est d’environ 52 % à l’heure où nous écrivons ces lignes.
Les adresses IP sont à Internet ce que sont les numéros au téléphone. Sans ce protocole réseau, pas de connexion possible entre terminaux et serveurs. En raison
de la pénurie annoncée d’adresses IPv4, qui sont limitées à un peu plus de 4 milliards différentes, le protocole IPv6 doit débloquer la situation en offrant un nombre presque infini d’adresses : 340 milliards de milliards de milliards de milliards (4), soit 340 sextillions d’adresses ! Selon le Ripe, le forum des réseaux IP européens, l’épuisement du dernier bloc d’adresses IPv4 disponibles est attendu pour 2021 – soit dans seulement cinq ans maintenant. Mais les fournisseurs d’accès à Internet (FAI), les éditeurs de sites web, d’applications mobile et de services en ligne, les hébergeurs,
les plateformes vidéo, ainsi que les intermédiaires techniques et les fabricants de terminaux traînent des pieds depuis des années pour implémenter cette nouvelle norme. Car, comme le constate le rapport de l’Arcep, les acteurs du réseau des réseaux ne voient pas « de bénéfices commerciaux immédiats » à passer d’IPv4 à IPv6. A cela s’ajoutent l’absence de coordination entre les acteurs, le manque de maîtrise et de maturité autour de ce nouveau protocole, et le maintien nécessaire en parallèle des réseaux IPv4.

Retard de la France
Il suffit qu’un des maillons de la chaîne Internet ne supporte pas le nouveau protocole pour que IPv4 soit sollicité. Autant dire que le transport de bout en bout d’une vidéo, par exemple, sous IPv6 n’est pas pour demain. Pour remédier à cet attentisme, le rapport de l’Arcep a préconisé en juin dernier que l’Etat français « montre l’exemple » en rendant accessibles en IPv6 tous les sites web et services publics en ligne.
C’est ce que prévoit la loi « Economie numérique », promulguée le 8 octobre au Journal Officiel après avoir été portée par la secrétaire d’Etat au Numérique et à l’Innovation, Axelle Lemaire (photo), dans son article 16 : « Les administrations (…) encouragent la migration de l’ensemble des composants de ces systèmes d’information vers le protocole IPv6, sous réserve de leur compatibilité, à compter du 1er janvier 2018 ».

Dans la foulée, cette loi – dont on attend maintenant les décrets d’application – prévoir dans son article 42 qu’« à compter du 1er janvier 2018, tout nouvel équipement terminal (…) destiné à la vente ou à la location sur le territoire français doit être compatible avec la norme IPv6 ». En attendant, l’Arcep a promis de publier fin 2016 un premier observatoire de la transition vers IPv6. Mise à part cette volonté politique de rattraper
le retard flagrant de la France dans l’adoption de ce nouveau protocole (voir tableau ci-dessus) , seul capable d’absorber la multiplication des terminaux dans les foyers (plus d’une demi-douzaine) et surtout la montée en charge de la vidéo et de l’Internet des objets, bon nombre d’acteurs du Net ne voient pas encore l’intérêt de se précipiter.

Les FAI sont-ils pro-IPv6 ? Orange en retard
D’autant qu’une technique dite NAT (Network Address Translation), pratiquée par les FAI sur leur « box », permet de partager une unique adresse IPv4 entre plusieurs terminaux et ainsi d’économiser de nombreuses adresses IPv4.
Or, des experts interrogés par l’Arcep, cette pratique généralisée sur le réseau d’un opérateur télécoms – technique dite alors CGN (Carrier Grade NAT) – peut « entraver le fonctionnement de certains protocoles et donc de certains types de services sur Internet » tels que « les applications pair-à-pair et certains modes de jeux en ligne ». Ainsi, plusieurs éditeurs de services en ligne qui utilisent des protocoles peer-to-peer ont dû procéder à des développements afin de s’assurer du bon fonctionnement de leurs services sur des réseaux CGN et éviter les dysfonctionnements. Du côté des FAI, Akamai montre que Verizon est le premier dans le monde à avoir la plus grande proportion (74 %) de requêtes traitées sous IPv6. Il est suivi par T-Mobile (61 %), toujours aux Etats-Unis. Viennent ensuite Sky Broadband (56 %) en Grande-Bretagne, Telenet (54 %) en Belgique et Kabel Deutschland (52 %) en Allemagne.
Tous les autres pays traitent moins de la moitié des requêtes en IPv6 (voir tableau ci-dessus), dont Free et sa filiale Proxad (25 %) en France, cependant mieux disant qu’Orange (15 %).

Dans son rapport au gouvernement, l’Arcep, elle, observe que « plusieurs plans
de déploiements de FAI majeurs en France prévoient d’allouer des adresses IPv6
en priorité aux abonnés FTTH (Fiber-To-The-Home), qui génèrent un trafic significativement plus important que les abonnés xDSL par exemple ».
Orange a en effet annoncé en début d’année 2016 le début des déploiements IPv6 non seulement pour ses clients FTTH mais également VDSL. A noter que, selon le blog The World IPv6 Launch, « plus de 12 % des utilisateurs accèdent maintenant aux services de Google sous IPv6, alors qu’ils étaient moins de 1 % quatre ans auparavant ». Le basculement est en marche. @

Charles de Laubier

Et si la France faisait entrer le haut débit, voire la fibre optique, dans le contenu du service universel?

Le service universel des télécoms n’a pas évolué depuis… 1999 ! Tablant sur un financement mixte public-privé du « Plan France Très haut débit », afin de tenter de connecter toute la population d’ici 2022, la France n’a même pas mis le simple haut débit dans ce dispositif social à prix réduit.

« En Europe, la France doit (…) convaincre l’Union européenne de la nécessité d’inscrire le très haut débit dans le cadre du service universel à fournir aux Européens dans les dix ans
à venir ». C’est une recommandation surprise qu’a faite l’exsecrétaire d’Etat à l’Enseignement supérieur et à la Recherche, Geneviève Fioraso (photo), dans son rapport
« Open Space » remis le 26 juillet dernier au Premier ministre (1). C’est même une proposition que l’on n’attendait pas du tout d’une mission, confiée par Manuel Valls, sur la filière spatiale (2).

Plan Très haut débit insuffisant
Au passage, la députée PS de l’Isère égratigne un peu le déploiement de la fibre optique sur toute la France, en laissant entendre que l’échéance de 2022 – chère au président de la République, François Hollande – ne sera pas tenue et que cela serait hors de prix : « Si ce déploiement se déroule aujourd’hui rapidement dans les zones
les plus denses et les plus rentables, la fibre ne devrait pas couvrir plus de 80 % de
la population d’ici 2022, pour un coût d’investissement public/privé estimé entre 15
et 20 milliards d’euros. Il faudra probablement 15 à 20 milliards d’euros et dix ans supplémentaires pour couvrir en fibre les 20 % restants ». C’est là que le recours au dispositif du service universel pourrait non seulement palier aux insuffisances des investissements des opérateurs télécoms et des collectivités locales, mais aussi rendre le très haut débit accessible aux plus démunis. A l’heure où le chômage en France culmine à 10 % de la population active (3,5 millions de personnes) et où l’on compte près de 8 millions de pauvre (selon l’Insee), la question même de l’évolution du contenu du service universel mériterait d’être à l’ordre du jour.
Mais comment imaginer que le gouvernement français puisse plaider sérieusement auprès de la Commission européenne pour l’intégration du très haut débit dans le service universel, alors que la France n’y a jamais mis ne serait-ce que le haut débit
de base ? Car bien que les composantes du service universel soient limitées à trois (téléphonie fixe, annuaires-renseignements téléphoniques et publiphonie) par le droit européen, en l’occurrence la directive « Service universel » de 2002 modifiée en 2009, Bruxelles laisse cependant les Etats décider en ce qui concerne le haut débit fixe – mais pas le haut débit mobile, la téléphonie mobile restant exclue du service universel en raison de la forte concurrence tarifaire. Toutefois, pour l’élargissement au haut débit fixe, la Commission européenne veille à ce qu’il n’y ait pas de distorsion de concurrence. Comme la France n’a jamais jugé bon de mettre le haut débit dans le service universel, ce dernier n’a pas évolué depuis un certain décret du 9 mars 1999… La fourniture de services d’accès à Internet à haut débit s’en trouve toujours exclue ; seul l’accès à un réseau prenant notamment en charge « les communications de données à des débits suffisants pour permettre un accès fonctionnel à l’Internet » est compris dans la composante « téléphonie fixe » du service universel. Et ce n’est pas faute, pour le Conseil Constitutionnel, d’avoir considéré dans sa décision « Hadopi » du 10 juin 2009 que l’accès à l’Internet faisait partie des libertés fondamentales garanties par la Constitution de 1958 : « La libre communication des pensées et des opinions est un des droits les plus précieux de l’homme (3) (…) Ce droit implique la liberté d’accéder à ces services [en ligne]». De là à dire que ne pas mettre l’accès haut débit à Internet dans le service universel est donc contraire à la Constitution, il n’y a qu’un pas.
Jacques Pomonti, alors président de l’Association française des utilisateurs de télécommunications (Afutt), avait rappelé en février 2014 à Edition Multimédi@ qu’il avait déjà défendu cette idée-là en 2000 auprès du ministre de l’Industrie de l’époque, Christian Pierret, lequel l’avait porté – mais sans succès – au niveau du Conseil des ministres européens (4). « L’inclusion d’Internet haut débit dans le service universel fait malheureusement toujours défaut », avait déjà déploré l’eurodéputé et rapporteur du Paquet télécom Catherine Trautmann, à l’occasion du Conseil européen du numérique d’octobre 2013.

Reste encore à convaincre l’Europe
En tout cas, cette question a l’appui du Comité économique et social européen (Cese). Mais les opérateurs télécoms, eux, sont hostiles à cet élargissement. « Un financement par l’Etat ou un financement mixte est également possible et même encouragé par la Commission européenne dans sa communication (…) de 2011, en cas d’inclusion dans le périmètre du service universel de l’accès à un réseau fixe à haut débit », a toutefois rappelé en octobre 2014 le rapport parlementaire Camani-Verdier consacré à l’évolution du service universel. @

Charles de Laubier

Droit voisin : la presse veut faire payer les moteurs Internet pour l’utilisation de liens vers les articles

La presse française demandent à bénéficier d’un « droit voisins » du droit d’auteur, afin de faire payer les moteurs de recherche et les sites web pour le référencement de leurs articles. Le CFC l’applique déjà aux liens hypertextes.
Un rapport commandité par le CSPLA doit être remis le 30 juillet.

C’est le 30 juillet que Laurence Franceschini (photo), ancienne directrice de la DGMIC (Médias et Industries culturelles) au ministère de la Culture et de la Communication, et actuelle « personnalité qualifiée »
à l’Hadopi, doit rendre au Conseil supérieur de la propriété littéraire et artistique (CSPLA) un rapport sur « la création d’un droit voisin pour les éditeurs de presse ».

 

La Commission européenne s’interroge
Cette mission a pour but d’aider le gouvernement à répondre à la consultation publique que la Commission européenne a lancée en mars pour savoir « si les éditeurs de journaux, magazines, livres et revues scientifiques rencontrent des problèmes dans l’environnement numérique en raison du cadre juridique actuel, notamment pour ce qui concerne leur capacité à délivrer des licences et à être rémunérés pour l’utilisation de leurs contenus ». En d’autre termes, il s’agit de savoir quel pourrait être l’impact de
« l’octroi d’un droit voisin » aux éditeurs en Europe sur l’ensemble du secteur de l’édition, sur les citoyens européens et sur les industries créatives. Ce droit voisin permettrait aux éditeurs – presse écrite, audiovisuelle et agence de presse – de demander des comptes aux moteurs de recherche et aux sites web agrégateurs de contenus ou de référencement d’articles en ligne (Google News, Twitter, MSN, Yahoo News, …), et d’exiger d’eux de percevoir des redevances de cette exploitation de liens hypertextes indexés. En 2012, déjà, l’Association de la presse d’information politique
et générale (AIPG) avait été à l’origine d’un projet de proposition de loi intitulé « Droits voisin pour les organismes de presse ». Pour Le Figaro, Lagardère Active, La Croix, Les Echos ou encore la SPQR (1), il s’agissait alors de punir de trois ans de prison et 300.000 euros d’amendes – prévu à l’article 335-4 du code de la propriété intellectuelle (CPI) (2) – tout site web, blog, moteur de recherche ou encore agrégateur qui reproduiraient des articles de presse ou qui publieraient un lien hypertexte vers
cet article – sauf s’il est déjà accessible librement selon le souhait de l’éditeur… Actuellement, les éditeurs – notamment de presse – ne bénéficient pas de droit voisins qui est similaire au droit d’auteur sans pour autant relever de la création originale de l’auteur. En France, avant la loi « Lang » de 1985, les artistes, interprètes et comédiens ne recevaient aucune rémunération directe sur la diffusion et rediffusion des œuvres (musiques et films). Seuls le compositeur de musique, le parolier et leurs éditeurs ou producteurs percevaient une rémunération : l’artiste-interprète, lui, ne recevait pas de royalties de ses droits mais seulement un pourcentage, sur la vente des disques par exemple.

Sans attendre l’issue de la mission du CSPLA ni les conclusions encore à venir de
la consultation européenne, il est un organisme en France qui monétise déjà les référencements de la presse en ligne : le Centre français d’exploitation du droit de copie (CFC), placé sous la tutelle du ministère de la Culture et de la Communication. Chargé par les éditeurs de presse de collecter et de leur reverser les redevances dues par les entreprises ou les administrations qui effectuent des copies papier et/ou numériques (revue et panoramas de presse numériques via intranets ou extranet), ainsi que par des sociétés spécialisées dans des prestations de veille telles que l’Argus de la presse ou Kantar Media, le CFC vient en effet de rajouter une corde à son arc. Il a mis en place
« un nouveau dispositif contractuel » pour, d’une part, permettre aux éditeurs de presse de lui confier la gestion de leurs droits sur leurs contenus en matière de veille web,
et, d’autre part, d’autoriser les nouveaux prestataires de veille web et d’indexation de contenus en ligne (sites de presse, blogs, réseaux sociaux, forums, etc.) de faire des liens hypertextes pointant vers les articles recherchés. Et ce, en contrepartie d’une rémunération destinées aux éditeurs de presse. « Le contrat d’autorisation permet au prestataire de veille web de réaliser, pour le compte de ses clients, son activité de surveillance et d’analyse des sites web des éditeurs de presse qui ont confié la gestion de leurs droits au CFC », explique l’organisme de gestion collective.

La « veille web » n’est pas de reproduire
Le prestataire de veille web est tenu de déclarer à ce dernier et pour chacun de ses clients : le nombre de prestations commandées, le nombre d’hyperliens pour chacune d’elles ventilé par adresses Internet concernées, ainsi que le nombre d’hyperliens stockés. « Bien entendu, le contrat de veille web n’autorise pas la fourniture de contenus aux clients sous forme de reproduction », précise bien le CFC, étant donné que reproduire des articles sur supports papier et/ou numériques fait l’objet d’un autre contrat spécifique pour pouvoir effectuer des panoramas de presse ou de prestation dite de press clipping. @

Charles de Laubier

 

Olivier Huart, PDG de TDF, craint un « tsunami pour la télévision » et appelle les chaînes à jouer collectif

A la tête de TDF depuis maintenant plus de six ans, Olivier Huart a lancé le 14 juin dernier un appel à l’union aux éditeurs de chaînes de télévision afin de lancer en France une plateforme numérique commune – sur le modèle de Freeview en Grande-Bretagne, où toutes les chaînes sont accessibles.

Olivier Huard« Pour la télévision de demain, il faut penser collectif – esprit collectif. Mon appel, je l’adresse à tous les acteurs de la télévision (…) : unissez-vous, unissons-nous. C’est comme ça que la vague du numérique ne se transformera pas en tsunami pour la télévision », a lancé le 14 juin Olivier Huart (photo), le PDG de TDF (1). « La télévision de demain nécessite de basculer vers un monde multipolaire, beaucoup plus hybride pour intégrer la TNT au coeur de l’écosystème digital. (…) Ce monde multipolaire impose également de travailler de manière beaucoup plus collaborative. Les chaînes seront encore puissantes dans vingt ans. Mais à une condition : qu’elles joignent leurs forces pour faire le saut numérique », a-t-il prévenu.

Vers une plateforme TV-replay commune, et un canal TNT dédié 4 K ?
Le patron de TDF, qui intervenait à l’occasion d’une conférence organisée par l’institut Idate (2), a pris en exemple la plateforme TNT Freeview en Grande-Bretagne, qui, forte de ses 60 chaînes et jusqu’à 15 chaînes HD diffusées par voie hertzienne, a lancé en octobre 2015 « Freeview Play », un guide de programme en ligne permettant de voir et revoir en télévision de rattrapage (replay) tous les programmes. Et ce, gratuitement et dans un délai de sept jours, pour peu que le téléviseur ou le magnétoscope numérique soient connectés à Internet. Pour Olivier Huart, il est temps de lancer une telle plateforme TNT-replay en France. D’où son appel aux éditeurs de la télévision français, TF1, M6, France Télévisions, Canal+ et aux autres chaînes de la TNT qui en compte au total 26 gratuites. « Le modèle Freeview est très inspirant et répond à bon nombre de nos défis actuels. Freeview est Lire la suite