Livre numérique : le format ouvert Epub est en passe d’intégrer le W3C, le consortium du Web

C’est un moment historique pour le jeune monde de l’édition numérique. Le format ouvert Epub (electronic publication), conçu par l’International Digital Publishing Forum (IDPF) pour développer des livres numériques, va devenir à partir du 1er janvier 2017 un standard du World Wide Web consortium (W3C). Les membres de l’IDPF viennent d’approuver ce ralliement.

tim-berners-leeLes membres l’International Digital Publishing Forum (IDPF), à l’origine du format ouvert Epub et ses évolutions pour le livre numérique, avaient jusqu’au 4 novembre dernier pour voter en faveur du projet de ralliement de leur organisation au World Wide Web consortium (W3C). C’est chose faite : 88 % d’entre eux ont voté pour et seulement 12 % contre.
Parmi les membres de l’IDPF, qui se sont prononcés en vue de confier à partir du 1er janvier 2017 l’avenir du format Epub au W3C, l’on retrouve, pour la France, Editis, Hachette Livre, Izneo (Média Participations), Actes Sud, Dilicom, le Syndicat national de l’édition (SNE), le Cercle de la librairie (Electre), le Syndicat des distributeurs de loisirs culturels (SDLC) ou encore la plateforme de livres numériques Youboox(1).

Alliance du livre et du Web
C’est le 13 octobre dernier que le conseil d’administration de l’IDPF, présidé par Garth Conboy, en charge chez Google de l’ingénierie logiciel et de la normalisation (2), avait approuvé le plan de transfert vers le W3C qui vient d’être soumis aux membres. Comme le préconisent les dirigeants de l’IDPF(3), et malgré des opposants tels que OverDrive ou Microsoft, il ne faisait aucun doute que le vote allait entériner la décision d’intégrer le consortium du Web fondé en 1994 et aujourd’hui dirigé par Tim Berners-Lee (photo), l’inventeur du World Wide Web. « Nous partageons une vision excitante entre le W3C et l’IDPF de pleinement harmoniser l’industrie de l’édition et le coeur de la technologie Web. Cela va créer un environnement média enrichi pour l’édition numérique qui ouvre de nouvelles possibilités pour les lecteurs, les auteurs et les éditeurs », avait déclaré le célèbre informaticien et physicien britannique en mai dernier lors du BookExpo America 2016 à Chicago. « Pensez au livres Lire la suite

L’affaire « Microsoft » : la localisation des données et l’extraterritorialité en question

Le 14 juillet 2016, la cour d’appel fédérale de Manhattan aux Etats-Unis a décidé qu’un mandat de perquisition ne permettait pas aux autorités américaines d’obtenir des données stockées par Microsoft en Irlande, car un tel mandat ne peut avoir d’effets en dehors des frontières des Etats-Unis.
Quel impact en Europe ?

Par Winston Maxwell (photo), avocat associé, Hogan Lovells

winston-maxwellL’arrêt « Microsoft » a le mérite de préciser l’étendue territoriale des pouvoirs de police aux Etats-Unis et de relancer le débat sur la localisation des données. Cette affaire commence en décembre 2013 lorsqu’un magistrat ordonne à la firme de Redmond de livrer aux services du procureur de l’Etat de New York le contenu de courriers électroniques appartenant à une personne suspectée de trafic de drogues.
Microsoft a livré les métadonnées concernant le compte e-mail du suspect, mais a refusé de livrer le contenu des e-mails, car celui-ci était hébergé en Irlande. Selon Microsoft, les effets de l’ordonnance du magistrat s’arrêtaient aux frontières des Etats-Unis. En première instance, le magistrat a sanctionné Microsoft en 2014 pour avoir désobéi à son ordonnance.

Perquisitions et frontières
Après une procédure d’appel médiatisée et impliquant de nombreuses interventions volontaires, la cour d’appel fédérale a donné raison à Microsoft. La loi américaine permet à la police d’accéder au contenu d’e-mails uniquement après la délivrance par un juge d’un « mandat de perquisition » (warrant). Il s’agit du même outil juridique que celui utilisé pour la fouille d’une maison, par exemple. Selon Microsoft, un mandat de perquisition émis par un juge américain ne pouvait pas produire d’effets en dehors des Etats-Unis.
Le gouvernement américain soutenait, au contraire, qu’aucune fouille n’était nécessaire en dehors des Etats-Unis puisque Microsoft pouvait – à partir de son siège à Redmond (Etat de Washington) – récupérer les données irlandaises par un simple manœuvre technique. Pour le gouvernement américain, la localisation des données n’était pas importante dès lors que le fournisseur de service était situé aux Etats-Unis,
et il pouvait donc accéder à ces données.
La position du gouvernement américain converge avec l’article 57-1 du Code de procédure pénale en France, lequel permet à la police, sous certaines conditions, d’accéder à des données hébergées à l’étranger si un accès à ces données est autorisé en France.
La cour d’appel américaine n’a pas voulu rentrer dans la logique du gouvernement des Etats-Unis. La cour s’est focalisée avant tout sur l’intention du législateur américain. Selon l’arrêt du 16 juillet, une portée extraterritoriale ne peut découler implicitement d’une loi : il faut que la loi prévoie cette portée extraterritoriale explicitement. C’est le cas de certaines lois américaines qui visent de manière explicite des actes commis à l’étranger (actes de terrorisme, ou tourisme sexuel impliquant des mineurs, etc.). Cependant, si la loi ne dit rien sur l’extraterritorialité, la loi doit être lue comme étant limitée au territoire national. Selon la cour d’appel, seul le législateur est habilité à
gérer les questions délicates d’extraterritorialité et des relations internationales. L’extraterritorialité doit être explicite. La loi américaine sur la protection des communications électroniques est silencieuse sur la question territoriale. Pour la cour fédérale, la loi ne peut donc produire d’effets au-delà de la frontière des Etats-Unis.
Par conséquent, le gouvernement ne peut pas utiliser un mandat de perquisition pour forcer Microsoft à livrer des données hébergées en Irlande (1).
Le débat n’est pas clos pour autant, car le gouvernement américain pourrait porter cette affaire devant la Cour Suprême.

Plusieurs enseignements
La décision nous livre plusieurs enseignements. Le premier est qu’en matière d’enquêtes judiciaires, la loi américaine fournit autant de protections aux individus
que la loi française. L’intervention d’un juge est nécessaire, comme pour la fouille
d’un domicile. En matière de protection des données à caractère personnel, la loi américaine sur les enquêtes criminelles ne peut guère être considérée comme étant
« inadéquate », car elle fournit autant de garanties que la loi française.
Certes, les services de renseignement américains ne sont pas tenus, eux, d’obtenir
un mandat avant de collecter des données, y compris hors des Etats-Unis. Ce point
est reproché aux Etats-Unis dans le contexte du nouveau « Privacy Shield » (2). Cependant, aucun pays européen n’impose une telle exigence à ses agences du renseignement. En France, par exemple, les agences du renseignement peuvent collecter des données concernant des communications internationales avec la seule autorisation du Premier ministre. L’erreur serait de comparer l’encadrement des activités de renseignement aux Etats-Unis avec l’encadrement des enquêtes
judiciaires en France. Les deux ne sont pas comparables. Seule une comparaison
« renseignement- renseignement » serait pertinent.

L’extraterritorialité ne se présume pas
Le deuxième enseignement de l’affaire Microsoft concerne localisation des données. Est-ce que la localisation physique des données compte ? En juillet, la Russie a adopté une loi qui étend considérablement l’obligation de stocker des données sur le territoire russe. Un amendement au projet de loi « République numérique » adopté au Sénat aurait créé une obligation de stocker des données sur le territoire français. Cet amendement n’a pas été repris dans la version du texte adoptée en juillet 2016 (3). Certaines lois chinoises prévoient l’obligation de stocker des données sur le territoire chinois. Face aux risques de la mondialisation, certains Etats voient dans la localisation des données un moyen de réaffirmer leur souveraineté. La décision Microsoft semble confirmer que la localisation physique des données peut avoir un impact sur les pouvoirs des autorités nationales.
Mais ce n’est pas si simple. Une loi nationale peut prévoir la possibilité pour les autorités d’accéder à des données hors de son territoire s’il existe un accès dans le territoire (en France, article 57-1 Code de la procédure pénale), voire la possibilité d’intercepter des données à l’étranger (article L854-1 du Code de la Sécurité intérieure). La leçon de l’affaire Microsoft est que la loi doit être précise sur ce point,
car l’extraterritorialité ne se présume pas.
Sur la question de la localisation des données, le nouveau règlement européen du 27 avril 2016 sur la protection des données à caractère personnel (4) est ambivalent, voire contradictoire. D’un côté, la localisation des données n’est pas importante, car tout traitement effectué dans le cadre des activités d’un établissement en Europe – ou lié à l’offre de services en Europe – est couvert par ce règlement, même si les données sont stockées en dehors de l’Europe. Le règlement précise d’ailleurs que le lieu du traitement est sans importance. De l’autre côté, le règlement impose des contraintes particulières pour tout transfert de données en dehors de l’Union européenne, ce qui du coup donne une importance à la localisation. Les prestataires de cloud expliqueront que les données sont stockées partout, et que cette architecture contribue à la sécurité, à la fiabilité, et au faible coût du service.
Mais après l’affaire « Snowden » (5), les fournisseurs de cloud mettent en avant des solutions de stockage 100 % européen, voire 100 % français. Les lois russes et chinoises vont dans le sens d’une localisation forcée des données sur le territoire,
sans parler de lois turques ou iraniennes (6). Dans le cadre de ses travaux sur le marché numérique unique, la Commission européenne dresse un inventaire sur les
cas de « localisation forcée » des données (7), et souligne la nécessité de permettre
la libre circulation des données afin de favoriser l’innovation, la croissance, et la liberté d’expression. Le débat sur la localisation des données s’accompagne d’un débat sur le chiffrement, car une donnée stockée localement n’est guère utile si elle ne peut être déchiffrée. La loi française oblige les fournisseurs de moyens de cryptologie à décrypter des messages, sauf si les prestataires « démontrent qu’ils ne sont pas en mesure de satisfaire à des réquisitions » (article L871-1 du Code de la Sécurité intérieure). Au moment où les gouvernements français et allemand plaident pour des pouvoirs accrus en matière de déchiffrement (8), la présidente de la Commission nationale de l’informatique et des libertés (Cnil) rappelle, dans une tribune qu’elle a cosignée (9), l’importance du chiffrement dans la protection des données à caractère personnel. @

ZOOM

Microsoft résiste encore et toujours à Washington
La firme de Redmond, dans l’Etat de Washington, a décidément maille à partir
avec l’administration de Washington. En effet, en avril 2016, Microsoft a porté plainte
– devant un tribunal fédéral de Seattle – contre le gouvernement américain en l’accusant de violer la Constitution des Etats-Unis en empêchant le géant américain
de l’informatique et du Net d’informer ses milliers de clients des requêtes « secrètes » de l’administration américaine – sous couvert de l’Electronic Communications Privacy Act (ECPA) – pour avoir accès à leurs e-mails et données personnelles.
Cette affaire rappelle celle de l’iPhone qu’Apple avait refusé de débloquer à la demande la police fédérale (FBI) – finalement abandonnée – à la suite de la tuerie de San Bernardino en décembre 2015. @

Aides d’Etat à la presse : coup de pouce au digital

En fait. Le 27 août, est paru le décret daté de la veille consacré « au soutien à l’émergence et à l’innovation dans la presse et réformant les aides à la presse ». Il crée notamment un Fonds de soutien à l’émergence et à l’innovation dans la presse, destiné aux « nouveaux médias d’information ».

En clair. Cette réforme des aides d’Etat à la presse est la bienvenue, en ce qu’elle prend mieux en compte l’émergence des « nouveaux médias d’information », lesquels étaient jusqu’alors moins bien lotis. Comme le soulignait le Syndicat de la presse indépendante d’information en ligne (Spiil), les aides publiques allaient en très grande majorité au seul support papier pourtant en décroissance. « Le Fonds stratégique pour le développement de la presse ne représente que 8 % des aides directes, et moins de 1% du total des aides. (…) L’introduction de telles distorsions est de nature à freiner l’adaptation de la presse à l’évolution des usages », déplorait-il lors de la publication
fin juin de son bilan détaillé et richement illustré (1) de ces aides d’Etat.
Elles se sont élevées à 1,4 milliard d’euros en 2015, soit 19% du chiffre d’affaires de la presse française en général et même 22,5 % pour la presse d’information politique et générale, dite IPG (Le Monde, Le Figaro, Libération, Le Parisien, …). Ce montant est constitué essentiellement des aides indirectes, à commencer par des tarifs postaux préférentiels et des exonérations foncières (2). Comment expliquer surtout que les aides publiques directes à la presse soient très majoritairement attribuées au support papier, alors que la presse se lit autant en numérique qu’en version imprimée ? Quant aux aides indirectes de l’Etat, elle ne s’élèvent qu’à 108 millions d’euros en 2015 incluant un petit 1% pour l’innovation. Autant dire que la presse numérique recueille
des miettes de ce vaste gâteau. C’est ce que tente de corriger le décret du 27 août.
Les appels à projets seront lancés avant la fin de l’année. Le nouveau Fonds de soutien à l’émergence et à l’innovation dans la presse sera doté de 2 millions d’euros dès cette année, somme qui sera augmentée l’année prochaine. Ces aides seront attribuées sous forme de bourse de 50.000 euros maximum, d’aides aux prestataires de nouveaux médias, ou encore d’aides aux programmes de recherche innovants.
Quant au Fonds stratégique pour le développement à la presse, il sera élargi « aux titres de presse en ligne de la connaissance et du savoir et à tous les titres de presse d’IPG, quelle que soit leur périodicité ». La réforme des aides à la presse avait été engagée par la précédente ministre de la Culture et de la Communication, Fleur Pellerin. @

Pokémon Go devrait atteindre 1 milliard de dollars cumulés de chiffre d’affaires dès cet automne !

L’engouement fulgurant et planétaire pour l’application mobile Pokémon Go, créée par l’Américain John Hanke, fondateur et dirigeant de la start-up Niantic, est sans précédent. Il pourrait lui faire gagner beaucoup d’argent, ainsi qu’à ses actionnaires : The Pokemon Company, Alphabet (Google) et Nintendo.

Lancée mondialement en juillet sur App Store et sur Google Play, l’application de jeu sur mobile Pokémon Go – éditée par
la start-up américaine Niantic – a généré en deux mois (juillet et août) plus de 310 millions de dollars de chiffre d’affaires cumulé. C’est ce qu’a indiqué à Edition Multimédi@ Randy Nelson, spécialiste mobile de la société de développement Sensor Tower, qui a révélé les premières estimations.
Pokémon Go a ainsi surpassé les autres jeux mobile du moment : Clash Royale lancé par Supercell en mars, Candy Crunsh Soda Saga édité par King Digital, et Angry Birds 2 de Rovio. A observer la courbe de progression exponentielle des revenus de ce jeu-phénomène de réalité augmentée, il y a fort à parier que le cumule atteigne dès cet automne 1 milliard de dollars de recettes ! « C’est possible », nous répond Randy Nelson. La société d’analyse App Annie prévoit, elle, que ce seuil sera atteint d’ici la fin de l’année. Le démarrage sur les chapeaux de roues du jeu de Niantic est du jamais vu pour un jeu sur mobile, selon le Guinness des Records qui a certifié le record de 130 millions de téléchargement effectués en un mois de par le monde depuis le lancement initial de Pokémon Go le 6 juillet dernier – et le 24 juillet en France – et de 100 millions de dollars collectés en tout juste vingt jours (1). En quelques jours, il est devenu un jeu de référence planétaire et déjà mythique.

Devant WhatsApp, Instagram, Snapchat et Facebook
La société SocialBakers, spécialisée dans le marketing sur réseaux sociaux, constate que l’appli ludique de Niantic s’est rapidement retrouvée plus utilisée que WhatsApp, Instagram, Snapchat ou même Facebook Messenger. Se promener et chasser, plutôt que de s’exhiber et chatter… Les joueurs utilisent la technologie satellitaire GPS pour traquer et capturer Pikachu, Dracolosse, Ronflex, Bulbizare, Carapuce, Rinoferos et autres monstres virtuels situés sur la cartographie fidèle aux lieux, bien réels eux, arpentés par les Pokémonmaniaques. Les créatures imaginaires y sont représentées en réalité augmentée, technologie permettant de faire apparaître des éléments virtuels dans le monde réel.
En se déplacement physiquement, dans la plupart des pays cartographiés pour Google Maps, le mobinaute se déplace dans le jeu à la recherche de Pokémon, de Pokéstops et d’arènes (2).

Du free-to-play au app-to-store
Et cette Pokémonmania, qui fait sortir les gamers et leurs avatars de chez eux, va rapporter gros non seulement à la start-up californienne Niantic – fondée en 2010 au sein de Google par le créateur du jeu, John Hanke (photo de Une), avant de devenir une entreprise indépendante en octobre 2015 – mais aussi à ses trois principaux actionnaires : Alphabet (Google), The Pokémon Company et Nintendo. Le jeu est
free-to-play, mais la gratuité a vocation à générer du chiffre d’affaires selon un modèle économique imparable. Si la plupart des joueurs se contentent de jouer sans rien
payer, une proportion non négligeable consentent à acheter des outils virtuels qui
leur permettent de progresser plus vite dans les niveaux de jeu.
D’après la société d’analyses AppsFlyer, environ 5 % des utilisateurs de ces jeux
free-to-play font des achats dans l’appli (in-app) pour une dépense de près de 10 dollars par mois en moyenne (3). Ainsi, il est par exemple possible d’acheter 100 PokéCoins pour 0,99 dollar, 1.200 PokéCoins pour 9,99 dollars, jusqu’à 14.500 PokéCoins pour 99,99 dollars.
Bien que les petits ruisseaux fassent les grandes rivières, ces petites dépenses in-app ne suffiront pas seules à Niantic pour franchir la barre du 1 milliard de dollars de recettes. Pour y parvenir, l’entreprise de John Hanke table en outre sur les lieux sponsorisés que des annonceurs et/ou des commerçants proposeront aux chasseurs de Pokémon avec l’espoir que ces derniers deviennent clients. Le potentiel de recettes issues du app-to-store, le pendant du web-to-store destiné à faire venir les mobinautes dans les magasins pour les inciter à dépenser, est sans limite. Au Japon, par exemple, Pokémon Go a noué un partenariat avec la chaîne de fast-food américaine McDonald’s. « Puisque l’on peut attirer les personnes dans des lieux physiques, nous pouvons faire quelque chose que ne peuvent pas faire beaucoup d’autres formes de publicité », s’est félicité John Hanke lors d’une conférence organisée par Venture Beats. Des Pokéstops à ce que nous pourrions appeler des « Pokéshops », il n’y aurait que quelques pas !
De ces lieux sponsorisés, Niantic en attend beaucoup après avoir éprouvé le modèle économique dans son autre jeu, Ingress, à partir duquel Pokémon Go a été développé. « Dans un premier temps, on peut aisément imaginer les marques développer des partenariats drive-to-store avec Pokémon Go afin d’attirer les joueurs vers des points de vente de marque », explique Marie Dollé, directrice des contenus et stratège numérique chez Kantar Media. Par ailleurs professeure en stratégie marketing digital à l’Ecole supérieure de publicité (ESP), elle voit dans ce jeu de gaming mobile de réelles opportunités publicitaires : « Dans une ère du tout connecté, les marques recherchent avant tout à générer de l’engagement avec leurs publics. Ainsi pour les parents gamers qui se plongent dans leurs écrans de 17 à 20 heures, 90 % en font une activité familiale avec les enfants. De quoi offrir de belles perspectives aux annonceurs notamment dans le domaine de la publicité ». Et de citer des marques qui ont déjà investi le créneau de la réalité augmentée, voire virtuelle : Nescafé du groupe Nestlé, les hôtels Marriott ou encore l’équipementier sportif North Face. « Avec la réalité virtuelle, on entre vraiment dans un dispositif virtuel complètement coupé du monde. On est dans une expérience immersive. (…) Dans ce contexte, on comprend aisément que Pokémon Go est bien plus qu’un jeu. Il peut s’envisager comme un puissant outil au service du storytelling des marques », ajoute Marie Dollé.

Ce jeu semble couronner vingt ans de succès d’une franchise créée par le Japonais Satoshi Tajiri avec la sortie en 1996 des tout premiers jeux vidéo Pocket Monsters – dont la contraction Pokémon est devenu mondialement célèbre – sur les Game Boy du fabricant nippon Nintendo. Ce dernier détient aujourd’hui 32 % des droits de vote de The Pokemon Compagny, société créée en 1998 pour gérer la franchise, aux côtés
de Creatures et Game Freak. Nintendo perçoit à ce titre des droits de licence et une rémunération pour sa participation au développement et à la gestion de Pokémon Go, mais la firme a précisé cet été que les ventes auraient un impact limité sur ses résultats. Cela n’a pas empêché la firme japonaise de voir son cours de Bourse plus que doubler à Tokyo depuis la sortie du jeu, jusqu’à l’annonce le 28 juillet dernier de
ses résultats financiers trimestriels jugés décevants.

Pokémon Go Plus en septembre
Nintendo, qui a néanmoins maintenu son objectif de doubler son bénéfice net annuel à 35 milliards de yens (plus de 300 millions d’euros) à fin mars 2017 pour un chiffre d’affaires global de 500 milliards de yens (plus de 4,3 milliards d’euros), va lancer courant septembre un petit bracelet baptisé Pokémon Go Plus (à 40 euros pièce) afin d’attraper plus facilement des Pokémon sans avoir à ouvrir l’application, et monter ainsi plus rapidement dans ce jeu de niveaux. @

Charles de Laubier

Droit voisin : la presse veut faire payer les moteurs Internet pour l’utilisation de liens vers les articles

La presse française demandent à bénéficier d’un « droit voisins » du droit d’auteur, afin de faire payer les moteurs de recherche et les sites web pour le référencement de leurs articles. Le CFC l’applique déjà aux liens hypertextes.
Un rapport commandité par le CSPLA doit être remis le 30 juillet.

C’est le 30 juillet que Laurence Franceschini (photo), ancienne directrice de la DGMIC (Médias et Industries culturelles) au ministère de la Culture et de la Communication, et actuelle « personnalité qualifiée »
à l’Hadopi, doit rendre au Conseil supérieur de la propriété littéraire et artistique (CSPLA) un rapport sur « la création d’un droit voisin pour les éditeurs de presse ».

 

La Commission européenne s’interroge
Cette mission a pour but d’aider le gouvernement à répondre à la consultation publique que la Commission européenne a lancée en mars pour savoir « si les éditeurs de journaux, magazines, livres et revues scientifiques rencontrent des problèmes dans l’environnement numérique en raison du cadre juridique actuel, notamment pour ce qui concerne leur capacité à délivrer des licences et à être rémunérés pour l’utilisation de leurs contenus ». En d’autre termes, il s’agit de savoir quel pourrait être l’impact de
« l’octroi d’un droit voisin » aux éditeurs en Europe sur l’ensemble du secteur de l’édition, sur les citoyens européens et sur les industries créatives. Ce droit voisin permettrait aux éditeurs – presse écrite, audiovisuelle et agence de presse – de demander des comptes aux moteurs de recherche et aux sites web agrégateurs de contenus ou de référencement d’articles en ligne (Google News, Twitter, MSN, Yahoo News, …), et d’exiger d’eux de percevoir des redevances de cette exploitation de liens hypertextes indexés. En 2012, déjà, l’Association de la presse d’information politique
et générale (AIPG) avait été à l’origine d’un projet de proposition de loi intitulé « Droits voisin pour les organismes de presse ». Pour Le Figaro, Lagardère Active, La Croix, Les Echos ou encore la SPQR (1), il s’agissait alors de punir de trois ans de prison et 300.000 euros d’amendes – prévu à l’article 335-4 du code de la propriété intellectuelle (CPI) (2) – tout site web, blog, moteur de recherche ou encore agrégateur qui reproduiraient des articles de presse ou qui publieraient un lien hypertexte vers
cet article – sauf s’il est déjà accessible librement selon le souhait de l’éditeur… Actuellement, les éditeurs – notamment de presse – ne bénéficient pas de droit voisins qui est similaire au droit d’auteur sans pour autant relever de la création originale de l’auteur. En France, avant la loi « Lang » de 1985, les artistes, interprètes et comédiens ne recevaient aucune rémunération directe sur la diffusion et rediffusion des œuvres (musiques et films). Seuls le compositeur de musique, le parolier et leurs éditeurs ou producteurs percevaient une rémunération : l’artiste-interprète, lui, ne recevait pas de royalties de ses droits mais seulement un pourcentage, sur la vente des disques par exemple.

Sans attendre l’issue de la mission du CSPLA ni les conclusions encore à venir de
la consultation européenne, il est un organisme en France qui monétise déjà les référencements de la presse en ligne : le Centre français d’exploitation du droit de copie (CFC), placé sous la tutelle du ministère de la Culture et de la Communication. Chargé par les éditeurs de presse de collecter et de leur reverser les redevances dues par les entreprises ou les administrations qui effectuent des copies papier et/ou numériques (revue et panoramas de presse numériques via intranets ou extranet), ainsi que par des sociétés spécialisées dans des prestations de veille telles que l’Argus de la presse ou Kantar Media, le CFC vient en effet de rajouter une corde à son arc. Il a mis en place
« un nouveau dispositif contractuel » pour, d’une part, permettre aux éditeurs de presse de lui confier la gestion de leurs droits sur leurs contenus en matière de veille web,
et, d’autre part, d’autoriser les nouveaux prestataires de veille web et d’indexation de contenus en ligne (sites de presse, blogs, réseaux sociaux, forums, etc.) de faire des liens hypertextes pointant vers les articles recherchés. Et ce, en contrepartie d’une rémunération destinées aux éditeurs de presse. « Le contrat d’autorisation permet au prestataire de veille web de réaliser, pour le compte de ses clients, son activité de surveillance et d’analyse des sites web des éditeurs de presse qui ont confié la gestion de leurs droits au CFC », explique l’organisme de gestion collective.

La « veille web » n’est pas de reproduire
Le prestataire de veille web est tenu de déclarer à ce dernier et pour chacun de ses clients : le nombre de prestations commandées, le nombre d’hyperliens pour chacune d’elles ventilé par adresses Internet concernées, ainsi que le nombre d’hyperliens stockés. « Bien entendu, le contrat de veille web n’autorise pas la fourniture de contenus aux clients sous forme de reproduction », précise bien le CFC, étant donné que reproduire des articles sur supports papier et/ou numériques fait l’objet d’un autre contrat spécifique pour pouvoir effectuer des panoramas de presse ou de prestation dite de press clipping. @

Charles de Laubier

 

Göran Marby devra amener l’Icann, dont il est PDG depuis mai, à s’émanciper des Etats-Unis

En mai, le Suédois Göran Marby a succédé à l’Egypto-libano-américain Fadi Chehadé au poste de PDG de l’Icann, l’organisation chargée de l’attribution des noms de domaine sur Internet. Le 9 juin, Washington a approuvé le plan de sortie – d’ici le 30 septembre prochain – de la tutelle des Etats-Unis.

Il a quitté Stockholm en Suède, où il était directeur général de l’Arcep suédoise, pour s’installer avec sa famille à Los Angeles aux Etats- Unis, où il est depuis mai dernier PDG de l’Icann (Internet Corporation for Assigned Names and Numbers). Göran Marby (photo) succède ainsi à Fadi Chehadé, lequel avait commencé à engager le processus d’émancipation de la tutelle américaine pour cette autorité de régulation de l’Internet chargée historiquement de superviser l’attribution les noms de domaine dans le monde. Née en 1998, cette société de droit californien, sans but lucratif et reconnue d’utilité publique doit en effet couper le cordon ombilical avec les Etats-Unis pour devenir à partir du 30 septembre prochain une organisation indépendante et à gouvernance multilatérale – comprenez mondiale. Sous la pression internationale, Washington a accepté en 2014 la perspective de passer le flambeau. Göran Marby
a désormais la lourde tâche de mettre en oeuvre ce transfert de fonctions assurées jusqu’alors sous la tutelle du gouvernement fédéral américain, dont l’allocation et le maintien des codes et systèmes de numérotation uniques de l’Internet tels que les adresses IP – fonctions historiques qu’assurait l’Iana (1), alias l’administration américaine.

Vers une gouvernance enfin mondiale de l’Internet
Durant ce basculement administratif du Net, il s’agit ni plus ni moins de préserver la sécurité, la stabilité et l’interopérabilité de l’Internet, son existence même. « L’Icann ne contrôle pas le contenu publié sur Internet. Elle ne peut pas mettre fin au spam et ne gère non plus l’accès à Internet. Mais grâce à son rôle de coordination du système d’attribution de noms sur l’Internet, elle exerce une influence non négligeable sur le développement et l’évolution de l’Internet », tient à préciser cette organisation en pleine transition.

L’année 2016 sera-t-elle l’an I de la gouvernance mondiale de l’Internet ? Jusqu’alors, un contrat liait l’Icann et le Département américain du Commerce (DoC), via son agence NTIA (2). Le transfert aurait dû initialement intervenir au 30 septembre 2015, mais les résistances parlementaires ont été fortes aux Etats-Unis pour retarder le processus devant aboutir une organisation non gouvernementale et multipartite. Résultat : l’expiration du contrat avec l’Iana a été repoussé d’un an, au 30 septembre prochain.

Le monopole de l’Icann contesté
Le nouvel Icann devra fonctionner sous une gouvernance partagée entre gouvernements, entreprises, universités et société civile – « la communauté Internet » –, en évitant de passer sous le contrôle des Etats. « Chacun des acteurs de l’Internet peut faire entendre sa voix dans le développement de cette nouvelle structure de supervision », avait assuré Fadi Chehadé, dans une interview à La Tribune (3). Le compte à rebours a commencé : le 9 juin dernier, Lawrence Strickling, secrétaire adjoint du DoC, a écrit une lettre à l’Icann (4) pour lui signifier que sa proposition de plan de transition était acceptée par la NTIA, mais qu’« il y a encore beaucoup à faire avant que la transition des fonctions de l’Iana puisse intervenir ». Göran Marby a donc jusqu’au
12 août prochain pour fournir à l’administration américaine « un rapport sur le planning d’implémentation ». Il s’agit aussi d’assurer la continuité avec Verisign. Cette société privée américaine, basée à Reston dans l’État de Virginie, est chargée de diffuser sur les treize serveurs dits « racines » du Net présents dans le monde (pour que le Web fonctionne) toutes les modifications et mises à jour de la « zone racine » : le cœur du Net.
Avant de laisser l’Icann s’émanciper, les Etats-Unis maintiennent la pression sur l’organisation qu’ils entendent bien garder sous surveillance pour s’assurer que sa gouvernance se fera bien par la communauté Internet et non par les pays. La fin de
la tutelle américaine a été précipitées après l’affaire Snowden – du nom de l’ancien collaborateur informatique de la CIA et de la NSA qui a révélé mi-2013 l’espionnage mondial pratiqué illégalement par les États-Unis.
Les près de 3,5 milliards d’internautes dans le monde apprécieront une Icann dont le conseil d’administration de 16 membres représentant les grandes régions du monde
– Europe, Afrique, Asie-Pacifique, Amérique Latine, Amérique du Nord – devra faire preuve d’indépendance et d’intégrité en tant que corégulateur de l’Internet. Reste à savoir si l’Icann changera de nom à l’avenir, ce qui n’est pas envisagé à ce jour, et si le siège social de l’organisation sera déplacé de la Californie vers un pays plus… neutre (la Suisse ?). La communauté Internet impliquée dans la gouvernance de l’Icann devrait être dotée un droit de veto sur les décisions du conseil d’administration de l’Icann. Mais ce pouvoir est contesté par certains membres du conseil. Göran Marby devra réconcilier les deux parties cet été, sinon tout désaccord risque de provoquer l’échec
de la transition historique. Reste que le rôle central que joue l’Icann dans l’ordonnancement du réseau des réseaux est contesté. « Serait-il acceptable que les Etats-Unis gèrent l’annuaire mondial de tous les abonnés au téléphone ? Le monopole de l’Icann est une sorte de racket financier, curieusement toléré par les Etats (sauf la Chine) », s’insurge le Français Louis Pouzin, le cofondateur de l’Internet avec l’Américain Vinton Cerf (5). Il propose une alternative au modèle de location de l’Icann : Open-Root. Ses clients achètent des extensions (« registres ») dont ils deviennent propriétaires ; ils peuvent alors créer gratuitement les domaines de leur choix.

L’entrée en fonction de l’Européen suédois à la tête de l’Icann intervient au moment
où les nouveaux noms de domaine génériques de premier niveau viennent juste de dépasser fin mai le nombre de 1.000 « délégations », désormais en ligne sur Internet, sur un total de près de 1.300 acquis. Dans le jargon de l’Icann, ce sont des « new
gTLD » (new Generic Top Level Domain) lancés par appel à candidature en 2012 et associés à une ville (.paris, …), à un secteur (.music, …), une communauté (.gay, …),
ou encore à une marque (.netflix, …). Ce que l’Icann appelle des « biens immobiliers virtuels ».
Ces nouveaux noms de domaines génériques – appelés aussi les « not-coms » (6) pour les distinguer « dot-com » ou « .com» les plus utilisés sur la Toile – sont bien plus coûteux que les DNS (Domain Name System) historiques de l’Internet que sont les
« .com», « .org » et autres « .fr ». « L’expansion du système des noms de domaine, avec plus de 1000 gTLD, permet aux communautés, aux villes et aux marques de rapprocher leur identité numérique de leur identité réelle », explique l’Icann. Mais le ticket d’entrée de 185.000 dollars reste (trop) élevé. Et cela ne va pas sans poser de sérieux problèmes de territorialité et de propriété intellectuelle : fin 2014, la France avait par exemple menacé de quitter l’Icann car elle contestait l’attribution des nouvelles extensions de domaine telles que le « .vin » ou « .wine » sujets, selon elle, à abus au détriment des régions viticoles françaises (7).

Des domaines génériques inactifs
En outre, de nombreuses entreprises ont protégé leur nom et/ou leur marque en acquérant leur nouvelle extension générique mais sans jamais l’activer sur Internet (absence de la zone racine). Chaque détenteur d’une nouvelle extension a pourtant douze mois pour l’activer sur Internet, les premières échéances pour 200 d’entre elles intervenant cet été. A défaut, leur contrat sera résilié et ils perdront leur extension. @

Charles de Laubier

Le CSA se défend de vouloir être « le régulateur de l’Internet » mais veut le coréguler via conventions

Le CSA souhaite inciter les plateformes du Net à signer avec lui des
« conventions volontaires » par lesquelles une corégulation – sur fond d’engagements obligatoires – pourrait s’instaurer sur les services en ligne.
Par ailleurs, le CSA voit ses pouvoirs étendus au stockage de données.

« Dans le cadre de la loi, nous avons des pouvoirs de conventionnement : les chaînes de télévision et les radios qui sont soumises à notre sphère de régulation (… (1)) ne peuvent fonctionner que si elles ont signé leur convention. Vis à vis des partenaires à l’égard desquels nous n’avons aucun pouvoir reconnu par la loi, (…) nous sommes toujours prêts à nous engager dans une démarche conventionnelle. Mais encore faut-il que nous ayons des partenaires, y compris de la sphère de l’Internet, qui veuillent s’engager dans cette démarche », a expliqué Olivier Schrameck (photo), président du Conseil supérieur de l’audiovisuel (CSA), lors d’un dîner-débat organisé le 26 mai dernier par le Club audiovisuel de
Paris (CAVP).

Conventions avec des acteurs du Net
Google/YouTube, Dailymotion, Facebook, Apple, Amazon et toutes les autres plateformes numériques ayant une dimension audiovisuelle échappent en effet à la régulation du CSA, dont les compétences sont limitées par la loi aux chaînes et aux radios diffusées par voie hertzienne terrestre. Pour pouvoir émettre, ces dernières
sont en effet tenues de signer une convention d’engagements – obligatoires – en contrepartie de l’autorisation d’usage de fréquences. Mais Olivier Schrameck souhaite élargir le spectre du conventionnement en faisant valoir la possibilité pour les autres acteurs, notamment les fournisseurs de contenus sur Internet, de signer avec le CSA des « conventions volontaires ». « Je suis persuadé qu’ils [les acteurs du Net, dont
les plateformes vidéo, ndlr] peuvent y avoir intérêt, car l’enracinement socioculturel
– pour ne pas parler de l’économique et du financier – que permet de sceller le conventionnement avec une autorité publique (dont j’aime à penser que la reconnaissance est établie dans notre pays), peut être un atout, y compris sur le plan commercial ». Le CSA table sur le fait que les acteurs du Web et des applications mobiles sont de plus en plus soucieux de leur image et de la confiance qu’ils inspirent localement auprès de leurs utilisateurs.
La jeune génération est d’ailleurs au coeur de la réflexion du gendarme des télécoms, lequel a fait état d’un sondage : 74 % des parents sont inquiets des risques pour l’éducation de leurs enfants que constituent les modes individualisés de visionnage des programmes sur la télévision mais surtout sur le Web et sur l’ensemble des réseaux sociaux – sur Internet en général. « Nous passons d’un mode de visionnage familial et commun à un mode de visionnage individuel et caché. Pour les parents, il y a un vrai problème d’attraction des mineurs vis à vis de programmes qui sont susceptibles de troubler leur psychisme. (…) C’est d’ailleurs pour cela que, dès 2013, je me suis permis de poser ce problème à la représentation nationale non pas du tout pour revendiquer des compétences supplémentaires pour le CSA, non pas pour faire du CSA “le régulateur de l’Internet” – Je le connais suffisamment pour savoir qu’il ne le supporterait pas, car c’est contraire à son état d’esprit –, mais pour encourager à cette démarche de corégulation, d’autorégulation », a encore insisté le président du CSA.

Pour l’heure, les plateformes du Net interviennent en ordre dispersé en appliquant leur propre règlement interne – des sortes de « polices privées » (dixit Olivier Schrameck) qui sont d’inspirations très différentes suivant l’entreprise concernée. « Or les devoirs que nous avons en matière d’éducation des mineurs sont les mêmes, quelle que soit l’origine de l’information qui leur est dispensée », fait-il remarquer. Et de faire part de son inquiétude : « Mais il reste un énorme problème, un énorme trou noir : nous savons parfaitement que les mineurs ont accès par un simple clic à des sites (web) qui sont susceptibles de les perturber profondément. Donc, il importe de se poser la question. L’Etat, qui ne peut pas tout faire, prend ses responsabilités en ce qui concerne la pédopornographie ou l’incitation aux attentats djihadistes. Il faut aller au-delà ».

Vers une corégulation de l’Internet
Devant le CAVP, le président du CSA s’est félicité de l’avant-projet de la directive européenne révisée sur les services de médias audiovisuels (SMA), censée réformer celle de 2010, car ce texte législatif – présenté par la Commission européenne le 25 mai (2) – invoque justement la corégulation dans ce domaine, voire une harmonisation des pratiques dans l’Union européenne, tout en appelant à une association de protection des mineurs qui puisse service d’intermédiaire. Il s’agit de l’Alliance pour une meilleure protection des mineurs en ligne, chargée d’élaborer un code déontologique pour protéger les mineurs des contenus préjudiciables tels que la pornographie et la violence, et tous les citoyens de l’incitation à la haine (3). « Plutôt que de s’en remettre à l’autorégulation, les autorités nationales de régulation de l’audiovisuel [comme le
CSA en France, ndlr] auront compétence pour faire respecter les règles, ce qui, selon
la législation nationale applicable, pourra aussi, éventuellement, donner lieu à des amendes », a expliqué la Commission européenne dans le cadre de son projet de nouvelle directive SMA.

Le CSA veut devenir « médiateur »
Le Groupe des régulateurs européens des services de médias audiovisuels (ERGA), composé de l’ensemble des vingt-huit autorités nationales de l’audiovisuel et viceprésidé depuis janvier par Olivier Schrameck, est désormais chargé d’évaluera
les codes déontologiques en matière de corégulation et de conseiller la Commission européenne en la matière.
En France, le président du CSA se dit « disponible » vis à vis des plateformes du Net,
« mais il ne s’impose pas – ni par la loi, ni par sa volonté », précise Olivier Schrameck. Il y a en outre aussi des producteurs audiovisuels ou cinématographiques qui souhaitent pouvoir garantir au public la protection des mineurs, par l’intermédiaire de conventions ou de labellisation. « Nous sommes là pour les y aider ».

Plus largement, le CSA ne veut pas être perçu comme « le protecteur attitré des éditeurs et des diffuseurs » de chaînes de télévision notamment. « Nous avons eu
le souci de faire la part à l’ensemble des partenaires incluant les producteurs et les distributeurs [de films ou de programmes] », a tenu à clarifier Olivier Schrameck devant le monde de l’audiovisuel du CAVP. « Le CSA souhaite être “La maison des médias”, des éditeurs et des diffuseurs comme des producteurs et des distributeurs », a-t-il insisté, tout en citant en exemple des accords que le CSA a pu obtenir entre les uns et les autres, comme celui entre les producteurs (de cinéma) et OCS (Orange Cinéma Séries), accord qui a influé sur l’accord entre les producteurs et Canal+.
Le gendarme de l’audiovisuel se voit plus aujourd’hui comme « un médiateur entre des intérêts non pas divergents mais complémentaires » dès lors qu’il s’agit de relations entre les producteurs et les diffuseurs, de numérotation des chaînes sur la TNT ou le câble, ou encore du problème tout nouveau du stockage des données (voir encadré ci-dessous). Ainsi, la mue du régulateur de l’audiovisuel est en cours : jusqu’alors sa raison d’être dépendait des fréquences hertziennes ; désormais le numérique lui pose une question existentielle. A défaut de devenir aussi régulateur du Net, la corégulation des services de médias audiovisuels lui donne de nouveaux pouvoirs. @

Charles de Laubier

ZOOM

Le CSA devient le régulateur du stockage de données
« Sur le stockage des données, qui n’est pas normalement dans nos compétences, nous avons évoqué ce problème auprès des parlementaires parce qu’il influe profondément sur les équilibres économiques et créatifs de l’audiovisuel. Résultat,
le Sénat vient de voter une disposition qui nous donne compétence en matière de règlement de différends sur le stockage des données », s’est félicité le 26 mai dernier Olivier Schrameck, le président du CSA, devant le Club audiovisuel de Paris (CAVP).

L’avant-veille de son intervention, le Sénat avait en effet adopté – dans le cadre du projet de loi « Création » attendu en commission mixte paritaire le 15 juin prochain
– un amendement du gouvernement.
Celui-ci dispose que (article 7 bis AA) « lorsqu’un distributeur d’un service de radio ou de télévision met à disposition un service de stockage (…), une convention conclue avec l’éditeur de ce service de radio ou de télévision définit préalablement les fonctionnalités de ce service de stockage ». En outre, il prévoit que « le Conseil supérieur de l’audiovisuel peut être saisi par un éditeur ou un distributeur des services de tout différend relatif à la conclusion ou à l’exécution de [cette] convention ». Participant aux débats le 24 mai sur ce point au Sénat – dans le cadre de l’extension de la taxe « copie privée » aux services d’enregistrement numérique à distance dits nPVR, ou magnétoscopes numériques personnels en ligne (4) –, la ministre de la Culture et de la Communication, Audrey Azoulay, a conclu : « Je fais confiance aux partenaires pour développer des services innovants, dans une coexistence harmonieuse ».
Il s’agit notamment de « garantir que le développement des services de nPVR ne mettra pas en cause l’existence de l’offre télévisuelle traditionnelle ainsi que des services de télévision de rattrapage et de vidéo à la demande », et de prévenir d’éventuels risques de piratage. @