Fiducial Médias de Christian Latouche (Sud Radio, Lyon Capitale, TV, …) se développe au niveau national

En plus des groupes médias TF1, M6/RTL, Canal+, Lagardère/Europe 1, NRJ, Le Monde/L’Obs, Le Figaro, Le Parisien-Les Echos ou encore Altice (BFM, Libération/L’Express), souvent aux mains de milliardaires, il faut désormais compter avec Fiducial Médias de Christian Latouche – nouveau milliardaire et magnat potentiel aux ambitions nationales.

Par Charles de Laubier

Fiducial Médias tente de concrétiser ses ambitions nationales, à commencer dans la radio avec la station Sud Radio que le groupe a rachetée il y a quatre ans et qui vient de fermer ses studios à Labège (près de Toulouse) après avoir emménagé dans de nouveaux à Paris. Filiale du groupe d’expertise-comptable Fiducial diversifié dans les services de gestion aux entreprises, Fiducial Médias a pour PDG Didier Maïsto (photo de droite) depuis fin 2013.
Cet ancien journaliste du Figaro (1988-1993) devenu ensuite attaché parlementaire (1993-1998) de quatre députés successifs (1), puis lobbyiste, développe depuis quatre ans une stratégie plurimédia et multimédia bien au-delà de Lyon d’où s’est lancé dans la presse la maison mère il y a près de dix ans. C’est en fait Christian Latouche (photo de gauche), le très discret fondateur du groupe de gestion spécialisé dans les TPE/PME, Fiducial (ex-Sofinarex), qui s’est épris de médias : ce Bordelais a jeté son dévolu sur Lyon Capitale en le rachetant en 2008.

Lyon Capitale, pionnier sur le Web. Sud Radio, pionnière de la RNT
Cet hebdomadaire devenu mensuel fut, avec son site web Lyoncapitale.fr dès 1995, l’un des pionniers de la presse française sur Internet avec Libération et Les Dernières Nouvelles d’Alsace. Puis, Christian Latouche s’est emparé en 2010 de la télévision locale privée Lyon TV qu’il a rebaptisée dans la foulée Lyon Capitale TV. La station Sud Radio est enfin tombée dans son escarcelle en 2013, après avoir déboursé 7 millions d’euros – selon La Correspondance de la Presse à l’époque.
Contrairement aux grandes radios privées (NRJ, RTL, Europe 1, BFM/RMC), il mise sur la radio numérique terrestre. « Nous avons une ambition nationale en RNT, dont nous avons été les pionniers », indique Didier Maïsto à Edition Multimédi@. A 77 ans, son patron Christian Latouche Lire la suite

Liens hypertextes « pirates » : la jurisprudence « GS Media » menace-t-elle la liberté d’informer ?

Le 13 octobre 2016, le tribunal d’Attunda (Suède) a fait application pour la première fois en droit national des critères énoncés par la CJUE dans l’arrêt
« GS Media », et vient ainsi préciser les contours du régime s’appliquant au
droit de communication au public pour les liens hypertextes.

Par Etienne Drouard (photo), avocat associé, et Antoine Boullet, juriste, cabinet K&L Gates

L’intérêt de cette décision réside dès lors dans l’application concrète des critères abstraitement énoncés par la CJUE. Pour rappel, la Cour de justice de l’Union européenne (CJUE) a décidé – dans l’ arrêt « GS Media » rendu le 8 septembre dernier (1) – que pour juger du caractère licite ou illicite d’un acte de communication au public au sens de la directive européenne de 2001 sur le droit d’auteur (dite « DADVSI »), il fallait non seulement démontrer l’existence d’un acte de communication et l’existence d’un public, mais également « tenir compte de plusieurs critères complémentaires, de nature non autonome et interdépendants les uns par rapport aux autres » (2).

Le cas d’une vidéo d’accident
La CJUE a ainsi précisé le régime des liens hypertextes qui renvoient vers des œuvres protégées, librement disponibles sur un autre site Internet et sans l’autorisation du titulaire du droit d’auteur. Pour déterminer si de tels liens constituent des actes de communication illicites au public, il convient, selon l’arrêt européen, de « déterminer si ces liens sont fournis sans but lucratif par une personne qui ne connaissait pas ou ne pouvait raisonnablement pas connaître le caractère illégal de la publication de ces œuvres sur cet autre site Internet ou si, au contraire, lesdits liens sont fournis dans un tel but, hypothèse dans laquelle cette connaissance doit être présumée ». L’application concrète de ces critères par les juridictions nationales était attendue pour envisager leur pleine portée. Dans l’arrêt « Rebecka Jonsson c/ Les Editions de L’Avenir », le juge suédois est le premier à se prononcer dans le sillage de la CJUE.
Deux critères essentiels de la décision européenne méritent en effet d’être clarifiés. Tout d’abord, comment définir le but lucratif ? Ensuite, comment prouver la connaissance, ou au contraire l’absence de connaissance, du caractère illégal d’une publication qui rendrait un lien vers celle-ci lui-même licite ou illicite ? En l’espèce,
la plaignante Rebecka Jonsson a filmé en 2012 un accident de saut à l’élastique en Afrique. La vidéo a ensuite été mise en ligne sans son autorisation sur YouTube.
Le 9 juin 2012, le journal belge L’Avenir a publié cette vidéo sur son site Internet pour illustrer un article. La spécificité du litige résidait dans le fait que la plaignante n’avait ni autorisé la mise en ligne de la vidéo sur YouTube, ni sa publication par Les Éditions de l’Avenir. La plaignante reprochait au journal d’avoir porté atteinte à ses droits d’auteur en publiant la vidéo sur son site Internet, ainsi qu’une capture d’écran de la vidéo de celle-ci, et en ne reconnaissant pas à Rebecka Jonsson la qualité d’auteure de la vidéo. Les faits en cause se rapprochaient ainsi de ceux l’arrêt européen « GS Media » puisqu’ils portaient sur la publication d’un lien hypertexte vers une oeuvre publiée sans le consentement de son auteur. La juridiction suédoise a donc opportunément appliqué les critères développés par les juges européens.
Dans son jugement, le tribunal d’Attunda répond aux demandes de la plaignante en trois points, dont seul le premier retiendra particulièrement notre attention, les deux autres portant respectivement sur la publication d’une capture d’écran de la vidéo et
sur la qualité d’auteure de la plaignante. La juridiction suédoise commence par énoncer que la notion de « communication au public » doit être interprétée au regard de la directive « DADVSI » et de son analyse par le juge communautaire.
Le journal L’Avenir a, en l’espèce, publié le lien hypertexte litigieux sur son site Internet ; cette forme de mise à disposition du public constitue donc une « communication au public ». Cette communication s’adresse bien à un public distinct (les visiteurs du site web de L’Avenir ) du public visé par l’acte de communication originaire de l’oeuvre, c’est-à-dire un public nouveau. Les deux premiers critères permettant de caractériser un acte de communication au public sont donc satisfaits.

La jurisprudence « GS Media »
La juridiction suédoise s’appuie ensuite sur l’arrêt « GS Media » qui a confirmé que la publication d’un lien hypertexte vers une oeuvre protégée sans le consentement de son auteur constituait bien une communication au public. Dans la même affaire, la CJUE
a décidé que lorsque le fournisseur de lien hypertexte poursuit un but lucratif, sa connaissance de l’illicéité de la source doit être présumée. En l’espèce, Rebecka Jonsson nie avoir consenti à la publication de son film sur YouTube.
Par ailleurs, le journal L’Avenir ayant publié le lien litigieux sur une page d’actualité de son propre site, il poursuit ainsi un but lucratif. Selon le juge suédois, la connaissance du caractère illicite de la publication par le journal L’Avenir doit dès lors être présumée.

La notion de but lucratif
La décision suédoise fait pour la première fois application du critère du but lucratif mis en avant par la CJUE dans l’arrêt « GS Media ». La connaissance de l’illicéité de la publication vers laquelle renvoie le lien hypertexte est ainsi présumée et peut conduire à engager la responsabilité de la personne publiant le lien dans un contexte à but lucratif.
Le critère du but lucratif avait soulevé de nombreuses interrogations, en raison de son imprécision. En effet, comment déterminer si un site Internet – et encore moins un lien – poursuit un but lucratif ? La réponse à cette question doit être apportée par les juges nationaux, la CJUE ayant explicitement décidé que cette appréciation devait être
« individualisée ». Nous pouvons toutefois émettre l’hypothèse que le caractère lucratif d’une publication doit être déterminé selon qu’elle est le fait d’un professionnel ou d’un non-professionnel (3). La juridiction suédoise dessine une première interprétation de l’intention lucrative.
On regrettera toutefois l’absence de justification claire en l’espèce. En effet, le tribunal d’Attunda se contente d’affirmer qu’il apparaissait « évident » que le journal L’Avenir avait publié le lien hypertexte litigieux dans l’intention de réaliser un profit. La juridiction n’explique toutefois pas quels éléments lui ont permis de conclure que le défendeur poursuivait un but lucratif. En application du critère imprécis énoncé par la CJUE, la juridiction suédoise conclut donc à l’existence d’une intention lucrative de manière tout aussi obscure. Il sera donc aisé pour les demandeurs de démontrer l’intention lucrative du fournisseur de lien, et ainsi présumer sa connaissance du caractère illicite de la source vers laquelle pointe le lien hypertexte. Si la CJUE a formulé une présomption
de connaissance du caractère illicite de la source, une présomption simple implicite d’intention lucrative semble également peser sur le fournisseur de lien professionnel.
La présomption de responsabilité serait donc acquise s’agissant de la publication à but lucratif de lien hypertextes renvoyant vers une source illicite.

Les conséquences de la jurisprudence « GS Media » pourraient donc s’avérer plus redoutables qu’imaginées de prime abord, et éventuellement avoir « des conséquences fortement restrictives pour la liberté d’expression et d’information », comme le craignait la Commission européenne.
La présomption d’intention lucrative doublée d’une présomption de connaissance du caractère illicite de la source fait donc peser une présomption de responsabilité extrêmement lourd e s u r les professionnels fournissant des liens hypertextes. Selon les critères énoncés par la CJUE dans l’arrêt « GS Media », après avoir démontré l’existence d’un but lucratif, les personnes publiant des liens hypertextes peuvent encore s’exonérer de leur responsabilité en démontrant avoir accompli « les vérifications nécessaires pour s’assurer que l’oeuvre concernée n’est pas illégalement publiée sur le site auquel mènent lesdits liens hypertexte ».
Une nouvelle fois, la juridiction européenne se garde bien d’expliquer quelles diligences doivent être effectuées par les fournisseurs de liens pour s’assurer de la licéité de la source. Nous pouvons présumer qu’il s’agira de contacter l’éditeur du site web vers lequel le lien renvoi, voire de contacter directement l’auteur ou les ayants droit. La fiabilité du site-source pourrait également être un indice.
La juridiction suédoise réserve un traitement doublement exigeant à l’égard des fournisseurs de liens. Non seulement leur intention lucrative devient très facile à caractériser, mais en plus les titulaires de droits d’auteur bénéficient d’un traitement favorable. En effet, dans cette affaire « Rebecka Jonsson c/ Les Editions de L’Avenir », aucun devoir de vigilance n’était imposé à l’auteure de la vidéo.
Cette dernière a été admise à rechercher la responsabilité du journal, sans avoir à l’informer du caractère illicite de sa publication initiale sur la plateforme YouTube, ni même avoir à démontrer avoir accompli des diligences pour faire retirer le contenu illicite originairement publié sur YouTube.

Obligation lourde de vérification
Cette décision suédoise démontre que, contrairement au droit des marques, aucun devoir de surveillance ne pèse les titulaires de droits d’auteur dans l’utilisation de leurs œuvres. S’agissant des éditeurs de liens, ces derniers sont soumis à une obligation de vérification extrêmement lourde. Dès lors qu’ils fournissent un lien vers une vidéo YouTube ou vers un autre site en ligne, ils devront ainsi s’assurer au préalable que le titulaire initial de droits a autorisé ce site-là à publier l’oeuvre protégée. @

Information et publicité : comment la presse se retrouve court-circuitée par les réseaux sociaux

La presse n’en finit pas d’être submergée par le tsunami numérique. Non seulement les réseaux sociaux prennent le relais dans l’accès à l’information, mais en plus ils rattrapent les journaux en termes de dépenses publicitaires. Facebook, Twitter ou Snapchat se font de plus en plus « médias sociaux ».

La presse imprimée se fait toujours plus cannibaliser par les sites web. Les habitudes de consommation de l’information ne cessent de donner la part belle à Internet.
Selon une étude de Médiamétrie, 38 % de la population en France déclarent accéder
à l’information en passant par les pages d’actualité sur Internet (à partir de portails web), les pure players de l’information en ligne (Slate, Mediapart, Huffington Post, Rue89, …) et/ou les réseaux sociaux (Facebook, Twitter, YouTube, Google, Instagram, LinkedIn, … ).

La « délinéarisation » de l’info
Mais cette proportion de la population informée en ligne en dehors des médias traditionnels et de la presse online atteint 77 % dans la catégorie des 18-24 ans.
La jeune génération est suivie par les catégories socioprofessionnelles à hauteur de
49 %. Les réseaux sociaux sont plébiscités dans l’accès à l’information par 17 % des personnes interrogées, et même par 63 % des 18-24 ans qui les utilisent pour s’informer presque autant que les chaînes d’information en continu. Facebook est le premier à être utilisé comme média, cité par 83 % des utilisateurs de réseaux sociaux, suivi de Twitter pour 35 % d’entre eux et de YouTube pour 32 %.
Les journaux imprimés souffrent de cette « délinéarisation » de l’information, par analogie avec la délinéarisation des chaînes de télévision. Les réseaux sociaux offrent un accès à un « fil d’information » ou timline mis à jour en temps réel qui permet une
« personnalisation » de l’actualité en fonction des centres d’intérêt et préférences de l’internaute, voire les recommandations des membres de sa communauté connectée ou des algorithmes de suggestion du réseau social lui-même. L’information à la demande est à la presse traditionnelle avec sa pagination ce que le programme à la demande (replay) est à la chaîne de télévision avec sa grille. Si l’on revient à l’étude plurimédias « Actu24/7 » de Médiamétrie, plus de la moitié de ceux qui consultent les réseaux sociaux apprécient la capacité de ces dernier à proposer des contenus « personna-
lisés », centralisés et laissés au libre choix de l’utilisateur en fonction de ce qui l’intéresse. Les adeptes des réseaux sociaux s’informent d’abord, pour 84 % d’entre eux, en lisant les articles partagés par ses amis, mais sans que l’on sache quelle proportion de sujets proviennent réellement de la presse traditionnelle. Et ils sont plus de la moitié (51 %) à s’informer sur les réseaux sociaux en allant sur la page d’un média traditionnel.
La multiplication des partenariats presse-réseaux sociaux – Facebook Instant Articles, Facebook Live, Snapchat Discover, etc (1) – participe de cet échange. A contrario,
ils sont près de la moitié (49 %) à ne pas aller sur les sites de la presse classique.
Mais il y a un bémol à cet engouement pour les réseaux sociaux informationnels : leur note de satisfaction reste encore faible par rapport à celle de la radio, de la presse quotidienne nationale ou encore des chaînes d’information en continu. Les Facebook, Twitter et autres Google pêchent encore par manque d’analyses, de mise en perspective et de recul. Il n’empêche. Les réseaux sociaux, au déploiement fulgurant depuis quelques années seulement, prennent de l’ampleur et capitalisent sur leur immédiateté et instantanéité dans l’accès à l’actualité que l’on peut partager aussitôt avec son entourage. La société française Visibrain l’a bien compris, plateforme de
veille des médias en ligne créée en 2011, qui vient de lancer « Expresso News » pour recevoir par e-mail « le Top 10 des articles de presse les plus partagés sur les réseaux sociaux » (Twitter et Facebook).
Si la crédibilité de la presse traditionnelle, voire « institutionnelle », a été quelque peu mise à mal pour n’avoir pas vu venir tant aux Etats-Unis l’élection de Donald Trump comme président du pays qu’en France l’élection de François Fillon comme candidat de la droite, Internet en général et les réseaux sociaux en particulier ne sont pas exempts de critiques. En effet, rumeurs non fondées et fausses informations – même si les médias traditionnels peuvent aussi en être victimes – circulent sur Internet.

Zuckerberg : ombudsman du Net ?
Aux Etats-Unis, les réseaux sociaux ont été montrés du doigt (Twitter, Facebook, Google, …) et soupçonnés d’avoir « contribué à la victoire du républicain Donald
Trump ». Au point que le PDG fondateur de Facebook, Mark Zuckerberg, a dû promettre mi-novembre de faire la chasse aux fausses informations ou hoaxes (canulars) – quitte à donner l’impression de s’autoproclamer grand régulateur du Net, ombudsman et conseil de presse en ligne. « Nous sommes persuadés qu’il faut donner la parole aux gens. [Mais] nous ne voulons pas être des arbitres de la vérité nous-mêmes », a-t-il admis sur son blog le 13 novembre dernier (2) face aux craintes de censures dans un pays où la liberté d’expression est consacrée par le premier amendement de la Constitution américaine. Et le patron du numéro un des réseaux sociaux (suivi par 78,5 millions d’« amis » sur son propre compte) de se faire encore plus prudent : « Je pense que Facebook pourrait faire beaucoup de choses pour lutter contre les fausses informations, et je pense que c’est quelque chose sur lequel tout le monde pourrait s’entendre. Mais s’il essaie de s’attaquer aux sites ayant des motivations idéologiques, il va inévitablement se trouver pris dans les guerres de culture ».

Facebook et Google : publivores
Cela n’empêche pas le réseau social de commencer à demander à ses utilisateurs
de dénoncer les titres d’articles trompeurs. Aux Etats-Unis, certains souhaitent que Facebook soit considéré comme une entreprise de médias – responsable pénalement comme un éditeur de presse l’est en cas d’infraction – et non pas comme une plateforme numérique neutre, faisant référence à son statut d’hébergeur à responsabilité limitée. Facebook a été accusé avant l’été dernier de faire des choix éditoriaux au détriment des Républicains conservateurs américains. Le groupe de
Mark Zuckerberg avait démenti.
Quoi qu’il en soit, selon lui, plus de 99 % de ce que les internautes voient sur Facebook est vrai ; seulement une toute petite partie relève de fausses informations et de hoaxes. Au lendemain de l’élection présidentielle américaine, il avait qualifié d’« assez dingue » l’idée que la publication massive de fausses informations sur Facebook ait pu favoriser la victoire de Donald Trump. Certaines d’entre elles affirmaient par exemple que
« Hillary Clinton appellerait à la guerre civile si Trump était élu », ou que « le Pape François soutient Donald Trump » !
Quoi qu’il en soit, le 15 novembre, Facebook et Google ont décidé de couper les revenus publicitaires des faux sites web d’information. Les régies publicitaires du moteur de recherche et du réseau social, en position dominante sur leur marché respectif, détiennent les plus grandes parts de marché de la publicité sur Internet.
« Nous allons commencer à interdire les publicités de Google sur les contenus trompeurs, de la même manière que nous interdisons les publicités mensongères.
(…) A l’avenir nous allons restreindre les publicités sur les pages qui dénaturent ou masquent les informations sur l’éditeur, ses contenus ou le but premier du propriétaire du site », a indiqué le géant du Net dirigé par Sundar Pichai. De son côté, Facebook va aller aussi dans ce sens : « Nous n’intégrons pas ou ne montrons pas de publicités dans des applications ou des sites dont le contenu est illégal, trompeur ou mensonger, ce qui inclut les fausses informations. (…) C’était jusqu’à présent sous-entendu, mais nous avons mis à jour notre politique pour clairement exprimer que cela concerne les fausses nouvelles ».
Au delà de la bataille de l’information entre presse traditionnelle et réseaux sociaux,
sur fond de crédibilité de l’information, la publicité en ligne est elle aussi un autre terrain d’affrontement et de cannibalisation entre les deux mondes médiatiques. Les dépenses publicitaires sur les réseaux sociaux devraient dépasser pour la première fois celles de la presse en 2020. Pour l’heure, au niveau mondial, la publicité sur les réseaux sociaux publivores devrait peser en 2016 quelque 29 milliards de dollars – soit 16 % des investissements publicitaires globaux. Mais selon l’agence média Zenith Optimedia du groupe Publicis, les réseaux sociaux devraient s’arroger 20 % de ce marché en 2019 en dépassant la barre des 50 milliards de dollars – à 50,2 milliards précisément.
La publicité dans les journaux, qui affichera cette annéelà les 50,7 milliards de dollars, est ainsi rattrapée par le tsunami numérique, avant d’être coiffée au poteau l’année suivante. Parallèlement, la publicité vidéo en ligne dépassera à cette même échéance la publicité à la radio. Facebook, Twitter et consorts profitent de la généralisation des smarphones qui consacrent le social mobile et le m-video. « Les publicités des médias sociaux s’intègrent instantanément dans les fils d’actualité et sont bien plus efficaces que les publicités interruptives sous forme de bannière, en particulier sur les appareils mobiles », explique Zenith Optimedia.

La presse perd de la pub
La presse écrite est le média qui accuse la plus sévère baisse des recettes publicitaires, comme l’illustrent les chiffres de l’Institut de recherches et d’études publicitaires (Irep) sur les trois premiers trimestres de l’année 2016 en France :
– 6,6 % sur un an à 1,4 milliard d’euros (quotidiens nationaux et régionaux, ainsi que hebdomadaires régionaux, magazines et presse gratuite). La croissance des revenus publicitaires numériques des journaux, menacés par ailleurs par les ad-blockers et le refus préalable des cookies (3), ne compense pas la chute de la publicité commerciale imprimées et des petites annonces. @

Charles de Laubier

Consentement préalable aux cookies : les sites de presse en ligne dans le collimateur de la Cnil

La présidente de la Cnil, Isabelle Falque-Pierrotin, a indiqué à Edition Multimédi@ – en marge du DigiWorld Summit à Montpellier en novembre dernier – que les sites de presse en ligne sont parmi ceux qui ne respectent pas le consentement préalable des internautes avant toute dépose de cookies.

« A part Ouest-France, les sites de presse en ligne ne respectent la réglementation européenne sur les cookies, laquelle a pourtant été transposée dans la loi française “Informatique et Libertés” en 2011. Nous réunissons à
nouveau les éditeurs », nous a indiqué Isabelle Falque-
Pierrotin (photo), présidente de Commission nationale de l’informatique et des libertés (Cnil).

Réunion cruciale le 9 décembre
C’était en marge du DigiWorld Summit à Montpellier où elle est intervenue le 16 novembre sur le thème de la confiance dans l’économie numérique. Selon nos informations, les éditeurs de la presse sur Internet sont convoqués par la Cnil le
9 décembre prochain. Interrogée par EM@ sur l’état d’avancement des contrôles
que la Cnil a intensifiés depuis l’été dernier auprès des éditeurs sur le respect du consentement préalable des internautes – dit opt-in – avant toute dépose de cookies, Isabelle Falque-Pierrotin a déploré l’opposition de la presse de mettre en oeuvre ses recommandations émises il y a maintenant trois ans exactement. « Pour être valable, l’accord doit être exprimé avant le dépôt de cookie, de façon libre et en connaissant
la finalité des cookies déposés », rappelle la Cnil. C’est le 5 décembre 2013 qu’elle a adopté une recommandation « relative aux cookies et aux autres traceurs », qui avait été ensuite publiée au Journal Officiel du 7 janvier 2014, afin de rappeler à l’ordre les éditeurs de sites web sur les règles applicables depuis 2011 à ces mouchards électroniques ou trackers (1). Ces mesures redonnent aux internautes le pouvoir sur ces cookies qui sont déposés, souvent à leur insu, sur leur ordinateur, leur smartphone ou encore leur tablette, souvent à des fins de publicité en ligne plus ciblées. La quasi totalité du marché publicitaire sur Internet et les applications mobiles – plus de 2,6 milliards d’euros de chiffre d’affaires en 2015 en France, selon l’Institut de recherches et d’études publicitaires (Irep) – s’appuie sur l’existence de ces petits traceurs indiscrets. Or la législation européenne est ainsi passée du droit de refus (opt-out) au consentement préalable (opt-in). C’est la directive européenne « Service universel et droits des utilisateurs » de 2009 qui a posé « le principe selon lequel le stockage d’informations sur l’équipement d’un utilisateur ou l’accès à des informations déjà stockés, ne devaient être mises en oeuvre qu’avec le consentement préalable de l’utilisateur » (2).
La pression de la Cnil sur les éditeurs, notamment les récalcitrants de la presse en ligne, se fait d’autant plus forte que depuis le 8 octobre dernier a été publiée au Journal Officiel la loi « République numérique », laquelle porte de 150.000 euros à 3 millions euros (3) le montant maximal des sanctions de la Cnil en cas d’infraction (amendes perçues par le Trésor public et non par la Cnil elle-même). Certaines sanctions peut être rendues publiques si elles étaient assorties de l’obligation d’insérer la condamnation dans des journaux et sur le site web incriminé – et ce, aux frais de l’éditeur contrevenant.
Pour l’heure, la Cnil s’en tient depuis la fin du troisième trimestre 2014 à des contrôles sur place et/ou en ligne menés (plusieurs centaines effectués) auprès des éditeurs de services et de presse en ligne, et notifie depuis juin 2015 quelque mises en demeure (plusieurs dizaines signifiées). Mais aucune sanction pécuniaire n’a été infligée à ce jour, malgré des menaces qui se sont faites plus pressentes le printemps dernier (4).
La présidente de la Cnil avait alors parlé d’un « moratoire » dont ont bénéficié près d’une dizaine d’éditeurs pour une quarantaine de sites web.

La presse française se rebiffe
Les syndicats de la presse magazine (SEPM), de la presse quotidienne nationale (SPQN), de la presse en région (UPREG), ainsi que le Bureau de la radio (Europe 1, RFM, Virgin Radio, RTL, RTL 2, Fun Radio, NRJ, Chérie FM, Rire & Chansons, Nostalgie, RMC, BFM) et le Groupement des éditeurs de contenus et de services en ligne (Geste) où l’on retrouve bon nombre de sites web de médias (Le Figaro, Le Monde, Libération, L’Express, Le Nouvel Observateur, La Tribune, TF1, M6, France Télévisions, Radio France ou encore Lagardère Active), avaient tous alors cosigné un courrier adressé à Isabelle Falque-Pierrotin pour dénoncer l’« exception française » dont fait preuve à leurs yeux la Cnil en voulant sanctionner le dépôt de cookies sans consentement préalable des utilisateurs.

Depuis fin juillet dernier, la Cnil a repris ses contrôles menés par deux équipes. Les éditeurs de médias en ligne ne sont plus les seuls dans le collimateur. Toujours selon nos informations, les régies publicitaires et les plateformes publicitaires basées sur le traitement des données – ou DMP (Data Management Platform) telles que Criteo, Weborama ou encore 1000Mercis – sont elles aussi dans le viseur de la Cnil.

Prestataires ad et data aussi
Cette dernière veut y voir clair dans les responsabilités des différents acteurs, y compris les Ad-servers (les serveurs gestionnaires de e-publicités), et inciter les différents maillons de « la chaîne de la publicité en ligne » à respecter les règles sur les cookies. « L’obligation de recueillir le consentement n’intervient que lorsque l’affichage de la publicité s’accompagne d’un traçage et/ou d’une collecte d’informations relatives à l’internaute par le site ou par un tiers », a rappelé la Cnil aux éditeurs et publicitaires. Mais nombreux sont les éditeurs Internet à s’opposer à cette obligation, prétextant qu’ils rencontrent des difficultés pour recueillir le consentement préalable des internautes avant le dépôt et la lecture de cookies : « Cela ferait obstacle à l’affichage de certaines publicités, entraînant une perte de revenu importante ; les cookies ne proviendraient pas de leurs propres serveurs, étant liés à l’activité de tiers partenaires, sur laquelle ils ne disposeraient d’aucune maîtrise. En conséquence, les éditeurs ne peuvent, à eux seuls, porter l’entière responsabilité de l’application des règles relatives aux traceurs considérés comme des “cookies tiers” car provenant de sociétés tierces ».
Pour la Cnil, ces intermédiaires techniques sont tenus de respecter la loi « Informatique et Libertés », et notamment le principe du consentement préalable de l’internaute au dépôt du traceur recueillant ses informations sur sa navigation, son profil, afin de lui délivrer des publicités ciblées et définir des algorithmes pour réaliser du profilage. Sinon, « la collecte des données par un cookie déposé avant l’acceptation de l’internaute (qui peut s’exprimer en déroulant la page visitée) est susceptible d’engager tant la responsabilité des éditeurs que celle des sociétés tierces ». C’est la raison pour laquelle la Cnil avait décidé l’été dernier d’étendre ses contrôles au-delà des seuls éditeurs de sites Internet, tout en rappelant aux impétrants qu’ils doivent respecter en outre la durée de conservation des cookies (13 mois maximum) et que les données collectées par leur biais doivent être aussi conservées pour une durée limitée.
Mais la Cnil ne peut faire cavalier seul dans ce domaine sur le Vieux Continent. Les
« Cnil » européennes doivent se concerter afin d’harmoniser leurs contrôles, voire leurs sanctions. Or, à ce stade, il n’y a pas d’accord (France et Grande-Bretagne n’ont pas
la même approche par exemple). « Lors de l’entrée en application du règlement européen relatif à la protection des données personnelles en [mai] 2018, les partenaires devront aussi communiquer l’origine des informations qu’ils utilisent ainsi que leur durée de conservation et préciser si un profilage est mis en oeuvre et la logique sous-jacente en cas de prise de décision automatisée ». @

Charles de Laubier

ZOOM

Comment Ouest-france.fr et Cnil.fr annoncent la couleur
« Ce site utilise des cookies. En poursuivant votre navigation sur ce site, vous acceptez l’utilisation des cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts et nous permettre de réaliser des statistiques de visites. Vous pouvez modifier les réglages d’acceptation des cookies pour ce site », avertit et justifie le site web du quotidienOuest-France.
Et d’expliquer ensuite : « Cliquez sur chaque catégorie pour activer ou désactiver l’utilisation des cookies. Le bandeau de couleur indique si les cookies sont actifs (vert, sur la gauche) ou inactifs (rouge, sur la droite) ».
Quant au site web de la Cnil, qui est censé montrer le bon exemple, il se veut plus synthétique et propose une alternative : « En poursuivant votre navigation, vous acceptez le dépôt de cookies tiers destinés à vous proposer des vidéos, des boutons de partage, des remontées de contenus de plateformes sociales. “OK, tout accepter”
ou “Personnaliser” ». @

Claude Perdriel laisse derrière lui un « Nouvel Obs » exsangue et un « Rue89 » en perdition

Le patriarche de la presse française, Claude Perdriel (90 ans), va céder sa part minoritaire qui lui reste dans le capital de la société Nouvel Observateur du Monde. Il laisse derrière lui un hebdomadaire historique mal en point et un pionnier des médias en ligne devenu l’ombre de lui-même.

C’est en janvier 2014 que Le Nouvel Observateur était passé sous le contrôle du trio « BNP » – constitué par le milliardaire Pierre Bergé, l’industriel Xavier Niel (Free) et le banquier Matthieu Pigasse (Lazard). Ensemble, ils l’avaient acheté
13,4 millions d’euros à son fondateur Claude Perdriel (photo) qui en avait alors conservé 35 % (1). Outre Le Nouvel Obs, rebaptisé depuis L’Obs, l’acquisition incluait aussi le site de presse en ligne Rue89 qui avait été racheté par Claude Perdriel en décembre 2011 – il y a maintenant cinq ans.

Le bonheur n’est pas dans le Net
Alors que l’industriel millionnaire, inventeur du Sanibroyeur et épris de presse, va céder d’ici la fin de l’année le reste de sa participation au trio « BNP », l’hebdomadaire créé en novembre 1964 et le site web lancé en mai 2007 sont au plus mal. L’Obs est victime de la destruction créatrice du numérique et Rue89 n’a pas su trouver son modèle économique en ligne. Le monde digital fut sans doute le point faible du patriarche
de la presse française. Il n’a d’ailleurs jamais vraiment cru dans l’Internet. Et son investissement dans Rue89 en juin 2011 (moyennant 200.000 euros), suivi de son rachat six mois après (pour 7,5 millions d’euros), ne lui aura pas fait changer d’avis. Dès l’année suivant, l’audience du site de presse en ligne créé par d’anciens journalistes de Libération (Pierre Haski, Laurent Mauriac, Pascal Riché et Arnaud Aubron) fléchit. La version française du site américain The Huffington Post cofondé
par Arianna Huffington est lancé en janvier 2012 par le groupe Le Monde, qui lui
coupe l’herbe sous le pied. S’ensuivra une descente aux enfers et une perte d’identité symbolisée par le remplacement fin 2013 de Rue89.com par Rue89.nouvelobs.com. Entre temps, Rue89 a été contraint par Claude Perdriel de quitter le Syndicat de la presse indépendante d’information en ligne (Spiil) qui, contrairement au groupe Nouvel Observateur (assurant alors la présidence de l’AIPG, l’association des grands titres de presse), prônait la suppression des aides directes d’Etat à la presse (2).
Interrogé en mars 2014 par l’Association des journalistes médias (AJM), Claude Perdriel faisait part de son dépit : « Internet m’inquiète et me désespère un peu pour
ce qui concerne la presse écrite », avait-il confié. Celui qui s’est lancé il y a trente ans avec succès dans les fameuses messageries roses sur Minitel (les 3615 Aline ou 3615 Jane), lesquelles lui ont permis de faire oublier l’échec du Matin de Paris et de renflouer Le Nouvel Observateur, a toujours considéré qu’Internet mettait en péril la presse :
« Moi, je ne crois pas au payant en matière d’Internet. En tout cas, absolument pas pour l’information généraliste. L’information est partout et elle est gratuite. Les internautes ne paieront jamais. L’univers médiatique que je défends est menacé, y compris par Internet, par lui-même ». A-t-il regretté d’avoir acheté Rue89 pour 7,5 millions d’euros en janvier 2012 ? « C’était un peu cher. (…) Ils étaient en péril, même gravement ; ils auraient peut-être disparu. Mais on a pas vraiment fait prendre la mayonnaise : on ne les a pas ramenés à côté de l’Observateur » (dixit devant l’AJM). Finalement, Claude Perdriel aura été plus à l’aise avec les messagerie roses sur Minitel qu’avec les sites de presse en ligne ! « J’ai été à l’origine du Minitel rose en 1984. J’avais déjà imposé deux pages de petites annonces dans le journal [Le Nouvel Observateur, ndlr] contre l’avis des bien-pensants, des rédacteurs les plus âgés, et avec les jeunes. Ces pages étaient formidables, romantiques, drôles. Je m’en suis servi pour créer 3615 Aline, et Xavier Niel [aujourd’hui copropriétaire de… L’Obs, ndlr] a suivi de modèle », a-t-il confié en janvier dernier (3).
D’ici la fin de l’année, L’Obs et ce qui reste de Rue89 seront la pleine propriété du trio
« BNP » au même titre que – au sein de la holding Le Monde Libre – le quotidien Le Monde, Télérama, Courrier International et La Vie Catholique acquis en 2010 pour
100 millions d’euros. Tous ces titres seront rassemblés au futur siège près de la Gare d’Austerlitz à Paris : déménagements prévus au cours de l’été 2017.

Quel avenir numérique ?
Mais d’ici là, L’Obs – qui a perdu 2,5 millions d’euros en 2015 et chuté de 13 % en diffusion sur un an à 401.000 exemplaires en moyenne par semaine – va devoir réduire ses effectifs de 189 à 143 personnes (3,6 millions d’euros d’économie), auxquels s’ajoutera une réduction de 1,1 million d’euros de fonctionnement. Pas de quoi être vraiment « heureux » (4). Il s’agit aussi de « rassembler sur le numérique toutes les forces, aujourd’hui trop dispersées » et de trouver « une nouvelle dynamique » en ligne. La période d’information-consultation en interne a pris fin le 19 novembre. @

Charles de Laubier

Les applis mobiles ne sont plus la chasse gardée des jeux, mais leur monétisation reste encore aléatoire

Le chiffre d’affaires mondial des « appli mobiles » va croître de 22 % en moyenne par an, de 69,7 milliards de dollars en 2015 à 188,9 milliards en 2020, selon la société de conseil App Annie. Mais derrière cet eldorado des apps, concurrentes du Web, très peu d’éditeurs tirent leur épingle du jeu.

Si vous n’êtes pas un éditeur de jeu vidéo, vous avez peu de chance aujourd’hui de faire du chiffre d’affaires avec votre application mobile. Il ressort en effet de l’étude d’App Annie, que les jeux représentent encore la majeure partie du chiffre d’affaires généré par les « applis » dans le monde : 66 % des 69,7 milliards de dollars de revenus en 2015, soit 46 milliards de dollars (1). Difficile donc dans le monde impitoyable des applis mobiles de tirer son épingle du… jeu. C’est une question de « monétisation ».

Les jeux fremium en tête
La principale porte d’entrée des « apps » se trouve dans le fremium qui, comme son nom l’indique (free pour gratuit et premium pour prime), consiste à attirer les mobinautes vers la version gratuite de l’application avant de lui proposer de payer une version moins limitée (en niveaux, en bande passante, en durée d’utilisation, en espace de stockage, …) ou bien des options à régler dans l’application elle-même (in-app).

Le succès planétaire de Pokémon Go illustre bien la stratégie du fremium, qui, dans
le jeu vidéo, s’est commué en free-to-play. D’après la société d’analyses AppsFlyer, environ 5 % des utilisateurs de ces jeux freeto- play font des achats dans l’appli (in-app) pour une dépense de près de 10 dollars par mois en moyenne. Les détenteurs de terminaux sous iOS d’Apple sont même plus dépensiers avec plus de 15 dollars par mois en moyenne, tandis que ceux sous Android de Google sont plus économes avec
à peine plus de 7 dollars par mois. Bien que les petits ruisseaux fassent les grandes rivières, ces petites dépenses in-app ne suffiront pas seules à Niantic, l’éditeur de Pokémon Go, pour franchir cette année la barre du 1 milliard de dollars de recettes. Pour y parvenir, l’entreprise de John Hanke table aussi sur les lieux sponsorisés que des annonceurs et/ou des commerçants proposent aux chasseurs de Pokémon avec l’espoir que ces derniers deviennent clients (2). S’inscrivent en tête de cette stratégie payante du freemium : l’éditeur japonais Mixi, dont le studio XFlag a développé
« Monster Strike », l’éditeur finlandais Supercell qui a développé « Clash of Clans » (Softbank a revendu en juin dernier sa participation de 73,2 % à Tencent), et l’éditeur américain Machine Zone (MZ) qui édite « Game of War – Fire Age ». Les bonus tels que les speed-ups (gagner du temps ou des niveaux), les objets virtuels (outils, armes, ou atouts) et les upgrades (versions améliorées) mettent du beurre dans les épinards des jeux mobiles.
Si la publicité intégrée dans les applis constitue la première source de revenu en 2015 (40 milliards de dollars environ) et devrait le rester d’ici à 2020 (110 milliards), les prévisions d’App Annie montrent que le freemium va renforcer sa seconde position entre 2015 (20 milliards de dollars) et 2020 (60 milliards). En revanche, les modèles d’applications payantes – téléchargeables moyennant paiement mais sans achats intégrés (comme « Grand Theft Auto: San Andreas », « Facetune » et « Terraria »)
–  ou « paidmium » – comprenez téléchargeables moyennant aussi paiement mais cette fois avec achats intégrés (comme « Minecraft Pocket Edition », « Minecraft: Story Mode » et « Ghost Blows Out the Light 3D ») – resteront très minoritaires sur le marché mondial des apps. Ensemble, le téléchargement payant et le paidmium progresseront moins vite que la publicité et le freemium : leur total de chiffre d’affaires qui était d’à peine 5 milliards de dollars en 2015 ne dépassera pas les 10 milliards en 2020. Bien que ce montant ne soit pas négligeable, cela reste très peu.

Montée des abonnements
Pour les achats intégrés (in-app) , les formules d’abonnements font de plus en plus recette et représentent aujourd’hui environ 15 % du chiffre d’affaires généré sur les app stores. « Différentes catégories sont concernées, notamment le streaming musical (Spotify et Pandora Radio), le streaming vidéo (Netflix et HBO Now) et la rencontre (Tinder). Apple et Google ont opéré des changements en juin 2016 qui devraient stimuler davantage les abonnements. L’App Store Apple et Google Play ont augmenté la part de chiffre d’affaires reversée aux éditeurs pour les abonnements, qui sont désormais ouverts à toutes les catégories d’apps sur iOS, y compris les jeux »,
précise l’étude, en constatant que le succès rapide des abonnements tient en partie à leur adéquation avec certaines catégories et approches freemium (NYTimes, Netflix, Spotify, …).
De son côté, le cabinet d’étude Gartner a constaté que les transactions in-app généraient 24 % de dépenses en plus par rapport aux applications au téléchargement payant.

iOS dépense plus qu’Android
Selon cette enquête publiée en mai dernier, il ressort que les mobinautes déboursent en moyenne 9,20 dollars par trimestre dans des transactions in-app, contre 7,40 dollars dans le « paid-for apps ». « Cela confirme qu’une fois les utilisateurs ont confiance en l’application mobile pour leur apporter de la valeur ajoutée sans avoir à payer préalablement, alors ils trouvent plus facile de dépenser in-app », commente Stéphanie Baghdassarian, directrice de recherche de Gartner en France. En revanche, la publicité intégrée dans les applis n’a pas prouvé qu’elle apportait de la valeur ajouté à l’utilisateur : seulement 20 % des personnes interrogées par Gartner déclarent cliquer souvent sur des publicités contenues dans les apps ; elles sont surtout près de 66 %
à dire qu’elles ne cliquent pas sur ces publicités.
Les applications mobiles étaient jusqu’à récemment la chasse gardée des éditeurs
de jeux vidéo, lorsque ce n’était pas des médias et des industries du divertissement. Les autres acteurs, notamment les entreprises de différents secteurs professionnels (banques, services, administrations, …), ont encore du mal à se convertir au mobile. Selon App Annie, la part des éditeurs d’apps « hors-jeux » devrait augmenter significativement dans le chiffre d’affaires total des applis mobiles dans le monde,
pour passer de 34 % en 2015 (24 milliards de dollars) à 45% en 2020 (85 milliards
de dollars).
Au total, App Annie prévoit une croissance de 270 % du chiffre d’affaires net généré par les applications mobiles dans le monde en cinq ans. Avec un rythme moyen annuel de 22 %, ce marché passera de 69,7 milliards de dollars en 2015 à 188,9 milliards en 2020. « Cette croissance est due à deux facteurs : d’une part, la forte hausse du temps passé dans les apps, les utilisateurs ayant doublé leur temps d’utilisation au cours des deux dernières années, et, d’autre part, le doublement du nombre d’utilisateurs de smartphones et de tablettes dans le monde, qui devrait s’élever à 6,2 milliards en
2020 », explique l’étude d’App Annie. Les applis devraient en outre profiter du fait que le Web est, depuis octobre dernier selon StatCounter, désormais plus consulté à partir de terminaux mobiles que des ordinateurs. C’est une première mondiale.
En termes de durée d’utilisation des applis, la croissance est exponentielle : les mobinautes passent plus de temps sur les apps de communication, suivies des
réseaux sociaux, des jeux, et des médias/vidéo. Les catégories médias et vidéo sont même en passe de surpasser les jeux en temps passé. Mais d’autres secteurs d’activité s’approprient à leur tour les applis, comme le transport et le commerce, dont le temps passé explose (bien que partant de très bas). « Les marchés matures comme les Etats-Unis et le Japon sont en pleine transition, passant d’une phase de croissance des téléchargements à une phase d’utilisation accrue et de développement du chiffre d’affaires des apps », indique App Annie. Sans surprise, l’écosystème d’Apple (iOS) génère le plus de chiffre d’affaires en 2015 (41 milliards de dollars) et devrait conserver cette première place d’ici à 2020 (99,3 milliards). Cette prédominance de la marque à la pomme s’explique non seulement pas le fait que iOS est reste bien positionné sur les marchés matures, notamment aux Etats-Unis et en Europe, mais aussi parce que sa clientèle est plus « aisée » financièrement. Quant à Android (Google Play et app stores Android tierces), il arrive en seconde position des écosystèmes mais croît plus vite que iOS grâce à une présence sur les marchés matures et émergents.
Et encore, l’« app économie » est sous-estimée dans la mesure où beaucoup de transactions financières se font en dehors de l’appli. C’est le cas par exemple du m-commerce initié par une appli mais finalisé à l’extérieur. Exemples : eBay ou Uber. Les apps peuvent aussi apporter de la valeur ajoutée à un service existant en dehors de l’app économie, contribuer à accroître la notoriété des marques, fidéliser les clients, réduire les coûts ou encore améliorer le parcours client. L’impact économique des apps dépasse largement leurs frontières numériques, et les wearables (vêtements et montres connectés) ainsi que les objets connectés (dans tous les domaines) sont en passe d’étendre le domaine des applis.La rançon de la gloire des applis est l’hyper-compétitivité de ce marché très privé qui rivalise avec le Web ouvert. « The Web is dead » (3), lançait déjà le magazine Wired en 2010. Six ans plus tard, le World Wide Web vit toujours mais la vague des applis propriétaires et la désormais prédominance des terminaux mobiles sont en passe de le reléguer au second plan.

Jusqu’à l’« app-surdité »
Cet engouement pour les applis peut parfois tourner à l’« app-surdité », comme a cherché à l’illustrer l’organisme norvégien de protection des consommateurs en dénonçant les 32 heures qu’il lui a fallu pour lire sans discontinuité les conditions générales d’utilisation (les fameuses CGU) de seulement 33 applications mobile (4). Résultat : 31 heures 49 minutes et 11 secondes ont été nécessaires ! Si le nombre des applis dépasse 1,5 million dans le monde, l’institut de mesure d’audience ComScore avait démontré que les mobinautes n’en privilégient que quelques-unes et le taux d’abandon reste très élevé. @

Charles de Laubier

Livre numérique : le format ouvert Epub est en passe d’intégrer le W3C, le consortium du Web

C’est un moment historique pour le jeune monde de l’édition numérique. Le format ouvert Epub (electronic publication), conçu par l’International Digital Publishing Forum (IDPF) pour développer des livres numériques, va devenir à partir du 1er janvier 2017 un standard du World Wide Web consortium (W3C).
Les membres de l’IDPF viennent d’approuver ce ralliement.

tim-berners-lee

Les membres l’International Digital Publishing Forum (IDPF),
à l’origine du format ouvert Epub et ses évolutions pour le livre numérique, ont jusqu’au 4 novembre prochain pour voter en faveur du projet de ralliement de leur organisation au World Wide Web consortium (W3C). C’est le 13 octobre dernier que le conseil d’administration de l’IDPF, présidé par Garth Conboy, en charge chez Google de l’ingénierie logiciel et de la normalisation (1), a approuvé le plan de transfert vers le W3C qui est actuellement soumis aux membres.

Alliance du livre et du Web
Parmi les membres de l’IDPF, qui doivent se prononcer en vue de confier à partir du
1er janvier 2017 l’avenir du format Epub au W3C, l’on retrouve, pour la France, Editis, Hachette Livre, Izneo (Média Participations), Actes Sud, Dilicom, le Syndicat national de l’édition (SNE), le Cercle de la librairie (Electre), le Syndicat des distributeurs de loisirs culturels (SDLC) ou encore la plateforme de livres numériques Youboox (2). Comme le préconisent les dirigeants de l’IDPF (3), et malgré des opposants tels que OverDrive ou Microsoft, il ne fait aucun doute que le vote entérinera la décision d’intégrer le consortium du Web fondé en 1994 et aujourd’hui dirigé par Tim Berners-Lee (photo), l’inventeur du World Wide Web. « Nous partageons une vision excitante entre le W3C et l’IDPF de pleinement harmoniser l’industrie de l’édition et
le coeur de la technologie Web. Cela va créer un environnement média enrichi pour l’édition numérique qui ouvre de nouvelles possibilités pour les lecteurs, les auteurs
et les éditeurs », avait déclaré le célèbre informaticien et physicien britannique en mai dernier lors du BookExpo America 2016 à Chicago. « Pensez au livres éducatifs. Le contenu du livre que l’on connaît aujourd’hui est en train de devenir hautement interactif et accessible avec des liens vers des vidéos et des images issues des événements historiques actuels et des données de recherche originales. Cela va donner une plus grande authenticité et un environnement d’apprentissage plus engageant pour les professeurs et les étudiants », s’était enthousiasmé Tim Berners-Lee. Six mois après son intervention, la fusion-absorption de l’IDPF est en passe d’être validée. Le format Epub rejoint ainsi les autres standards du Web tels que HTML, CSS, SVG ou encore ECMAScript dans l’Open Web Platform (OWP), une bibliothèque technologique lancée par le W3C en 2010. Au sein du W3C, c’est le Digital Publishing Interest Group (DigPubIG) qui prendra sous son aile le format ouvert pour livres numériques afin de poursuivre son développement au sein d’un écosystème d’impression numérique ouvert et interactif, avec recours aux métadonnées et aux contenus enrichis (de la typographie jusqu’au multimédia).
En France, où une association EDRLab (4) a été créée il y a un an par les maisons d’édition à Paris afin de développer avec l’IDPF des logiciels libres pour le livre numérique, le SNE va accueillir le 16 novembre prochain le directeur général du W3C, Jeffrey Jaffe, dans le cadre des 17e Assises du livre numérique consacrées à ce rapprochement Epub- Web. Ce dernier reconnaît que « les premières technologies
du Web n’ont pas répondu aux besoins rigoureux des auteurs et des éditeurs, dont le contenu est conçu dans des livres, des journaux et des magazines avec une typographie améliorée ». L’Epub au sein du W3C va y remédier.
Les maisons d’édition françaises, au premier rang desquelles se trouvent Editis (La Découverte, Le Cherche Midi, Xo Editions, …), Madrigall (Gallimard, Flammarion, Casterman, …) et Media Participations (Dargaud, Dupuis, Fleurus, Izneo, …), misent plus que jamais sur Epub 3 pour résister aux deux géants mondiaux du livre numérique que sont Amazon et Apple, ainsi qu’à Adobe, dont les systèmes respectifs de ebooks fermés et verrouillés sont non-interopérables (5). Les développements technologiques pour ebooks devraient s’accélérer. Car, pour l’heure, les ventes de livres numériques en France progressent trop lentement : elle ne représentent en 2015 que 6,5 % du marché français du livre, soit 173,3 millions d’euros – alors que c’est 24 % aux Etats-Unis, 16 % au Royaume-Uni ou encore 8,2 % en Allemagne. @

Charles de Laubier

ZOOM

Epub fête ses 10 ans en 2017
Déjà basé sur les standard HTML, CSS, SVG et XML développés par le W3C, le format Epub fut standardisé en septembre 2007 à partir de la première version appelée alors OEB (Open eBook Publication) et créée en 1999. Et depuis octobre 2011, c’est la version Epub 3 qui a pris le relais. Depuis un an maintenant, l’IDPF travaille sur la version Epub 3.1 dont les spécifications techniques récemment adoptées font encore l’objet d’une consultation publique jusqu’au 7 novembre prochain. @