Sites web, applis et bientôt vidéo : comment la mesure d’audience de l’Internet devient « globale »

Médiamétrie intègre désormais les mesures d’audiences des tablettes à celles, déjà fusionnées depuis deux ans, des ordinateurs et des smartphones. Les premiers chiffres « Internet global » seront publiés fin mars. Sites web et applis sont concernés, et bientôt la vidéo.

Par Charles de Laubier

Coralie FourmentrauxLe triptyque « ordinateur+mobile+tablette » a désormais sa mesure d’audience globale sur Internet. Les résultats obtenus sur janvier 2015 seront publiés pour la première fois par Médiamétrie en
mars prochain. D’ici là, courant février, médias, annonceurs et professionnels de la publicité en ligne concernés ont accès de façon confidentielle aux résultats tests effectués sur le mois de décembre 2014. Près de deux mois sont en effet nécessaires pour « fusionner » les données provenant à la fois des ordinateurs (mesures site centric et panel de 20.000 personnes), des smartphones (logs opérateurs mobiles et panel de 10.000 individus) et maintenant des tablettes (panel de 1.500 et, selon nos informations, bientôt mesures site centric).

Internet global « single source » en 2016
Les tablettes, que les panélistes soient sous Android ou sur iOS, complètent ainsi l’ « Internet global » que l’institut de mesure d’audiences proposera désormais tous les mois. « Nous allons pouvoir, à partir de mars, fournir aux acteurs du marché une vision globale de leurs usages, de leurs audiences et de la puissance de leurs marques sur l’ensemble d’Internet et sur les trois écrans », a dévoilé Coralie Fourmentraux (photo), directrice des projets et développement chez Médiamétrie//Netratings, société commune entre l’institut français Médiamétrie et le groupe hollandais Nielsen (1).
A l’heure du multi-écrans (au nombre de 6,4 en moyenne par foyer en 2014) et du multi-tasking, cette évolution globale de la mesure d’audience en ligne – aux résultats dédupliqués pour prendre en compte l’effet cross-media – est la bienvenue au moment où les internautes (43,5 millions en France), les mobinautes (30,4 millions) et les tablonautes (12,6 millions) sont pour une part les mêmes utilisateurs.
Le mediaplanning, qui entre dans l’ère du « trois écrans », va permettre aux marques
et aux agences publicitaires d’établir leurs plans medias multi-terminaux. La prochaine étape importante de l’Internet global de Médiamétrie va être de passer de la fusion des données de mesures à une seule source de données, ce qui devrait aussi raccourcir le délai entre la mesure et sa publication. « Pour l’instant, nous utilisons une méthodologie de “fusion”. Mais nous préparons cette année, pour l’an prochain, une méthodologie single source, avec des panélistes qui seront alors à la fois sur ordinateurs, mobiles et tablettes, au lieu d’avoir les trois panels différents actuels. Ce nouvel “Internet global’’, qui ne fournira plus qu’un seul chiffre de référence à partir de données exhaustives, sera disponible mi-2016 », a-t-elle indiqué. Ce panel unique multi-écrans sera toujours enrichi – par hybridation – de données site centric et de logs opérateurs. Médiamétrie passera dans le même temps de trois à une nomenclature globale unique, et pareillement pour la méthodologie de traitement. Pour les acteurs du Net et des médias, notamment des publicitaires, les résultats de référence seront restitués sur
une seule interface web au lieu de trois jusqu’à maintenant. Rappelons que, depuis
mai 2014, Médiamétrie et Google ont lancé en France « le premier panel single
source multi-écrans » composé de 2.900 foyers équipés de quatre écrans : télévision, ordinateur, tablette et mobile. Le géant américain utilise ses technologies de mesure pour Internet, tandis que l’institut français utilise les siennes pour la télévision. Cependant, les résultats PAME (Panel Multi Ecrans) des deux partenaires sont réservés aux clients et ne sont donc pas publiés. « Il est par contre bien prévu de proposer au marché une mesure TV 4 écrans, dont les premiers résultats devraient être disponibles d’ici la fin de l’année », a indiqué Coralie Fourmentraux à Edition Multimédi@.
Médiamétrie//Netrating a en outre lancé en novembre dernier une offre baptisée XCR (Cross Campaign Ratings), qui propose de mesurer l’efficacité publicitaire à travers un bilan d’exposition « TV + Net » et reposant sur les mesures Médiamat de Médiamétrie et l’offre existante OCR (Online Campaign Ratings) de Nielsen. Cela permet de mesurer la couverture globale à un plan bi-média (télé/online).

La vidéo en ligne donne la mesure
La vidéo n’est pas en reste puisque Médiamétrie prépare pour cette année une mesure « Internet global vidéo », là aussi sur ordinateur, smartphone et tablette. Pour l’instant, la mesure de l’audience vidéo de l’institut français s’en tient aux ordinateurs depuis septembre 2011. « On va procéder en deux étapes. Dans le courant de cette année, nous allons proposer de premiers résultats d’usages et d’audiences aux acteurs qui sont taggués. Et l’an prochain, nous nous baseront sur le panel single source que l’on aura développé pour produire la mesure de référence exhaustive (ordinateur, smartphone et tablette) de la vidéo en France », a-t-elle encore annoncé. Quant au GRP Vidéo (GRP pour Gross Rating Point, ou PEB pour Point d’Exposition Brut), qui mesure la pression d’une campagne publicitaire sur une cible définie, il est enfin entré fin janvier dans phase de test sur des campagnes publicitaires réelles pour une commercialisation prévue ce mois-ci (courant février 2015).

Pub : comparer Net et TV
Le GRP Vidéo fournira des indicateurs comparables avec le GRP TV existant de la télévision. Initié en mai 2012 et très attendu par l’Union des annonceurs (UDA) et l’Union des entreprises de conseils et d’achat média (Udecam), il offrira un indicateur de GRP commun à la TV et au Net : définition du contact intégrant durée et visibilité). Après une consultation en avril 2014 auprès d’acteurs capables de mesurer la durée et la visibilité, Médiamétrie et les professionnels ont finalement choisi Integral Ad Science comme partenaire technique (au détriment d’Alenty et d’Adledge).
Reste à savoir si les chaînes de télévision (TF1, M6, France 2, …) et les plateformes vidéo (YouTube, Yahoo, Dailymotion, …) tireront avantage du GRP Vidéo. Pour les annonceurs, cette nouvelle mesure leur permettra de mieux connaître l’efficacité d’une campagne vidéo en ligne, notamment le réel impact en catch up TV (replay), et de son rapport qualitéprix. Le marché de la publicité vidéo sur Internet pourrait être incité à vendre du GRP Vidéo et non plus du CPV (coût par vue), du CPM (coût pour mille vues) ou du CPC (coût par clic), bref monétiser du qualitatif plutôt que du quantitatif.
La recherche d’audience pour les vidéos publicitaires pourra passer aussi par les achats aux enchères de type RTB (Real Time Bidding). Du moins si l’inventaire vidéo (comprenez les espaces publicitaires disponibles sur les sites web et les applications) faisait apparaître des invendus. Or, pour l’heure, L’offre d’inventaire vidéo est actuellement toujours inférieure à la demande des annonceurs…
Entre l’Internet global et le GRP Vidéo, le marché de la publicité sur Internet atteint un certain niveau de maturité. En France, ils sont à ce jour 35 millions de vidéonautes à regarder dans un mois 29 minutes et 3 secondes de vidéos en moyenne par personne et par jour (2). L’audience quotidienne moyenne par mois de vidéos dépasse même les 10 millions d’internautes, soit une progression de 8,3 % sur un an. @

Charles de Laubier

Le standard HTML5 prépare la revanche du Web sur les applications et les écosystèmes fermés

Lors de son intervention à la conférence LeWeb, le 10 décembre dernier, Tim Berners-Lee – l’inventeur du World Wide Web il y a 25 ans – a dénoncé les environnements fermés et verrouillés des « applis » mobiles, tout en se posant en garant de l’ouverture et de l’interopérabilité du Net. 2015 sera l’année du HTML5.

Tim Berners-Lee« Il nous paraît aujourd’hui naturel de regarder une vidéo directement dans son navigateur web, ou encore d’accéder au Web sur son téléphone. Nous nous attendons à pouvoir partager des photos, faire du shopping, lire le journal, et accéder à des informations partout, et sur tout type de terminal. Bien qu’invisibles pour la plupart des utilisateurs, HTML5 et la plateforme Web sont à l’origine de leurs attentes croissantes », avait déclaré Tim Berners-Lee (photo), président du consortium W3C, lors de la publication du nouveau standard HTML5 le 28 octobre dernier.

HTML5 et le principe de l’interopérabilité
Créé il y a vingt-cinq ans par le Britannique Tim Berners-Lee lorsqu’il était travaillait au Cern (ex-Conseil européen pour la recherche nucléaire) à Genève, le langage universel de création de sites et d’applications web Hypertext Markup Language (HTML) est plus que jamais – avec cette cinquième révision majeure – la clef de voûte du Web.
HTML5, c’est la garantie de pouvoir développer en une seule fois des sites et des applications en ligne qui seront interopérables sur les différentes plateformes et terminaux, tout en intégrant audio, vidéo, graphismes, animations ou encore dessins vectoriels (sans plugins). C’est la réponse du Web aux environnement plus ou moins verrouillés que sont les écosystèmes iOS d’Apple, Windows Phone de Microsoft, Android de Google ou encore le Fire OS d’Amazon, lesquels imposent autant de développements aux éditeurs d’applications. Avec l’HTML5, un seul développement cross-platform suffit selon le principe du « Développer une fois ; déployer partout ». Grâce à lui, les navigateurs web reprennent l’avantage sur les « applis » ou les
« apps » fermées.
Le cabinet d’études américain Gartner considère le HTML5 comme étant l’une des dix technologies mobiles les plus importantes pour 2015 et 2016. Et selon un sondage mené cette année par Vision Mobile auprès de 10.000 développeurs dans le monde,
42 % d’entre eux utilisent une combinaison d’HTML, CSS (1) et JavaScript (2) pour tout ou partie de leurs applications Web mobiles. HTML5 va leur faciliter la tâche, les développeurs de logiciels bénéficiant de la licence libre de droits et sans versement de redevances. Pour les industriels d’environnements propriétaires, soucieux de préserver leur walled garden, Apple en tête, ce standard ouvert présente des risques en matière de sécurité et de vie privée. Ce à quoi le W3C rétorque que la cryptographie, l’authentification et la gestion des identités feront parties intégrantes du nouveau standard. Le W3C, qui fête cette année ses vingt ans d’existence (3) et les vingt-cinq ans du Web, se diversifie de plus en plus pour répondre aux nouveaux usages tels
que les paiements web, l’automobile connectée, l’édition numérique, les télécommunications et les industries de divertissement (télévision, cinéma, etc.). Le HTML5 apparaît comme LA réponse à la fragmentation de l’économique numérique, confronté à la multiplication des plateformes – et terminaux associés – incomptatibles entre elles. Le problème de cette noninteropérabilité préoccupe la Commission européenne, qui y voit un morcellement du marché unique numérique :
« A peu près 35 % des développeurs ont été gênés par le manque d’interopérabilité entre plateformes comme Android, iOS et Facebook », avait-t-elle relevé en février dernier. En plus de ce frein technique, « une majorité de développeurs se sont
plaints de dépendre entièrement, de fait, des plateformes mises au point par les
géants américains, ainsi que des conséquences d’une telle dépendance en termes
de recettes » (4).
Après la neutralité du Net, l’interopérabilité deviendrait le nouveau sujet de débat en Europe. La fondation Mozilla, à l’origine du navigateur Firefox, est l’une des pionnières du HTML5. « Nous voulons que le Web soit la place de marché universel, la plateforme universelle, que l’on ait besoin d’iPhone, d’Android, de Windows ou autres. Les développeurs doivent pouvoir développer une seule application – en HTML5 – pour qu’elle soit utilisable sur tous les terminaux et plateformes », expliquait il y a un le Français Tristan Nitot, président fondateur de Mozilla Europe et porte-parole mondial
de la fondation (5).

Neutralité de l’Internet
Président depuis dix ans du W3C qu’il a fondé il y a vingt ans, Tim Berners-Lee est
un ardent défenseur de la neutralité de l’Internet. Britannique, il a été fait le 16 juillet
« chevalier commandeur » par la reine d’Angleterre Elizabeth II. « Le Web doit rester universel, ouvert à tous et n’altérant pas l’information véhiculée. La technologie devenant plus puissante et disponible sur davantage de types de terminaux d’accès », a-t-il déclaré à cette occasion. En 2015, il recevra le Prix Gottlieb Duttweiler. @

Charles de Laubier

La pomme d’Apple écrasée entre Google et Samsung en 2014 ?

En fait. Le 7 janvier, le cabinet d’études Gartner a estimé que les ventes mondiales de smartphones, ordinateurs et tablettes fonctionnant sous le système d’exploitation de Google franchiront le milliard d’unités cette année. Ayant adopté Android, Samsung est le premier à tailler des croupières à Apple.

Tim Cook, CEO d'Apple

Tim Cook, CEO d’Apple depuis août 2011

En clair. La pomme va-t-elle se faire écraser en 2014 ?
C’est ce que l’on peut craindre, tant la firme de feu Steve Jobs semble victime d’une double peine : non seulement elle perd des parts de marché sur les ordinateurs et terminaux mobiles au profit des smartphones, ordinateurs et tablettes fonctionnant sous Android, mais en plus Samsung profite – comme d’autres fabricants qui l’ont adopté tels que HTC, Sony ou Motorola (1) – de cet engouement pour le système d’exploitation ouvert (open source) du géant du Net, Google.

Plus de 1 milliard de terminaux sous Android seront vendus cette année
Selon Gartner, les ventes d’Android devraient franchir allègrement sur cette année la barre du milliard pour atteindre 1,1 milliard de smartphones, tablettes et ordinateurs sous Android – soit une hausse de 26 % sur un an.
Apple sera loin derrière avec 344,2 millions d’appareils vendus sous sa seule marque (iPhone, iPad, Mac) – aucune licence n’étant accordée à d’autres fabricants, faut-il le rappeler. Et encore, Apple n’arrivera qu’en troisième position puisque Microsoft s’arrogera la seconde place avec 359,8 millions de terminaux sous Windows. Il ne fait aucun doute qu’il y a une équation du volume versus la valeur, avec les utilisateurs d’Android qui achètent aussi des terminaux moins chers comparés aux utilisateurs d’Apple », souligne Annette Zimmerman, analyste chez Gartner.
Résultat : Android détient le plus grand parc mondial d’appareils en service, avec 1,9 milliard d’unités utilisés en 2014, contre seulement 682 millions de terminaux estampillés Apple. L’engouement pour les smartphones et tablettes à des tarifs d’entrée ou de milieu de gamme, aux performances technologiques toujours plus grandes d’une année sur l’autre (loi de Moore) semble disqualifier la marque à la pomme traditionnellement plus chère et plus haut de gamme.
Comme les consommateurs – aussi bien dans les pays développés mais en crise que dans les pays émergents mais peu dépensiers – ne sont pas près de changer, c’est à se demander si Apple n’est pas en train de manger son pain blanc… Cette prime donnée à des appareils moins chers a encore été démontrée par GfK (lire ci-dessous) et la Consumer Electronics Association (CEA), organisatrice du CES à Las Vegas. En outre, Google va en plus accroître la pression sur Apple avec sa filiale Motorola qui va passer
à l’offensive des smartphones low-cost pour séduire le plus grand nombre. @

Mozilla pose la question de la neutralité des App Store

En fait. Le 21 novembre, Tristan Nitot, président Mozilla Europe et porte-parole mondial de la fondation, est intervenu au DigiWorld Summit pour dénoncer « la face sombre des places de marché » de type App Store – Apple en tête. Il a plaidé pour que le Web soit « la plate-forme de marché universel ».

Tristan Nitot siteEn clair. Le fondateur de la Mozilla Foundation Europe, qui distribue depuis maintenant dix ans le navigateur Firefox (1),
n’y va pas avec le dos de la cuillère pour dénoncer les écosystèmes fermés tel que celui d’Apple. « Les places de marché comme l’App Store d’Apple ont une face sombre.
Les développeurs d’application sur ces plates-formes perdent
la relation avec les utilisateurs finaux. C’est un problème grave car ils ne peuvent plus se passer de ces intermédiaires. On est obligé de passer par Apple », a prévenu Tristan Nitot (photo), lors de son intervention incisive remarquée à Montpellier.

« Avec Apple, c’est très dangereux »
Selon nos informations, l’Arcep, intéressée par son propos, lui a demandé de le rencontrer pour parler avec lui de « la neutralité des plates-formes », question actuellement discutée au niveau de la Commission européenne, et le confier à intervenir lors du prochain colloque de l’Arcep l’an prochain, où la question des plates-formes ouvertes ou fermées fera partie des thèmes abordés.
A noter que le patron de Mozilla Europe est membre du Conseil national du numérique (CNNum) et participe justement au groupe de travail sur la neutralité du Net.

« La liberté des utilisateurs est remise en question lorsqu’une place de marché est monopolistique. Avec Apple, on a pas d’autre choix que de passer par l’App store.
C’est très dangereux. Au moment où l’on est en train de construire l’avenir de nos enfants, c’est très inquiétant. Ce n’est pas le type d’avenir numérique que je leur souhaite », a-t-il expliqué. « Chez Mozilla, nous voulons que ce soit le Web qui soit la place de marché universel, la plate-forme universelle, que l’on ait besoin d’iPhone, d’Android, de Windows ou autres. Les développeurs doivent pouvoir développer une seule application – en HTML5 – pour qu’elle soit utilisable sur tous les terminaux et platesformes. Pour les internautes et les mobinautes, c’est la garantie d’avoir accès à plus de contenus en contournant ces places de marché fermés », a-t-il plaidé.
Par ailleurs, il a précisé que la Mozzila Foundation renégocie son contrat triennal arrivant à échéance en décembre 2014 avec Google, lequel le rémunère pour le trafic apporté par Firefox à ce dernier. Interrogé par EM@, il n’a pas exclu que Bing de Microsoft puisse éventuellement devenir le partenaire « moteur de recherche » par défaut. @

Hervé Rony, Scam : « La dynamique de l’Acte 2 de l’exception culturelle s’effiloche »

Le directeur général de la Société civile des auteurs multimédia (Scam) fait part
de ses regrets sur le projet de loi de Finances 2014 (redevance, Cosip, …) et se
dit favorable au conventionnement de services Internet avec le CSA. Pour le livre numérique, il craint le piratage et l’autoédition comme pour la musique (il fut DG
du Snep de 1994 à 2009).

Propos recueillis par Charles de Laubier

HR EM@Edition Multimédi@ : Finalement, la redevance audiovisuelle
ne sera pas dissociée la propriété du poste de télévision, ni étendue aux autres écrans numériques, contrairement à ce
que voulaient Aurélie Filippetti et Rémy Pflimlin (France Télévisions) : le regrettezvous ? Faut-il l’augmenter ?

Hervé Rony : La Scam regrette vivement que le gouvernement ait figé toute réforme de fond de la contribution à l’audiovisuel public (CAP). Pourtant, l’an dernier, lorsque le Parlement a fort justement voté une première hausse, la ministre avait promis ce débat. Aujourd’hui, au nom de la pause fiscale : plus rien !
Du coup, même si le Parlement vote l’indexation de la redevance sur l’inflation, la CAP restera sensiblement moins élevée (133 €) que la redevance britannique (180 €) ou allemande (217,8 € par an). Il est grand temps que les pouvoirs publics proposent un élargissement de l’assiette (par exemple, comme en Allemagne, par foyer fiscal, résidences secondaires comprises).
Sur ce sujet comme sur d’autres, nous avons écrit au président de la République et au Premier ministre. C’est un sujet majeur. Nous attendons une réponse. Seule la CAP apporte un financement pérenne et de nature à assurer l’indépendance du service public de l’audiovisuel.
Car ne l’oublions pas, c’est non seulement France Télévisions qui est concernée mais aussi Radio France, Arte, RFI, France24, TV5 Monde, sans oublier l’INA qui remplit d’importantes missions et qui verse des droits aux auteurs sur l’exploitation des archives audiovisuelles.

« Oui, il est légitime de faire entrer dans le calcul des taxes qui alimentent le CNC les recettes issues des nouvelles formes d’exploitation des œuvres en délinéarisé. »

EM@ : Le projet de loi de Finances 2014 ne fait pas évoluer les taxes Cosip du CNC (1) : déjà appliquées aux chaînes TV, aux DVD-Blu ray et aux fournisseurs d’accès à Internet (FAI), pourquoi l’étendrait-on à la TV de rattrapage, à la vidéo sur le Net, les OTT et à la TV connectée ? Par ailleurs, faut-il instaurer la taxe Lescure sur les terminaux connectés ?
H. R. : Nous l’avons dit à la suite du rapport Lescure. Oui, il est légitime de faire entrer dans le calcul des taxes qui alimentent le CNC les recettes issues des nouvelles formes d’exploitation des oeuvres en délinéarisé.
Non pas que ceci génèrera aussitôt des recettes importantes, mais plutôt parce que c’est une question de cohérence et de logique du système de préfinancement des oeuvres.
Sur la taxe proposée par la mission Lescure sur les appareils connectés, nous y sommes favorables – même si sa mise en oeuvre pour alimenter à terme la rémunération pour copie privée mérite un examen approfondi. Mon regret est, comme pour la réflexion sur le financement du service public, le sentiment que la dynamique qu’avait créée l’annonce par François Hollande d’un Acte 2 de l’exception culturelle – mis en musique, si j’ose dire, par Pierre Lescure – s’effiloche, pour ne pas dire plus.

EM@ : Et faut-il taxer les boîtes de jeux vidéo comme le préconise le rapport Gattolin et Retailleau ?
H. R. :
Pourquoi pas ? Mais ce n’est pas la préoccupation première de la Scam.
Nous avons d’ailleurs vivement regretté que le rapport sénatorial n’accompagne pas
ces propositions de recommandations pour un véritable respect du droit d’auteurs dans
ce secteur.

EM@ : La Scam (comme la SACD) a conclu des accords avec Dailymotion et YouTube pour mises à disposition de films et de clips, mais avec l’accord préalable de chaque producteur : combien cela rapporte aux auteurs ?
H. R. :
Les revenus issus des plates-formes vidéo restent très modestes comparés à ceux issus des médias traditionnels. Le chiffre d’affaires de ces opérateurs progresse quand même. On peut donc espérer à terme verser à nos auteurs des sommes autres que symboliques. Mais à l’évidence, et c’est une préoccupation majeure, les nouvelles exploitations représentent une économie encore dérisoire. Et je me demande quand cela cessera d’être le cas.

EM@ : Les producteurs sont-ils trop attentistes vis-àvis du Net ?
H. R. :
Je n’ai pas de leçon à leur donner. Ce n’est pas facile non plus pour eux. Mais je crois, et cela vaut pour tout le monde, que nous devons aller de l’avant – quoi qu’on pense par ailleurs des nouveaux acteurs du Net.

EM@ : Devant la mission Lescure, la Scam a demandé à ce que les hébergeurs soient contraints de surveiller la légalité des contenus mis en ligne. Quant à la déclaration des services de vidéo en ligne auprès du Conseil supérieur de l’audiovisuel (CSA), comme l’envisage le projet de loi audiovisuel, doit-elle
induire ces obligations ?
H. R. :
On verra. En tout cas, la Scam voit évidemment d’un bon oeil que la mission Lescure ait évoqué le conventionnement de services en ligne et que le président du CSA ait sur ce point un volontarisme certain et qui est de bon augure. Il faut examiner de près la possibilité juridique de cerner et isoler l’activité éditoriale de contenus effectuée par des opérateurs, lesquels se réfugient derrière leur activité d’hébergeurs pour limiter leur responsabilité.

EM@ : La Scam compte 9.000 auteurs qui déclarent des œuvres de l’écrit. Estimez-vous que les accords entre éditeurs et auteurs sont suffisamment clairs sur les livres numériques ?
H. R. :
La Scam, en tant que membre du Comité permanent des écrivains (CPE), a participé à la négociation de l’accord que ce dernier a conclu avec le Syndicat national de l’édition (SNE) sur le contrat d’édition numérique. C’est un accord très important qui clarifie les relations auteurs-éditeurs et peut créer un climat de confiance qui n’existe pas à l’heure actuelle. Mais il faut que cet accord soit transposé dans le code de la propriété intellectuelle. Et ça tarde ! Nous n’avons aucune garantie d’un passage rapide au Parlement. Le CPE et le SNE viennent d’écrire à la ministre Aurélie Filippetti pour s’en inquiéter.

EM@ : Le piratage de ebooks est-il inéluctable comme cela l’a été pour la musique (lorsque vous étiez au Snep) ?
H. R. :
Le livre vit à l’évidence une mutation redoutable et les maisons d’édition se sont hâtées lentement. Cependant, rien ne se passe aussi brutalement que dans la musique qui, elle, a été dès le début des années 2000, littéralement happée par le piratage en ligne. C’est une chance. Les lecteurs sont sans doute moins immédiatement attirés par les nouvelles techniques numériques d’appropriation des œuvres que le public majoritairement jeune et technophile de la musique. Ceci étant le mouvement est en marche et ne s’arrêtera plus. Et le piratage s’installe notamment dans le secteur de la BD.

EM@ : L’autoédition sur des plates-formes Internet de plus en plus puissante menacent-elles les maisons d’éditions traditionnelles ?
H. R. :
Quant à l’autoédition, je reste prudent. Ceci peut servir les auteurs, dans une certaine mesure évidemment. La tentation de court-circuiter les éditeurs est forte. Parfois sans doute est-ce un choix positif pour se faire connaître, voire incontournable quand
les éditeurs vous tournent le dos. Il n’y a pas de règle absolue. Mais je fais partie de
ceux qui restent circonspects à l’égard de ce qu’on a appelé, dans un horrible jargon,
la « désintermédiatisation ». Dans la musique, le système de l’autoédition montre ses limites. Difficile pour un créateur, un auteur, un artiste de tout faire tout seul ou presque. @