Alexa d’Amazon, Assistant de Google, Siri d’Apple, … La France commence à donner de la voix

Amazon relance la bataille des assistants vocaux en France avec, depuis le 5 juin, la disponibilité de son assistant vocal Alexa pour tout type d’appareils compatibles (dont sa gamme Echo). Google l’avait devancé mi-2017 avec Assistant sur Home. Apple s’est aussi lancé le 18 juin avec Siri sur HomePod. Mais pour quel marché ?

Des dizaines de milliers de « skills », comprenez des « compétences » ou des « talents ». C’est ce que cumule l’assistant vocal Alexa d’Amazon depuis son lancement en 2014, notamment avec ses enceintes connectées Echo – mais pas seulement. Pour qu’un service ou un contenu soit accessible par cette nouvelle génération de « moteur de recherche » sur Internet, qui répond oralement à la voix, il faut le rendre compatible « Alexa » dans l’écosystème Amazon, « Assistant » dans celui de Google, ou encore « Siri » dans l’univers Apple.Les kits de développement « vocal » de ces géants du Net sont disponibles gratuitement. C’est la course aux « partenariats ». Depuis quelques jours, l’on assiste à une déferlante d’annonces en tout genre de fournisseurs de services ou de contenus et de fabricants d’appareils désormais « compatibles Alexa ».

Développeurs et médias sollicités
Depuis le 5 juin en France, les développeurs peuvent en effet obtenir en libre-service l’Alexa Skills Kit (ASK) pour créer de nouvelles applications à commande vocale (les fameux skills) et l’Alexa Voice Service (AVS) pour intégrer le « cerveau » d’Amazon – dopé à l’intelligence artificielle – dans de nouveaux appareils connectés. « Grâce à l’ASK, les créateurs, développeurs et marques peuvent imaginer des expériences attractives et toucher plusieurs millions de clients aux Etats-Unis, au Royaume-Uni, en Allemagne, en Inde, au Japon, au Canada, en Australie, en Nouvelle-Zélande et, désormais, en France », indique Fabrice Rousseau (photo), directeur chargé des « skills Alexa » en Europe. Développeurs et fabricants sont invités à rencontrer l’équipe Alexa d’Amazon lors d’ateliers mensuels ou durant les « Alexa Dev Days », lesquels se dérouleront notamment les 12 et 13 juillet à Paris ou en ligne via des webinars mensuels ou hebdomadaires. Amazon s’offre en outre sans frais une large couverture médiatique en laissant ses partenaires faire connaître leurs « skills » auprès du grand public. En annonçant le 5 juin la disponibilité en France d’Alexa, le géant du e-commerce Lire la suite

Le CSA accélère le déploiement de la RNT, mais l’arrêt de la FM en France n’est pas pour demain

Alors que la Norvège a commencé à couper avec succès la FM au profit de la RNT, la France n’y songe pas. Mais le CSA propose d’« accélérer le déploiement » dès 2018. Après la RNT diffusée à Paris, Marseille et Nice depuis 2014, c’est au tour de Lille, Lyon et Strasbourg de se préparer.

« Les appels à candidatures pour la radio numérique terrestre (RNT) sur Bordeaux et Toulouse seront lancés avant la fin de l’année », a indiqué Nicolas Curien (photo), membre du CSA et président du groupe « radio », à Edition Multimédi@. Tandis que Rouen et Nantes font actuellement l’objet d’un appel à candidatures lancé fin juillet : les dossiers peuvent être déposés jusqu’au 17 octobre. Quant à celui lancé il y a un an sur Lille, Lyon et Strasbourg, il vient d’aboutir à la sélection des éditeurs de radio.

Accélération de 2018 à 2020
« A Lille, les autorisations ont été délivrées en mai et publiées au Journal Officiel en juin, tandis que les dossiers des opérateurs de multiplex sont actuellement examinés, pour un début des émissions prévu en mars. Lyon et Strasbourg suivront avec un petit décalage », nous précise Nicolas Curien (1). Ainsi, en France, le déploiement de la RNT par le CSA poursuit son petit bonhomme de chemin – depuis le 20 juin 2014, date à laquelle les premières émissions en technologique DAB+ ont pu commencer à Paris, Marseille et Nice (2). Et encore : avant d’en arriver là, il aura fallu patienter le temps de trois rapports consacrés à la radio numérique (rapport Kessler de mars 2011, rapport Tessier de novembre 2009 et rapport Hamelin d’octobre 2009), sans oublier une consultation de la DGMIC (ministère de la Culture et de la Communication) en octobre 2012 sur la norme technique à utiliser, et le rapport du CSA de 2015 intitulé « Evolution des modes de diffusion de la radio : quel rôle pour la radio numérique terrestre ? ».

Et dire que la RNT avait été promise – du moins sur les trois premières agglomérations prévues Paris, Marseille et Nice – « pour fin 2008 » par Nicolas Sarkozy, alors président de la République, puis par Michel Boyon, alors président du CSA (3), « pour Noël 2009 »… Mais cette fois, le CSA dit vouloir mettre les bouchées doubles. « Afin de réussir le déploiement du DAB+ en France (4), le CSA propose d’accélérer le déploiement sur la période 2018-2020 et envisage diverses modalités d’organisation d’un appel aux candidatures métropolitain. Il souhaite recueillir les observations des acteurs sur ces deux voies », a justifié le régulateur de l’audiovisuel au moment de lancer la consultation publique fin juillet et jusqu’au 4 octobre prochain (5). En fait, il est prévu
« un double déploiement, à l’échelle locale et à l’échelle métropolitaine ». Il s’agit notamment, selon Nicolas Curien, d’éviter « les multiplex incomplets ou non constitués » qui aboutirait à « un réseau RNT en forme de gruyère à trous » et d’« un échec assuré ». En complément des allotissements étendus (métropoles régionales) pour
le déploiement de la RNT sur l’Hexagone, il est donc prévu aussi des allotissements locaux. Par exemple, aux trois allotissements étendus de Lille, Lyon, et Strasbourg et aux 13 allotissements locaux associés prévus, ont été ajouté en plus un allotissement dans chacune de ces métropoles régionales et deux allotissements locaux (l’un en Alsace, l’autre dans le Rhône).
Alors que les autorisations sur ces trois agglomérations sont sur le point d’être délivrées, force est de constater que – comme pour Paris, Marseille et Nice – les
quatre groupes privés nationaux des radios NRJ, Europe 1, RTL et RMC (entre autres stations) n’ont pas répondu à l’appel aux candidatures. Le gouvernement, lui, a demandé au CSA en novembre 2016 à préempter des fréquences pour Radio France (FIP à Lille et Lyon, Mouv’ à Strasbourg) et pour France Médias Monde (RFI à Lille, Lyon et Strasbourg). «Le CSA a réservé une suite favorable à ces demandes et a délivré l’autorisation à RFI et FIP à Lille, le 24 mai 2017. Pour les autres zones (Lyon, Strasbourg), les autorisations seront actées en même temps que celles des radios privées. A ce jour, il n’y a pas d’autres demandes de préemption en RNT pour le service public », nous indique François-Xavier Meslon, directeur au CSA des médias radio. Pour l’heure, le régulateur constate qu’« à l’exception d’un émetteur RNT dans l’Est parisien de couverture limitée, les antennes du service public les plus écoutées demeurent pour l’instant absentes de la RNT, notamment France Bleu, alors que la couche des allotissements étendus est la seule qui puisse répondre à ses besoins
de desserte de la population ». Qu’à cela ne tienne : les trente plus grandes agglomérations devraient être couvertes à la fin de 2020.

Limite de l’obligation de couverture
Pour justifier l’accélération du déploiement de la RNT à l’aide d’appels à candidatures au niveau plus local, axes autoroutiers compris, le CSA explique qu’il ne pouvait pas uniquement tabler sur le renforcement des obligations de couverture des éditeurs de radios. Ces obligations de couverture sont par exemple pour Lille, Lyon, Strasbourg, Rouen et Nantes de 40 % de la population au démarrage des émissions, 60 % de la population deux ans après ce démarrage, 80 % de la population quatre ans après ce démarrage. Pour Paris, Marseille et Nice, c’est seulement 20 %, 40 % trois ans après
le démarrage, et 80 % cinq ans après. « Si l’accélération de la montée en charge des obligations de couverture est un moyen nécessaire pour favoriser l’apparition d’un cercle vertueux de développement de la RNT, il n’est pas suffisant. En effet, il ne peut compenser la faible attractivité pour les éditeurs, à ce stade du développement de la RNT, de certains allotissements locaux dans les zones à faible densité de population », explique le CSA dans le texte de sa consultation publique. C’est la raison pour laquelle le régulateur de l’audiovisuel voudrait « tenir compte de cette faible attractivité » en prévoyant que « les prochains appels aux candidatures pourraient ne porter que sur
les principaux “bassins de vie” (6) de la France métropolitaine où, jusqu’à présent, le nombre de candidatures a excédé la capacité des multiplex mis en appel ».

Bassins de vie et axes autoroutiers
Partant de ce constat, le CSA envisage donc dès 2018 que les prochains appels à candidatures locaux portent « exclusivement » sur les allotissements locaux constitués par 30 bassins de vie les plus peuplés non encore concernés par un appel aux candidatures déjà lancé (hors Bordeaux et Toulouse dont les appels sont prévus d’ici
la fin de l’année, en même temps qu’une deuxième vague sur Paris, Marseille et Nice) et sur les allotissements étendus les contenant. Cela va du bassin de vie de Toulon et ses 577.264 habitants à celui de La Rochelle et ses 174.933 habitants. Mieux : le déploiement de la radio numérique hertzienne dans l’Hexagone va ainsi être accéléré : « Afin de favoriser l’apparition d’un cercle vertueux de développement de la RNT, le CSA envisage d’avoir lancé tous les appels locaux portant sur les principaux bassins
de vie d’ici fin 2020, alors que le calendrier adopté en décembre 2015 prévoyait de
finir cette étape du déploiement de la RNT en 2023 ». Le régulateur de l’audiovisuel envisage l’hypothèse de mener deux appels à candidatures par an, de 2018 à 2020,
un appel portant en moyenne sur les allotissements associés à cinq bassins de vie principaux. Les réponses à la consultation publique diront s’il faut ou pas viser une cadence plus élevée. En outre, il est prévu de mettre en appel plus d’un allotissement local dans certains bassins de vie : « Si un bassin de vie compte, par exemple, plus de 400 000 habitants, le Conseil pourrait examiner la faisabilité technique de dégager un second multiplex local ».

Au niveau national, cette fois, le CSA propose de lancer un appel aux candidatures métropolitain qui aurait pour but de délivrer une ou plusieurs autorisations permettant
à des radios d’être entendues par voie hertzienne terrestre en mode numérique sur l’ensemble du territoire métropolitain dans le cadre d’une procédure unique d’appels aux candidatures. Et de plaider dans ce sens : « Ce déploiement de la RNT à l’échelle métropolitaine pourrait notamment s’inscrire dans une logique de couverture des principaux axes routiers afin d’assurer la continuité géographique de réception des services à vocation nationale. Un tel déploiement pourrait s’inscrire en complément
du déploiement des réseaux mobiles dont il n’est pas exclu qu’à terme ils puissent également offrir une telle continuité ». Le régulateur de l’audiovisuel indique d’ailleurs que des obligations d’intégration de la RNT dans les récepteurs radio sont en vigueur depuis le franchissement du seuil de 20 % de la population française auprès de laquelle sont diffusées les radios en RNT (7). Fixer l’obligation de couverture entre 50 % et 60 % de la population métropolitaine semblerait approprié aux yeux du CSA, sachant qu’une autorisation « RNT » est délivrée pour dix ans. Le coût de diffusion d’un multiplex reviendrait alors entre 11 et 14 millions d’euros par an. L’appel aux candidatures au niveau national serait destiné soit aux éditeurs de radios eux-mêmes, soit aux distributeurs. Pour ces derniers, cela peut-être un acteur proposant un bouquet de services tout ou partie payante sous forme d’abonnement, ou bien un opérateur de multiplex composant lui-même le bouquet de radios numériques reçues librement.
« Un troisième modèle consiste à inclure dans le prix de vente des récepteurs RNT
ou de certains d’entre eux les coûts de diffusion et à préserver la faculté de librement recevoir les services du bouquet une fois que l’auditeur est équipé ». L’appel métropolitain ne devra pas oublier les autres services que la radio tels que la diffusion de données liées au trafic routier, à la norme TPEG (8) par exemple. @

Charles de Laubier

ZOOM

Presque toute l’Europe se met à la RNT
Plusieurs pays européens – Allemagne, Danemark, Italie Norvège, Pays-Bas, Royaume-Uni et Suisse – ont lancé la RNT en optant pour la norme DAB ou DAB+ (9). La Norvège a choisi d’amener les radios à abandonner progressivement la FM pour basculer en RNT, région après région, à commencer par le comté de Nordland où la
FM a cessé.
La région d’Oslo, la plus peuplée du pays, devrait arrêter la FM ce mois-ci. Seules des radios associatives dans des zones norvégiennes peu peuplées devraient pouvoir rester sur la FM. La présence d’un récepteur RNT dans presque toutes les voitures neuves et le développement du marché des kits d’adaptation des autoradios non incompatibles favorisent ce « switch-off » de la FM. Le Danemark pourrait être le prochain pays à basculer de la FM au DAB+.
En Suisse, plus du quart du volume d’écoute de la radio bénéficie à la RNT. Au Royaume-Uni, c’est un tiers du volume d’écoute de la radio. En Allemagne, un cinquième des véhicules neufs est équipé d’un récepteur RNT et 11 millions des foyers sont équipés. Aux Pays-Bas, une campagne TV vante les mérites de la RNT. @

Contrefaçon : comment la Sacem et l’Alpa sont venues à bout du site web de piratage T411

Considéré comme le premier site web de BitTorrent en France, T411 aurait causé un préjudice total de plus de 1 milliard d’euro si l’on en croit les ayants droit de
la musique et de l’audiovisuel. Après avoir contourné à l’étranger les blocages ordonnés en 2015 en France, T411 semble cette fois KO.

Torrent 411 – alias T411 – avait fait l’objet d’une plainte de la part de la Société des auteurs, compositeurs et éditeurs de musique (Sacem) en 2014, à laquelle l’Association de lutte contre la piraterie audiovisuelle (Alpa) a apporté son soutien. La juridiction inter-régionale spécialisée (JIRS)
de Rennes, à laquelle a été confiée l’enquête, avait alors ouvert « une information judiciaire des chefs de contrefaçon, association de malfaiteurs et blanchiment, visant le site Internet T411 en ce qu’il mettait à disposition de sa communauté près de 700.000 liens “torrent” vers des copies illégales de films, séries et albums audio » (avec un catalogue de 257 millions de films, séries, documentaires et émissions).

Préjudice : des millions à 1 milliard d’euros
Le 2 avril 2015, à la demande de la Société civile des producteurs phonographiques (SCPP), le tribunal de grande instance (TGI) de Paris avait rendu un jugement en ordonnant à quatre fournisseurs d’accès à Internet (FAI) français – Orange, Bouygues Telecom, Free et SFR – de bloquer l’accès à ce site web de liens BitTorrent accusé de piratage. Le blocage de T411 intervenait quatre mois après un autre blocage ordonné le 5 décembre 2014 par le même TGI de Paris auprès des mêmes FAI, à l’encontre cette fois de The Pirate Bay. Mais ce qui devait arriver arriva : le site web T411 incriminé a aussitôt changé de nom de domaine pour orienter les internautes du « t411.me » – visé par cette première décision judiciaire – vers un « t411.io », lui aussi bloqué par la suite (des clones prenant après le relais), tout en expliquant à sa communauté d’utilisateurs comment contourner le blocage des FAI avec force détails sur sept solutions de contournement proposées alors par site web ZeroBin (1). T411, qui d’après des chiffres de Médiamétrie a pu afficher une audience allant jusqu’à 2millions de visiteurs uniques par mois (pour 6 millions de membres), prend alors une dimension internationale et décentralisée pour échapper au blocage national finalement inefficace (2). « Lundi 26 juin 2017, six personnes ont été interpellées en France et en Suède, dont deux à Stockholm soupçonnés d’être les administrateurs du site. (…) Depuis l’ouverture du site, cette activité de mise à disposition illégale d’oeuvres protégées par des droits d’auteurs a généré au bénéfice de ses administrateurs plusieurs millions d’euros de revenus [entre 6 et 7 millions d’euros par an, d’après Numerama, ndlr], notamment issus de recettes publicitaires », a précisé dans un communiqué le procureur de la République de Rennes, Nicolas Jacquet (photo), lequel supervise l’enquête (3). Le chef du Centre de lutte contre les criminalités numériques (C3N) de la gendarmerie (voir encadré ci-dessous), Nicolas Duvinage, a indiqué à l’AFP que sur les six personnes interpellées, soupçonnées d’être administrateurs de T411, quatre l’ont été en France
(à Angers, Lyon, Montpellier et Strasbourg), et deux autres en Suède (notamment à Stockholm où se situaient des serveurs de T411). Ces deux derniers, « ressortissants ukrainiens », pourraient être extradés en France où se déroule l’enquête. Le 28 juin,
un mandat européen a été lancé contre un administrateur de T411 interpellé en Suède. Les membres de l’Alpa, notamment les organisations de la musique, ont été précurseurs en 2013 sur ce type d’action avec l’affaire Allostreaming (4), tout juste bouclée par la Cour de cassation, suivie par d’autres condamnations pour contrefaçon telles que celles des sites Wawa-mania, GKS, Wawa-torrent, eMule Paradise ou encore Zone Téléchargement (ZT). Avec 6 à 7 millions d’euros par an, T411 serait la plus grosse affaire de piraterie devant celle de ZT (1,5 million d’euros). Lors de sa plainte il y a trois ans, la Sacem avait estimé son manque à gagner à environ 3 millions d’euros. Quant à l’Alpa, dont le délégué général Frédéric Delacroix est cité par Next Inpact, elle a comptabilisé 257 millions de téléchargements : « Nous n’avons pas encore reconnu l’ensemble de nos oeuvres, mais le préjudice global peut excéder le milliard d’euros ». L’Alpa, qui n’entend pas en rester là, dit « vouloir s’intéresser de près aux plus gros uploaders ». @

Charles de Laubier

ZOOM

Le C3N : quèsaco ?
Le C3N est le Centre de lutte contre les criminalités numériques, au sein du Service central du renseignement criminel (SCRC) de la gendarmerie nationale. Ce centre dépend du pôle judiciaire de la gendarmerie nationale (PJGN) et regroupe l’ensemble des unités de ce dernier qui traitent directement de questions en rapport avec la criminalité (formation, veille et recherche, investigation, expertise) et les analyses numériques (département informatique-électronique de l’IRCGN (5)). Le C3N, basé à Cergy Pontoise (cyber[at]gendarmerie.interieur.gouv.fr) et dirigé par le colonel Nicolas Duvinage, assure également l’animation et la coordination au niveau national de l’ensemble des enquêtes menées par le réseau gendarmerie des enquêteurs numériques. @

L’intelligence artificielle pour l’accès aux contenus : une révolution à risque pour les industries culturelles

« La plateformisation générale des médias fait que l’accès à leurs contenus dépend d’algorithmes et d’intelligence artificielle sur lesquels ils n’ont pas la main », s’est inquiété Bruno Patino, directeur éditorial d’Arte. De plus, l’IA pousse à la répétition des comportements. La diversité risque d’y perdre.

« Allez voir sur YouTube “Daddy’s Car” (1) qui est une chanson composée non pas par François Pachet, le directeur du laboratoire de recherche de Sony à Paris [Sony-CSL, ndlr], mais par une intelligence artificielle qu’il
a développée “dans l’esprit” des Beatles. La musique est composée par une IA mais est interprétée par de vrais artistes chanteurs. Cela montre que les métiers de la création seront impactés par l’intelligence artificielle »,
a prévenu Bertrand Braunschweig, directeur du centre
de recherche à Saclay de l’Inria (2), lors du colloque NPA-Le Figaro le 16 mai dernier.

Flow Machines, Google Magenta, IBM Watson Beat
« Daddy’s Car » a été posté par Sony CSL sur YouTube il y a huit mois et a été vu et écouté depuis plus de 1,5 million de fois. Cette création musicale d’un nouveau genre a été entièrement composée automatiquement par le logiciel maison Flow Machines (3), lequel a aussi produit depuis « Mr Shadow » dans l’esprit de Gershwin. D’autres outils d’IA et de Machine Learning tentent aussi de réinventer la musique : Google Magenta (qui lance un synthétiseur neuronal NSynth (4)), IBM Watson Beat (dont l’IA musicale est testée par le groupe américain Phony PPL), Aiva (compositeur automatique de musique classique), ou encore Orb Composer (développé par la start-up française Hexachords). La puissance de calcul informatique associée au Deep Learning et aux réseaux de neurones artificiels permet d’obtenir des oeuvres qui n’ont parfois rien à envier à certains compositeurs, lesquels risquent de se faire « ubériser » par l’IA. L’université de technologie de Delft aux Pays-Bas n’a-t-elle pas, avec l’IA de Microsoft, peint un Rembrandt (5) plus vrai que nature ?
La production audiovisuelle ou cinématographique va elle aussi être impactée par l’exploitation massive des données et de l’apprentissage profond. Le réalisateur Oscar Sharp et le chercheur Ross Goodwin ont confié l’an dernier à un réseau neuronal, Benjamin, l’écriture d’un court-métrage de science-fiction baptisé « Sunspring ». La création automatique de scénarios, voire de films, pourrait bousculer à l’avenir les César, les Oscars et le Festival de Cannes. Mais pour Bruno Patino (photo), directeur éditorial d’Arte, l’IA dans l’audiovisuel n’en est qu’à ses débuts : « Dans la conception de contenus, on est encore loin. Pour les télévisions, on entrevoit une politique de création d’auteur qui va devoir s’accompagner d’outils de reproduction, de distribution et de recommandation faits par l’intelligence artificielle. La mauvaise nouvelle, je crois, c’est que l’on est très peu d’acteurs à avoir les capacités pour le faire et pour le comprendre. Face à nous, il y a un marché technologique ou de développeurs qui
est hors de portée financièrement pour beaucoup d’acteurs médiatiques aujourd’hui. C’est le mur qui est face à nous », a-t-il expliqué au colloque NPA. Cette barrière technologique doit être franchie, non pas forcément en maîtrisant la production d’intelligence artificielle, « car c’est très compliqué », mais en tout cas en en connaissant la grammaire. Et Bruno Patino de poursuivre : « La plateformisation générale des médias fait que l’accès à leurs contenus dépend d’algorithmes et d’intelligence artificielle sur lesquels ils [les médias] n’ont pas la main. Les télévisions, les câblo-opérateurs ou des journaux comme le Washington Post essaient de maîtriser cette intelligence artificielle, leurs algorithmes de distribution, afin de rester indépendants par rapport à Facebook ou Google. Dans un monde d’hyper-offre, il faut hyper-produire et l’intelligence artificielle peut aider ». Mais il admet qu’il y a encore du chemin à faire pour la conception de contenus à partir d’IA. Les médias et les industries culturelles vont dans un premier temps être confrontés à de très nombreux systèmes d’intelligence artificielle qu’il leur faudra arriver à maîtriser et à connaître. « Mais cela aura un coût induit élevé fort. On a beaucoup de systèmes d’intelligence artificielle à comprendre, sauf à être pieds et poings liés avec un acteur. », estime le directeur éditorial d’Arte.

Une atteinte à la liberté d’être déçu ?
Il y a cependant un dilemme qui se présente aux télévisions et aux médias : l’intelligence artificelle pousse à la répétition des comportements – ce qui va à l’encontre de la diversité : « Dans cette démarche-là, vous privez le téléspectateur
de la liberté d’être déçu. En outre, les bien culturels étant des biens d’expérience dont le consommateur ne connaît pas l’utilité avant de l’avoir consommé, toute cette intelligence artificielle vise à rendre prédictif l’utilité de biens culturels pour le consommateur final. Or si l’on connaît l’utilité par avance d’un bien culturel qui va être consommé, alors on réduit la production de ces biens culturels ». C’est un risque pour toutes les industries culturelles. @

Charles de Laubier

Gestionnaire des noms de domaine «.fr», l’Afnic a 20 ans mais peine à séduire les TPE et PME

C’est en décembre 2017 que l’Association française pour le nommage Internet
en coopération (Afnic) fêtera ses vingt ans. Malgré plus de 3 millions de noms
de domaine en « .fr », il lui reste à conquérir les TPE et les PME souvent absentes sur Internet. Ce sera la priorité de son futur directeur général.

Après le départ de celui qui était son directeur général depuis 2005, Mathieu Weill (photo de gauche), l’Afnic recherche son successeur. C’est Pierre Bonis (photo
de droite), actuel directeur général adjoint, qui assure entre temps l’intérim depuis
le 1er mai. Le futur dirigeant sera désigné dans les prochaines semaines à l’issue d’un appel à candidature lancé – avec l’aide d’au moins un cabinet de recrutement – par le conseil d’administration de l’Afnic qui se réunira le 9 juin.

Redoubler d’effort envers les TPE et PME
Créée en décembre 1997 à l’initiative de l’Inria (1) et de l’Etat français, l’Afnic est régie depuis 2011 par le Code des postes et des communications électroniques et le décret du 1er août qui s’en est suivi. « L’attribution et la gestion des noms de domaine rattachés à chaque domaine de premier niveau du système d’adressage par domaines de l’Internet correspondant aux codes pays du territoire national ou d’une partie de celui-ci sont centralisées par un organisme unique dénommé “office d’enregistrement”» (2). Et à partir du 25 juin prochain, le mandat de l’Afnic en tant qu’office d’enregistrement du « .fr » est prorogé de cinq ans à la suite d’un récent arrêté daté
du 5 avril dernier et signé par Christophe Sirugue, le secrétaire d’Etat sortant chargé
de l’Industrie, du Numérique et de l’Innovation (le remplaçant d’Axelle Lemaire). L’Afnic assure la gestion des extensions françaises de l’Internet : « .fr » (France), « .re » (La Réunion), « .yt » (Mayotte), « .wf » (Wallis et Futuna), « .tf » (Terres australes et antarctiques ) et « .pm » (Saint-Pierre et Miquelon). Rien que pour le « .fr », la barre des 3 millions de noms de domaine a été franchie en décembre 2016 malgré une faible croissance sur un an de 2,2 %. Il y a d’ailleurs un ralentissement depuis 2012, même
si le rythme de ce ralentissement tend à se stabiliser – selon l’Observatoire 2016 du marché des noms de domaine en France. Cela est dû à la baisse du nombre de créations de « .fr » ainsi qu’à la hausse continue du nombre de suppressions. A noter que le « .fr » a été ouvert à l’Europe en 2011. L’an dernier, le pourcentage de « .fr » déposés par des étrangers était de 7,5 %. Ces titulaires étrangers sont principalement situés en Allemagne (64.000 « .fr »), aux Pays-bas (30.000), en Grande-Bretagne (30.000) et en Belgique (27.000). Cependant, la part de marché du « .fr » en France
en 2016 est d’environ 35 % par rapport aux autres noms domaines – au premier rang desquels le « .com ». Cette proportion est stable depuis 2011. Cette faible croissance des « .fr » est sans doute à aller chercher du côté du «made in France » sur Internet
qui peine à attirer les très petites entreprises (TPE) et les petites et moyennes (PME). Pourtant, l’Afnic a lancé il y a maintenant cinq ans, en 2012, le programme et le site web associé « Réussir-en.fr » afin d’aider ces dernières « à amorcer leur transformation numérique et à développer leur présence en ligne ». Apparemment, cela n’a pas été suffisant pour convaincre les « petits » entrepreneurs. Aussi, pour la période 2017-2019, l’Afnic se donne pour priorité d’aider à « faire de la France un leader européen
de la présence en ligne ».
La priorité du prochain directeur général sera de « contribuer à développer la présence en ligne de 1 million de petites ou moyennes entreprises, qui ne sont pas encore présentes sur Internet ». L’association parapublique, engagée contre l’exclusion numérique, déplore elle-même que « les TPE et PME françaises sont encore absentes sur Internet ». Le vivier de ces entreprises françaises à convertir au numérique – soit encore 1 million à convaincre – est révélateur du retard dans ce domaine. « Enregistrer un nom de domaine et le configurer demeure encore complexe pour de nombreux publics. Pour faciliter les opérations destinées aux bureaux d’enregistrement et aux titulaires, l’Afnic va continuer à simplifier ses procédures », promet l’office d’enregistrement Internet français. « En 2017, l’Afnic va compléter son parcours d’accompagnement des entrepreneurs en leur proposant une étude de maturité de
leur présence en ligne et toujours plus d’ateliers dans leur région notamment par le biais de partenariats avec les acteurs clés de ce secteur », indique encore l’organisation basée à Saint-Quentin en Yvelines (où travaillent 80 personnes).

Diversification de l’Afnic : 14 gTLD
L’Afnic, qui a vu son chiffre d’affaires 2015 dépasser pour la première fois la barre
des 15 millions d’euros (à un peu plus de 15,7 millions précisément, en croissance
de 4.7 % sur un an, entraînant un retour à l’équilibre cette année-là (3), est aussi fournisseur de solutions techniques et de services de registre : elle accompagne
ainsi 14 projets de nouveaux domaines Internet de premier niveau (dits gTLD),
dont le « .paris » et le « .bzh ». @

Charles de Laubier

Avec Internet et le streaming, des musiciens sont tentés de se passer des maisons de disques

Le self-releasing musical émerge. Les plateformes d’auto-distribution – TuneCore de Believe Digital et SpinnUp d’Universal Music, mais aussi CD Baby, EMU Bands, Record Union ou encore Awal – séduisent de plus en plus d’artistes tentés de s’affranchir des producteurs de musique.

« Vous n’avez pas besoin d’un label pour partager votre musique dans le monde entier. Avec TuneCore, mettez facilement en ligne votre musique sur iTunes, Deezer, Spotify et plus de 150 autres plateformes digitales. Vous conservez 100 % de vos droits et 100 % de vos royalties ». Telle est l’accroche de la société newyorkaise qui a créé en 2005 une plateforme numérique de distribution mondiale de musiques. C’est la promesse, pour les artistes qui le souhaitent, de s’affranchir des maisons de disques – lesquelles risquent ainsi d’être « ubérisées » comme les maisons d’édition avec l’auto-édition (1).

100 % des revenus reversés à l’artiste
Cofondée par Jeff Price (qui a quitté l’entreprise en 2012) et basée à Brooklyn, la plateforme TuneCore se développe depuis à travers le monde. Après l’Australie, le Royaume- Uni, le Canada, le Japon, ainsi que depuis un an l’Allemagne et depuis octobre dernier la France, elle est aussi disponible en Amérique Latine, en Afrique,
en Russie, en Inde et à terme en Chine. Son PDG, Scott Ackerman (photo), se défend toutefois d’être en concurrence avec les majors de la musique (Universal Musi/EMI, Sony Music, Warner Music) ou les labels indépendants. A preuve : TuneCore a été racheté en avril 2015, il y a maintenant deux ans, par le producteur de musique français Believe Digital fondé par Denis Ladegaillerie – lequel fut président du Syndicat national des éditeurs phonographique (Snep) de 2010 à 2012 (2). Un partenariat stratégique a en outre été instauré entre les deux sociétés : des artistes distribués par TuneCore peuvent avoir la chance de signer avec les trois labels du groupe que sont Believe Recordings, Naïve ou Musicast. Pour séduire les artistes musicaux (musiciens, chanteurs et/ou compositeurs), la plateforme d’auto-diffusion musicale propose à partir de 9,99 dollars ou euros pour un sigle de distribuer le titre « dans le monde sur iTunes, Spotify, Deezer, Amazon Music, Google Play et plus de 150 plateformes ». En retour, le musicien – en herbe ou confirmé – peut espérer recevoir 100 % des revenus provenant des ventes par téléchargement et du streaming de sa musique, tout en conservant tous ses droits. Depuis sa création, TuneCore a déjà reversé près de 800 millions d’euros aux artistes pour un cumul de plus de 57 milliards de téléchargements et de streams. La France fut le troisième pays européen où TuneCore s’est implanté (tunecore.fr). Y sont organisées depuis peu, en partenariat avec le portail d’auto-promotion des artistes indépendants Scenes-locales.com, « Les Rencontres Indés ». Après le 9 mars dernier à Annecy, cette journée s’est déroulée le 18 avril à Marseille et va se tenir le 9 mai prochain à Nantes. TuneCore (alias Believe Digital) n’est cependant pas la première plateforme d’autoproduction musicale à se lancer sur ce marché naissant. La première major de la musique Universal Music (alias Vivendi) avait fait l’acquisition en 2012 de
la start-up suédoise SpinnUp, dont les tarifs et le reversement à 100 % sont les mêmes que ceux de TuneCore. Après la Suède, le reste de la Scandinavie, l’Allemagne et la Grande-Bretagne, cette plateforme (spinnup.com) a été lancée sur l’Hexagone en octobre dernier.
Le marché mondial du self-releasing prend de l’ampleur partout dans  le monde, dans la mouvance du DIY (Do It Yourself). Le suédois Spotify, la première plateforme mondiale de streaming musical, suggère aux artistes – qui n’ont pas signé avec un label ni avec un distributeur – de prendre contact avec des « agrégateurs qui peuvent rendre disponible [leur] musique et collecter des royalties pour [eux] ». Et d’indiquer le nom de certains : « TuneCore, CD Baby, EMU Bands, Record Union, SpinnUp, Awal » (3). Le français Deezer – propriété depuis juillet 2016 de l’américain Access Industries, maison mère de Warner Music (4) – fait aussi un appel du pied aux  « artistes non signés » : « Vous n’avez pas besoin d’être signé sur un label pour mettre votre musique sur Deezer ; vous pouvez rendre votre catalogue disponible à l’aide d’un distributeur. Ces sociétés gèrent l’octroi de licences, la distribution et l’administration de votre musique. Voici nos partenaires recommandés : TuneCore, Record Union, CD Baby, One RPM, SpinnUp, Awal », explique Deezer.

Des partenaires pour une chaîne de valeur
Ces plateformes d’auto-distribution musicale n’attirent pas seulement de jeunes talents. Des artistes confirmés (5) les utilisent. D’autant que ces « Uber » de la distribution musicale ont noué des partenariats avec d’autres prestataires capables de compléter
la chaîne de valeur au service de l’artiste indépendant : accord avec YouTube pour la monétisation de clips vidéo, société de pressage de CD ou de vinyles, prestataire spécialisé dans le merchandising, acteur du financement participatif, etc. L’artiste a
les cartes en main. @

Charles de Laubier

Après l’ordinateur, le smartphone est de plus en plus utilisé pour pirater des contenus audiovisuels

S’il y a bien un sujet qui n’était pas d’actualité au dernier Mobile World Congress, grand-messe de la mobilité qui s’est tenue à Barcelone, c’est bien celui de l’émergence du piratage de contenus à partir des smartphones. En France, ils seraient déjà près de 2 millions de mobinautes à pirater.

« Si auparavant le piratage nécessitait de télécharger un logiciel de peer-to-peer sur ordinateur, désormais le piratage est facilité par la possibilité d’accéder à des contenus en streaming sur des smartphones ou tablettes. La consommation illégale de contenus audiovisuels se développe sur les supports mobiles ». C’est ce que constate le cabinet EY dans son étude sur le piratage en France publiée fin février (1).

Streaming, DDL, live, P2P, …
C’est d’autant plus inquiétant pour les industries culturelles et les ayants droits que
la France compte aujourd’hui plus de mobinautes (24,3 millions) comparés aux internautes par ordinateur (23,8 millions) et même aux tablonautes (12,5 millions). Globalement, d’après l’institut de mesure d’audience Médiamétrie qui s’appuie sur
un panel d’analyse de 20.000 internautes (2), la France compterait aujourd’hui 13 millions de pirates en ligne (3) qui auraient consommé « illégalement » 2,5 milliards
de contenus audiovisuels. Parmi eux, ils sont maintenant 1,8 million de mobinautes
– soit 15 % de l’audience totale – à pirater des contenus audiovisuels à partir d’un smartphone. Ils sont dans ce cas 43 % à le faire sur des sites pirates de streaming,
21 % sur des sites de téléchargement direct (DDL), 20 % en live streaming (diffusion audiovisuelle en direct) et 16 % sur les réseaux peer-to-peer (P2P) (voir graphique ci-dessous). Les contenus audiovisuels pris en compte par EY, qui a analysé les données non seulement de Médiamétrie, mais aussi de l’Association de lutte contre la piraterie audiovisuelle (Alpa) et du Centre nationale du cinéma et de l’image animée (CNC), comprennent les films, les séries, les documentaires, les jeux vidéo, les informations
et les sports télévisuels, mais pas les plateformes légales de type YouTube, Dailymotion ni les réseaux sociaux comme Facebook. L’individualisation de la consommation média tend à augmenter le piratage à partir d’un smartphone. En complétant les données par une enquête terrain menée auprès de 3.000 individus ayant consommé des contenus vidéo de façon illégale sur douze mois, EY évalue globalement (ordinateurs, smartphones et tablettes) le « manque à gagner » en France à 1,35 milliard d’euros en 2016, et appelle notamment à « valoriser la richesse de l’offre légale » puisque l’étude constate que « 75 % des utilisateurs se déclarent prêts à payer pour une offre légale en l’absence d’alternatives illégales ».
L’étude d’EY est venue compléter l’étude de l’Alpa publiée également fin février, en partenariat avec Médiamétrie et le CNC, sur la consommation illégale de vidéos en France (voir tableau p.10). Si le nombre d’« internautes indélicats » (sic) a diminué – pour la première fois depuis que des mesures fiables existent – de 8 %, soit d’environ
1 million d’internautes sur un an (4), le piratage à partir d’un smartphone explose. En effet, en 2016, l’Alpa montre que sur les 1,9 million de mobinautes « pirates » (on remarquera la différence inexpliquée avec les 1,8 million de EY…) 44 % le font sur des sites de streaming, 38 % sur direct download et 18 % sur du peer-to-peer. Les croissance à deux ou trois chiffres l’an dernier démontrent la forte poussée du piratage mobile par rapport à 2015 : respectivement + 81 %, + 283 % et + 92 %. Les 25-49 ans « pirates » sont les plus nombreux, suivis par les 15-24 ans, puis les 50 ans et plus. De là à ce que le mobile prenne le relais du piratage, l’avenir nous le dira. @

Charles de Laubier