Radio France : Sibyle Veil n’abandonne pas le projet de « radio sur mesure » initié par Mathieu Gallet

Mathieu Gallet en avait rêvée pour 2018 ; Sibyle Veil va la faire d’ici 2022 : la radio sur mesure va transformer à l’avenir de Radio France. Cette « radio personnalisée » s’appuiera sur les sept stations du groupe, les comptes-utilisateurs des internautes et l’exploitation de leurs données. Mais il reste à financer le projet.

Il y a un an maintenant, l’ancien président de Radio France, Mathieu Gallet, lançait la plateforme « Un monde de Radio France » offrant une sélection d’émissions de radio en replay issues des programmes de Franceinfo, France Inter, France Bleu, France Culture, France Musique, Fip et Mouv. Et ce, avec la promesse faite aux auditeurs et internautes de pouvoir « se composer leur radio sur mesure dès 2018 » – dixit Mathieu Gallet (1). Cette radio sur mesure devait être lancée par Radio France au premier trimestre de cette année, avec la possibilité pour chaque internaute de créer son compte et sa propre grille de programmes à partir des émissions des sept stations du groupe public. Mais la révocation de Mathieu Gallet en janvier (2) par le Conseil supérieur de l’audiovisuel (CSA), lequel a ensuite nommé en avril sa successeuse Sibyle Veil (photo), n’a pas permis de mener à bien ce projet ambitieux de radio personnalisée. Il y a aussi la complexité du projet et le montant de l’investissement en technologies et infrastructure qui ont renvoyé à plus tard le lancement d’une telle plateforme radiophonique interactive. D’autant que la Maison Ronde est dans une période de restriction budgétaire exigée par l’Etat actionnaire, avec un retour à l’équilibre espéré cette année dans le cadre de la « trajectoire du COM 2015-2019 ».

Comptes-utilisateurs, personnalisation, data, publicités ciblées, …
« Pour l’instant, la personnalisation n’a pas été faite car cela nécessite des équipements très importants. On y travaille avec des start-up [telles que Les Croissants, Radio France étant par ailleurs partenaire de l’incubateur Creatis Media et présent à Station F, ndlr] afin de pouvoir créer des comptes-utilisateur qui permettent de collecter les données d’usage des internautes pour personnaliser les contenus. Cela nécessite techniquement de l’investissement », a expliqué Sibyle Veil devant l’Association des journalistes médias (AFM) le 5 juillet dernier, pour justifier le retard mais en restant vague sur le calendrier de lancement. « C’est un travail sur les trois prochaines années », a-t-elle indiqué. « La radio personnalisée est complexe à faire techniquement. C’est une vraie priorité pour les prochaines années », a-t-elle cependant assuré.

Radio France fait alliance avec la Chine
La présidente de Radio France observe de près ce qui se fait à l’étranger.
« J’étais en Chine récemment où j’ai été voir des radios qui commencent à le faire. On en est aux prémices parce qu’il faut un lien plus direct avec l’internaute et une interaction. Cela suppose un investissement technique et une infrastructure, ainsi qu’une collecte et une analyse de données issues de ces comptes-utilisateur ». Selon nos informations, Sibyle Veil s’est rendue du 22 au 24 juin en Chine – avec une délégation du Premier ministre – où elle est restée une matinée entière à la radio de Shanghaï, SMG Radio, du groupe audiovisuel public Shanghai Media Group (réunissant télés et radios publiques), afin de constater leurs avancées dans ce domaine. A noter que Radio France a intégré en juin le Comité France Chine (CFC).
Mais la radio personnalisée va coûter de l’argent. C’est aussi le message que Sibyle Veil a fait passer auprès des députés et des sénateurs lors de ses auditions respectives des 13 et 6 juin derniers. En creux, le projet de radio sur mesure est suspendu au futur cadrage budgétaire de l’audiovisuel public et surtout à la dotation qui sera votée dans le projet de loi de Finances pour 2019 à l’automne. Celle qui fut auparavant directrice déléguée en charge des opérations et des finances de Radio France table sur « un chiffrage pluriannuel » pour mettre en oeuvre sa stratégie dans le temps et avec une visibilité d’ici à 2022. La nouvelle PDG de la radio publique veut s’inscrire dans la durée – y compris dans le numérique en faisant référence à « la stratégie de long terme de Jeff Bezos sur Amazon ». Et ce, malgré la vaste réforme immédiate de l’audiovisuel public qu’a initiée le président de la République, Emmanuel Macron. Elle a d’ailleurs confié devant l’AJM avoir gardé « une relation d’amitié d’école qui ne va pas au-delà en termes professionnel » – depuis l’ENA d’où ils sont sortis de la même promotion Senghor (2002-2004). Quoi qu’il en soit, son mandat de présidente de Radio France est d’une durée de cinq ans et le projet ambitieux de radio personnalisée est en bonne place dans son projet stratégique 2018-2023 qu’elle a présenté en avril au CSA juste avant d’être retenue (3). A l’heure du Net, le secteur de la radio va être amené à basculer dans le monde de la data et des algorithmes de recommandation. « La personnalisation de la relation avec l’internaute va reposer sur l’exploitation des données d’usage produites à chaque interaction et agrégées au profil de chaque utilisateur.
Pour pouvoir offrir un espace de personnalisation, Radio France devra accentuer ses efforts de recherche et de développement sur l’exploitation de ces données. L’objectif est (…) que l’auditeur/internaute qui entre par un type de programme ou par une marque se voit offrir l’accès à l’univers plus large des contenus de la radio publique », avait-elle expliqué au régulateur de l’audiovisuel, en mentionnant la plateforme « Un monde de Radio
France » mise en place par son prédécesseur pour y parvenir. Cela suppose pour la Maison Ronde de se lancer dans l’analyse des données d’usage nécessaires pour faire des recommandations susceptibles d’enrichir l’écoute, et ce dans un esprit de « prescription culturelle » et de « média de service public ».
« Cela implique de travailler sur un algorithme intelligent ou sur un outil de recommandation ouvert (comme la radio américaine Pandora) paramétré pour ne pas polariser l’usager sur ses seuls centres d’intérêt (4) », avait-elle précisé.
Mathieu Gallet, lui, prenait volontiers en exemple ni la plateforme audio américaine Pandora ni la radio chinoise SMG, mais l’application de radio personnalisée NPR One lancée en 2014 par la radio publique américaine National Public Radio. La personnalisation interactive de ce média revient en quelque sorte à faire en streaming un « Spotify gratuit de la radio » et pourrait sonner à terme le glas des podcasts à télécharger (lire aussi p. 4). Sibyle Veil, elle, va chercher son inspiration ailleurs. « Je suis allé en Chine, en Allemagne ; nous avons des relations avec la RTBF en Belgique et nous allons voir prochainement nos homologues suédois (Sveriges Radio). Toutes les questions sur les évolutions de nos médias, on les partage très fortement avec les autres. Dans les enjeux de transformation, il faut que l’on passe du monde ancien – où l’on parlait marques et audiences – à un monde nouveau du numérique – où l’on parle individu et expérience client. Il faut que l’on arrive à avoir une relation personnalisée avec ceux qui s’intéressent à nos programmes et que, par innovations successives, nous les gardions et les fidélisions », a-t-elle insisté devant l’AJM.

« Ma radio demain » sera ciblée
A cet égard, la prochaine concertation avec le public – qui sera lancée à la rentrée sur une plateforme participative « Ma radio demain » et dont les résultats seront communiqués à l’automne – permettra d’engager une première réflexion en ligne avec le public auditeur-internautes pour cerner avec lui les enjeux radiophoniques futures (audio, texte, image et vidéo) des prochaines années où la radio sur mesure donnera le la. Pour l’heure, la radio linéaire hertzienne de la FM reste comme ailleurs dominante à Radio France (88 % de l’écoute) par rapport au numérique (12 %). Pour l’instant… @

Charles de Laubier

Les algorithmes sont partout mais leur régulation est nulle part : une zone de non droit numérique ?

Ils sont soupçonnés de formater automatiquement le monde numérique à des fins commerciales, à l’insu des utilisateurs qui leur ont cédé sans le savoir une partie de leur pouvoir de décision et de leur libre-arbitre. La question du contrôle de la « loyauté des algorithmes » et de leur régulation se pose.

La Commission nationale de l’informatique et des libertés
(Cnil) s’est donnée jusqu’à l’automne prochain pour publier la synthèse des échanges et contributions qui découleront du débat sur les algorithmes qu’elle a lancé le 23 janvier dernier.
« Des pistes ou propositions pour accompagner le développement des algorithmes dans un cadre éthique pourraient faire par la suite l’objet d’arbitrages par les pouvoirs publics », a prévenu Isabelle Falque-Pierrotin (photo), présidente de la Cnil, à l’occasion d’une table ronde « éthique et numérique » consacrée aux algorithmes.

Réglementation ou auto-régulation ?
La loi « République numérique » du 7 octobre 2016 a en effet confié à la Cnil la mission de conduire « une réflexion sur les problèmes éthiques et les questions de société soulevés par l’évolution des technologies numériques ». De son côté, le Conseil supérieur de l’audiovisuel (CSA) a publié le 20 janvier dernier un rapport – le premier de son CSA Lab, groupe de réflexion prospective sur l’audiovisuel lancé en juin 2016 – sur « le rôle des données et des algorithmes dans l’accès aux contenus » (1). Les auteurs terminent leur rapport en estimant que « toute tentative de réguler les algorithmes serait probablement vouée à l’échec en raison de l’évolutivité de la technologie et du caractère confidentiel et concurrentiel des développements ».
Mais alors, comment s’assurer que les algorithmes utilisés préservent bien la diversité culturelle, maintiennent une qualité d’accès aux contenus, respectent les consommateurs et leur vie privée, protègent les données personnelles, garantissent une certaine loyauté, ou encore développent la confiance en la société numérique ?
A défaut de réglementer les algorithmes, le rapport du CSA Lab suggère que « le régulateur pourrait éventuellement contribuer à la transparence du marché en publiant des indices mesurant différents aspects qualitatifs des algorithmes ». Ces indices pourraient par exemple « mesurer le niveau de contribution des algorithmes aux différents objectifs de la politique audiovisuelle, tels que la diversité ». Au sein du CSA Lab, ce sont Yann Bonnet (secrétaire général du Conseil national du numérique), Nicolas Curien (membre du CSA) et Francesca Musiani (chargée de recherche CNRS et chercheuse associée à Mines ParisTech) qui se préoccupent du rôle des données
et des algorithmes dans l’accès aux contenus (2). « Premières manifestations de l’intelligence artificielle, dont la généralisation constitue aujourd’hui un temps fort de
la transition numérique, les algorithmes sont des agents intelligents, des robots, dont
il convient évidemment de s’assurer qu’ils opèrent au service d’un intérêt général convenablement et clairement défini, et non pas d’intérêts particuliers et opportu-
nistes », préviennent-ils.
Quant au Conseil général de l’économie, de l’industrie, de l’énergie et des technologies (CGE), qui dépend de Bercy, il a présenté le 15 décembre dernier son rapport sur les
« modalités de régulation des algorithmes de traitement des contenus » (3). D’emblée, les deux auteurs – Jacques Serris et Ilarion Pavel – se veulent prudents : « Ce rapport ne propose pas une nouvelle régulation sectorielle qui s’appliquerait aux algorithmes. En revanche, il souligne qu’il faut développer la capacité à tester et contrôler les algorithmes eux-mêmes ». Il s’agit de détecter l’existence de discriminations illicites
et de vérifier la conformité aux lois et règlements. Encore faut-il pouvoir contrôler les algorithmes en question et, en cas d’infraction présumée, de porter l’affaire en justice. Aussi, le CGE recommande au gouvernement de mettre en oeuvre des moyens techniques et humains supplémentaires pour analyser les flux d’échanges de données et le fonctionnement des algorithmes de traitement des contenus.

Cnil, AMF, Arjel, DGCCRF
« Pour les services de contrôle, la démonstration de la déloyauté de l’information ou
de la pratique commerciale trompeuse passe par le décryptage de l’algorithme, la connaissance de ses critères de fonctionnement et leur pondération », dit le CGE. Et de poursuivre : « L’utilisation d’une méthode statistique ad hoc n’est pas suffisante et est sujette à forte contestation. Cela pose la question des moyens techniques et humains nécessaires pour pouvoir mener à bien les contrôles ». En France, la Cnil, l’Autorité des marchés financiers (AMF) et l’Autorité de régulation des jeux en ligne (Arjel) disposent d’ores et déjà d’équipes et de moyens de contrôle et d’investigation leur permettant de tester le fonctionnement d’algorithmes. De son côté, la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) dispose d’un service spécialisé de contrôle du commerce électronique qui pourrait être mis à contribution.

Bercy veut un « bureau de contrôle »
Aussi, le rapport du CGE propose d’aller plus loin en créant un « bureau des technologies de contrôle de l’économie numérique » qui « pourrait être localisé au sein de la DGCCRF » justement. Le rôle de ce bureau spécialisé : contrôler non seulement la loyauté des algorithmes, mais aussi les voitures connectées, la maison intelligente, les nouvelles méthodes de paiement, le Big Data ou encore l’Internet des objets. Il pourrait être saisi par la Cnil, l’AMF et l’Arjel, mais aussi par l’Autorité de la concurrence, l’Arcep, le CSA, ainsi que par l’Acam (4), l’ACPR (5) ou encore l’ANSM (6). Le CGE préconise en outre la mise en place d’une « plateforme scientifique collaborative » destinée à favoriser notamment le développement d’outils logiciels
et de méthodes de tests d’algorithmes « responsables, éthiques et transparents ».
L’Institut national de recherche en informatique et en automatique (Inria) a proposé de porter une telle plateforme, dénommée TransAlgo, qui sera développée en coopération avec le Conseil national du numérique (CNNum), la DGCCRF et la Direction générale des entreprises (DGE) du ministère de l’Economie et des Finances. « Le premier objectif est d’encourager la conception d’algorithmes de traitement de données “responsables et transparents par construction” (on parle de responsible-by-design).
Un algorithme est dit “responsable” s’il respecte les lois (la confidentialité de certaines données, la non-discrimination par ses critères, …), et s’il se conforme à certaines règles éthiques (la neutralité) », explique l’Inria.
Les algorithmes défraient la chronique et soulèvent des questions de fond. On leur reproche d’uniformiser les résultats de recherche et les informations, au point d’enfermer les individus dans leur « bulle » en fonction de leurs centres d’intérêt, leurs connaissances, leurs amis, leurs goûts, leurs médias, leur religion ou encore leurs idées politiques. Les algorithmes confortent chacun d’entre nous dans ses convictions, sa culture et sa façon de percevoir le monde, sans nous inviter à aller à la découverte de l’autre et de la différence. C’est l’entre-soi automatisé. Ils sont prédictifs, en anticipant les comportement des internautes et des mobinautes qui ont laissé derrière leurs navigations et transactions des traces exploitables. Publicités ciblées, voire
« personnalisées », suggestions d’« amis », produits et services « vivement » recommandés, vidéos suggérées, recommandation en tous genres, … La navigation sur le Web ou dans les applications mobiles relève du « parcours du combattant »
pris pour cible par les marchands, publicitaires et autres prestataires. Une armée d’algorithmes collectent les données et les analysent afin de « filtrer » les contenus,
« ordonner » les réponses, « recommander » tous azimuts, « calculer » un score ou encore « prédire » un événement ou un risque.
Qu’est-ce qu’un algorithme ? Le terme vient latin médiéval algorithmus, latinisation du nom d’un mathématicien de langue arabe Al-Khwarizmi, et du grec arithmos qui veut dire nombre. Un algorithme est un ensemble de règles opératoires, dont l’application permet de résoudre un problème énoncé au moyen d’un nombre fini d’opérations. Voilà pour la définition. L’informatique et Internet – Google et Facebook en tête – ont popularisé les algorithmes, pour le meilleur et pour le pire, sans parfois distinguer le
vrai du faux. Les algorithmes sont des programmes autonomes qui s’enrichissent au fur et à mesure des informations qui l’alimentent. Ils apprennent des masses de données qui leur parviennent en direct. Le Big Data est leur fond de commerce. Le calcul de probabilités leur raison d’être. « Un algorithme est une suite finie d’opérations ou d’instructions, déterminée de manière non ambiguë et permettant de résoudre un problème ou d’obtenir un résultat. L’algorithme reçoit des données en entrée (…) et
il produit en sortie d’autres données », définit le CSA dans son rapport.
Mais l’impact économique des algorithmes reste à mesurer, de même que les enjeux sociétaux. Quels sont les effets sur les comportements des usagers isolés dans des
« bulles de filtres », expression employée par Eli Pariser dans « The Filter Bubble »
en 2012 pour désigner le fait que la personnalisation d’Internet – en fonction des algorithmes et des cookies ainsi que de l’analyse systématique de la data – enferme l’internaute dans sa propre vision du monde ?

Risque de discriminations tous azimuts
Outre un risque de « repli sur soi », les algorithmes présentent en outre des risques de discrimination dans l’accès à la santé, à l’emploi, au logement, au crédit ou encore à l’éducation. « Les enjeux juridiques sont essentiellement liés à la capacité d’analyse des pouvoirs publics, pour la vérification de la conformité aux règles de droit », explique le CGE. Alors, réguler ou ne pas réguler ? La question n’est pas tranchée. @

Charles de Laubier