Raison fiscale ou digitale : fin de la redevance ?

En fait. Le 7 mars, lors d’un déplacement à Poissy (Yvelines) pour son premier meeting de président-candidat, Emmanuel Macron a lancé lors d’un échange avec des Pisciacais : « On va supprimer des impôts qui restent ; la redevance télé en fait partie ». Trois de ses rivaux la supprimeraient aussi. Dès 2023. Démagogique ?

En clair. La droite et l’extrême droite promettent la suppression de la contribution à l’audiovisuel public, alias la redevance, tandis que la gauche et l’extrême gauche sont contre sa disparition. Preuve encore que le clivage gauche-droite resurgit dans cette campagne présidentielle 2022.
Les réactions du monde de la production audiovisuelle et cinématographique, qui dépendent de la manne des chaînes publiques, ont fusé : « Le candidat-président assume un choix hypocrite et dangereux. Hypocrite car les ressources (…) devront être prélevées sur les ressources de l’État, financées par les impôts des Français. Dangereux car ce choix aboutira à la fragilisation de l’audiovisuel public et à la remise en cause de son indépendance en soumettant son financement aux aléas et au bon vouloir des décisions gouvernementales », a vertement critiqué la Société des auteurs et compositeurs dramatiques (SACD), fustigeant « la démagogie en marche » et « un cynisme insupportable ». Le BBA (Bloc, Blic, Arp), lui, parle d’« une grande inconséquence » aux « conséquences dramatiques ». Le Syndicat des producteurs indépendants (SPI) a fait part de son côté de « sa stupéfaction et son incrédulité ». Quant à la Société civile des auteurs multimédias (Scam), elle évoque « le bug Macron » où le candidat « ignore » que le président a confié en octobre 2021 une mission à l’IGF (1) et à l’Igac (2) sur « l’avenir du financement du service public de l’audiovisuel », dont le rapport lui sera remis au printemps. Au gouvernement, Bercy et Culture sont en désaccord sur le plan B. Roch-Olivier Maistre, président de l’Arcom (ex-CSA) a suggéré le 8 mars sur France Inter : « Pourquoi ne pas envisager (…) que le régulateur donne chaque année un avis sur les dotations qui sont attribuées au service public ? ».
Au-delà de sa remise en cause par quatre candidats (Le Pen, Zemmour, Pécresse et Macron), la redevance audiovisuelle faisait débat depuis dix ans. La Suisse a été le premier pays a décider en mai 2013 de ne plus la faire payer aux seuls détenteurs de téléviseur, mais par tous les foyers dotés d’écrans numériques – en réduisant la taxe au passage (3). En France, la règle obsolète du poste de télévision perdure malgré la révolution numérique. Cette taxe annuelle, stabilisée à 138 euros depuis 2020, a rapporté l’an dernier 3,7 milliards d’euros – dont 65% affectés à France Télévision et 16 % à Radio France (4). @

Règles éco-énergétiques : les data centers doivent passer des salles blanches aux « salles vertes »

Les gestionnaires de centres informatiques (data centers), qui n’apprécient déjà pas le dispositif « Eco Energie Tertiaire » de 2019, sont maintenant vent debout contre le durcissement règlementaire du « verdissement » du numérique. Cela risque de « plomber » leur compétitivité face aux GAFAM.

Par Déborah Boussemart, avocate en droit de l’immobilier

Tandis que la mise en œuvre du dispositif « Eco Energie Tertiaire » – anciennement « décret Tertiaire » (1) de 2019 – par les gestionnaires de centres de données informatiques s’avère inadaptée et paralysée, de nouvelles mesures de « verdissement » des data centers entrent en vigueur : d’une part, avec l’introduction d’un principe de « promotion de centres de données et des réseaux moins énergivores » inscrit dans la loi du 15 novembre 2021 visant à réduire l’empreinte environnementale du numérique en France, loi dite « Reen » (2), et, d’autre part, l’attribution à l’Arcep d’un nouveau pouvoir de régulation environnementale dans le secteur numérique par la loi du 23 décembre 2021 visant à renforcer la régulation environnementale du numérique.

Une équation à deux inconnues
Si les grands axes du dispositif « Eco Energie Tertiaire » sont connus et le compte-à-rebours lancé, les gestionnaires de data centers sont encore dans l’expectative des arrêtés dits « Valeur absolue II et III » annoncés par le gouvernement. Dans cette attente, la mise en œuvre du dispositif est paralysée et pose un problème de prévisibilité du droit dans ce secteur immobilier qui a besoin d’une stabilité juridique dès lors qu’il mobilise d’importants capitaux et nécessite de longues durées de retour sur investissements.
Soumis au dispositif « Eco Energie Tertiaire » modifié et recodifié (3) par la loi « Climat résilience » (4), les gestionnaires (propriétaires et le cas échéant les locataires) de data centers sont appelés à plus de sobriété énergétique. Ils sont tenus, pour tout bâtiment (ou tout ensemble de bâtiments situés sur un même site ou unité foncière) hébergeant – exclusivement ou non – des activités tertiaires sur une surface de plancher supérieure ou égale à 1.000 m2, d’atteindre pour chacune des années 2030, 2040 et 2050 les objectifs suivants :
• soit un niveau de consommation d’énergie finale réduit, respectivement, de 40 %, 50 % et 60 % par rapport à une consommation énergétique de référence qui ne peut être antérieure à 2010 ;
• soit un niveau de consommation d’énergie finale fixé en valeur absolue, en fonction de la consommation énergétique des bâtiments nouveaux de leur catégorie. Le gouvernement a rappelé son attachement à ces objectifs dans sa feuille de route « Numérique & Environnement » (5) de février 2021.
Pourtant, dans la mesure où les data centers fonctionnent en permanence, avec leurs « salles blanches » (aux particules et températures maîtrisées), nous verrons plus loin que les professionnels consultés dénoncent le caractère inadapté du dispositif de « verdissement ». Les actions destinées à atteindre ces objectifs portent notamment sur la performance énergétique des bâtiments, l’installation d’équipements performants et de dispositifs de contrôle et de gestion active de ces équipements, les modalités d’exploitation des équipements, et l’adaptation des locaux à un usage économe en énergie et le comportement des occupants. Le comportement de l’utilisateur est pris en compte (6). Conscient que ces actions peuvent se révéler coûteuses et/ou se confronter à des obstacles techniques, le législateur a prévu des modulations – sous réserve d’établir un dossier technique et une étude énergétique – et des déductions.
A titre d’exemple, une modulation est possible lorsque les coûts des actions apparaissent manifestement disproportionnés par rapport aux avantages attendus en termes de consommation d’énergie finale. Une autre modulation est également possible en cas de contraintes techniques, architecturales ou patrimoniales.

Plateforme Operat : saisir avant le 30 septembre
En outre, deux hypothèses de déduction sont acceptées afin de suivre au plus juste la consommation d’énergie réelle du bâtiment. D’une part, lorsque la chaleur fatale (7) est autoconsommée par le bâtiment tertiaire, cette chaleur peut être déduite de la consommation. D’autre part, en présence de véhicules électriques et hybrides rechargeables dans le bâtiment tertiaire, la consommation d’énergie liée à la recharge est déduite (8). Les données relatives à l’année 2020 doivent être saisies par les assujettis au plus tard le 30 septembre 2022 sur la plateforme « Operat » (9), laquelle est gérée par l’Agence de la transition écologique (Ademe). Puis, chaque année à partir de 2022 seront transmises, au plus tard le 30 septembre, les données relatives à l’année précédente (10). La première vérification par l’Ademe est fixée au 31 décembre 2031 (11). Les responsabilités sont partagées entre les propriétaires et les locataires, le législateur leur laissant le soin de s’organiser contractuellement. Dans la perspective de développer un immobilier plus vert, l’attestation annuelle générée par la plateforme Operat est annexée aux documents de vente et de location (12). Enfin, une notation « Eco Energie Tertiaire » annuelle est mise en place. Quant au préfet, il demande de justifier d’un plan d’actions. A défaut, il peut sévir en recourant au « Name & Shame » ou à des amendes administratives (13).

Arrêtés « Valeur absolue » en vue
S’agissant des valeurs à retenir pour les data centers, le dispositif est incomplet (14). Le 17 juin 2021, le gouvernement a indiqué travailler sur deux arrêtés :
• un arrêté « Valeur absolue II » devant présenter la totalité de la segmentation des activités tertiaires et préciser les objectifs en valeur absolue pour un grand nombre d’activités en métropole (15) ;
• un arrêté « Valeur absolue III », dont la publication est prévue en mai 2022, devant préciser les objectifs exprimés en valeur absolue pour les dernières activités pour lesquels les travaux sont en cours et intégrer les valeurs spécifiques pour les départements d’outremer (16).

Des voix se sont élevées pour dénoncer le caractère inadapté et imprévisible de ce cadre réglementaire. Une association professionnelle rassemblant les principaux acteurs de cette filière, France Data Center, a rappelé l’importance pour la France de conserver en permanence la maîtrise opérationnelle du numérique. Afin de gagner en compétitivité, son président Olivier Micheli (17) a souligné qu’il est essentiel de réfléchir à la création de champions du numérique européens pour faire face aux champions américains (GAFAM) et asiatiques (BATX).
Enfin, il a ajouté que « le décret “Tertiaire” n’est pas du tout adapté aux data centers puisqu’il vise à réduire le nombre de kilowattheures consommés dans les data centers, ce qui est impossible. Il n’est pas possible de supprimer des serveurs du jour au lendemain pour atteindre un objectif en valeur absolue défini par décret » (18). Dans le même sens, le Groupement des industries de l’équipement électrique (Gimelec), syndicat des entreprises de la filière électro-numérique française, a souligné que la régulation de la performance énergétique des data centers pourrait « plomber » la compétitivité des acteurs et les « mettre en irrégularité » sans garantie de gain énergétique (19). Espérons que les arrêtés à paraître prendront acte de ces critiques et fixeront un cadre adapté au secteur. Il est toutefois permis d’en douter car, dans cette attente, le législateur entend désormais faire converger transition numérique et écologie, et a adopté en urgence de nouvelles mesures tendant à promouvoir des data centers plus vertueux. Sans nous livrer à une exégèse exhaustive de ses dispositions, soulignerons que la loi « Reen », qui vise à réduire l’impact du numérique sur l’environnement, se fait le relai de la Convention citoyenne pour le climat de 2020 (20).
Longtemps qualifié d’angle mort des politiques environnementales, le numérique – dont son parc immobilier matérialisé par les data centers – est aujourd’hui dans le viseur du législateur qui ambitionne de « faire du numérique un accélérateur de la transition écologique à l’empreinte environnementale soutenable » (21). Une étude réalisée à la demande du Sénat en juin 2020 (22) a confirmé ce qui était déjà pressenti depuis longtemps. Le numérique est susceptible de représenter près de 7 % de l’empreinte carbone des Français en 2040, tandis que les data centers consommeraient déjà à eux seuls 10 % de l’électricité mondiale (23).

Dans ce contexte, la loi « Reen » entend désormais « promouvoir des centres de données et des réseaux moins énergivores ». Le texte renforce les conditionnalités environnementales qui s’appliqueront, dès 2022, au tarif réduit de la taxe intérieure de consommation finale d’électricité (TICFE) applicable aux data centers. Les opérateurs de communications électroniques devront, quant à eux, publier des indicateurs clés récapitulant leurs engagements en faveur de la transition écologique (24). L’Arcep, elle, désormais régulateur environnemental de tout l’écosystème numérique, a désormais le pouvoir de collecter des données en vue de dresser le bilan de l’empreinte environnementale.

Verdissement aux forceps et à risques
Pour conclure, rappelons que derrière les échanges, les partages et les stockages dématérialisés des services de cloud, il existe un univers bien matériel fait de câbles, de serveurs, de bâtiments climatisés énergivores que le législateur entend verdir en urgence, eu égard aux enjeux climatiques et au calendrier législatif. Gageons que le verdissement aux forceps des data centers ne se fasse pas au détriment de la compétitivité et de la souveraineté numérique. @

Couverture des zones blanches (non-rentables) : faut-il aller vers un deuxième « New Deal Mobile » ?

Le « New Deal Mobile » était la promesse des opérateurs mobiles – faite il y a quatre ans au gouvernement – d’une « 4G pour tous » au 31 décembre… 2020. Mais des zones blanches ont persisté au-delà de cette échéance. A fin 2021, « 98 % des sites mobiles sont en 4G ». Et les 2 % restants ?

Y aura-t-il un deuxième « New Deal Mobile » pour ne pas laisser les 2 % des sites mobiles dépourvus de 4G et des milliers de centres-bourgs toujours en zone blanche ? Lorsqu’elle était encore députée, Laure de La Raudière (photo) avait suggéré « un deuxième New Deal Mobile ». Certes, c’était treize mois avant de devenir présidente de l’Arcep. La députée d’Eure-et-Loir avait à l’époque – mais il n’y a pas si longtemps que cela – émis cette éventualité au regard du désaccord qu’elle avait avec le président fondateur de Free (Iliad), Xavier Niel, qu’elle auditionnait le 17 novembre 2020 à l’Assemblée nationale en commission (1) – sur la couverture mobile des territoires jusque dans les zones blanches non-rentables.

Du donnant-donnant à 3 milliards d’euros
En janvier 2018, il y a quatre ans maintenant, l’Arcep et le gouvernement annonçaient des engagements des opérateurs télécoms pour accélérer la couverture mobile des territoires qui à l’époque laissait à désirer. Bouygues Telecom, Free, Orange et SFR s’étaient ainsi engagés à investir plus de 3 milliards d’euros dans les « zones rurales ». En échange de quoi, l’Etat a renoncé à leur faire payer pas moins de 3 milliards d’euros de redevance pour leurs fréquences 4G – dans les bandes 900 Mhz, 1800 Mhz (sauf Free) et 2,1 Ghz – dont les autorisations d’exploitation leur ont été renouvelées pour dix ans supplémentaires. En effet, les autorisations de leurs réseaux mobiles 2G, 3G et 4G arrivaient à échéance, dès 2021 pour certaines et d’ici à 2024 pour d’autres. Globalement, les opérateurs mobiles ont obtenu « visibilité et stabilité jusqu’en 2030 » sur leurs fréquences.
Les engagements de couverture mobile sans précédents avaient, eux, été dans la foulée retranscrits dans leurs licences actuelles afin de les rendre juridiquement opposables – autrement dit pour permettre à des élus ou à des utilisateurs d’attaquer en justice les opérateurs mobiles en cas de non-connexion 4G. De plus, ces engagements sont contraignants et peuvent donner lieu à des sanctions de la part de l’Arcep (2). Ce fameux New Deal Mobil en faveur de l’aménagement numérique des territoires consiste à apporter la 4G tant attendue dans les zones rurales, synonymes de « zones blanches », qui n’ont aucune couverture mobile et encore moins de 4G. Il y a quatre ans, cela concernait tout de même plus de 1 million de Français sur 10.000 communes privés de mobile haut débit. A cette fracture numérique s’ajoutaient les principaux axes routiers et ferroviaires, sur lesquels il était impossible d’« avoir du réseau ».
Mais cet accord politique donnant-donnant avait accordé jusqu’à 2026 aux quatre opérateurs mobiles pour parachever pleinement le déploiement de la totalité des 5.000 nouveaux sites mobiles, à raison de 600 à 800 sites par an. Avant d’en arriver là, Bouygues Telecom, Free, Orange et SFR s’étaient engagés à couvrir 75 % des centres-bourgs en 4G au 31 décembre 2020 – sur un total de près de 5.000 et symboles de la fracture numérique en France. Mais ce taux n’a pas été atteint à cette première échéance (3), en raison du ralentissement des déploiements dû aux restrictions sanitaires et confinements de cette année 2020.
Ce retard avait déclenché des escarmouches entre l’ancien président de l’Arcep, Sébastien Soriano, et celui qui était déjà président de la Fédération française des télécoms (FFTélécoms), Arthur Dreyfuss (4). En avril 2020, le gendarme des télécoms appelait les opérateurs mobiles à ne pas prendre prétexte du confinement pour ne pas être « au rendez-vous de leur responsabilité » vis-à-vis du New Deal Mobile et du Plan Très haut débit. Une mise en garde qui avait fait perdre son sang-froid au secrétaire général de SFR (5) (*) (**). D’après l’Arcep, cette cible des 75 % du programme dit « zones blanches centres-bourgs » (ZBCB) n’a pas été atteinte fin 2020 comme cela était prévu mais seulement mi-2021. Les quatre opérateurs mobiles sous pression se sont ensuite engagés à couvrir les 25 % restants de ces centres-bourgs en zones blanches avant le 31 décembre 2022. Le compte à rebours a commencé.

Un « bilan en demi-teinte » (Sénat)
Autrement dit, pour la nouvelle année, la « 4G pour tous » (4G mobile voire 4G fixe) est encore un vœu pieux – alors que la 5G profite déjà à quelques-uns (1,6 million d’abonné au 30 septembre dernier) et que les équipementiers télécoms travaillent déjà sur la 6G… La densification du réseau 4G traîne en longueur, malgré des avancées certaines. Et ce, alors que depuis deux ans les Français ont été contraints par la crise sanitaire de faire du télétravail voire de la visioconférence. Les zones blanches sont devenues des points noirs. Et l’étude « Quel débit » publiée le 27 janvier par UFC-Que Choisir fustige le « mauvais haut débit » dans les zones rurales dont sont pénalisés 32 % des consommateurs (6). « Bilan en demi-teinte » a pointé le Sénat en novembre dernier lors de l’examen du volet « Cohésion des territoires » du projet de loi de finances (PLF) pour 2022 : « des progrès à confirmer dans la réduction de la fracture numérique » ; « un bilan en demi-teinte qui impose la poursuite des efforts pour résorber les zones blanches ».

La « 4G pour tous », mais pas pour tous
Pour la commission sénatoriale de l’aménagement du territoire et du développement durable, le compte n’y est pas malgré le dynamisme constaté des déploiements dans le cadre de ce New Deal Mobile : « S’agissant du programme de couverture ciblée, environ 3.000 sites ont d’ores et déjà été identifiés par arrêté [plusieurs arrêtés de 2018 à 2021, ndlr] depuis le lancement du New Deal. (…) Les retards induits en 2020 par le premier confinement ne semblent pas s’être résorbés : malgré des améliorations (…). Sur la totalité des arrêtés, à la date du 30 juin 2021, 830 sites de couverture ciblée étaient en service » (7).
Selon un bilan publié le 14 janvier dernier par la FFTélécoms et arrêté au 31 décembre cette fois, les 1.115 sites en service ont été atteints sur ce dispositif de couverture ciblée (8). Quant aux zones blanches dites ZBCB, dont il restait encore 25 % à couvrir d’ici la fin de cette année, elles seront scrutées de près par les sénateurs garants de l’aménagement numérique des territoires. « le New Deal Mobile est une réalité tangible dans les territoires » avec « 98 % des sites des opérateurs convertis en 4G », affirme la FFTélécoms :
• L’objectif de « généraliser la 4G sur l’ensemble des sites en propre des opérateurs avant fin 2020 » a été atteint.
• L’objectif de « généraliser la 4G sur les sites multi opérateurs issus des anciens programmes zones blanches [centres-bourgs] d’ici fin 2022 » est atteint à 89 %.
• L’objectif de « couverture de 5.000 nouvelles zones par opérateur identifiées par les élus de terrain d’ici fin 2027 » atteint à ce stade 1.115 nouveaux pylônes 4G multi opérateurs.
• L’objectif de « généraliser la 4G le long des axes routiers prioritaires », initialement prévu à fin 2020, est atteint entre 99,6 % et 99,8 %. Sur ce dernier point, tous les axes routiers dits prioritaires de l’Hexagone comprennent 55.000 kilomètres de routes, dont 11.000 km d’autoroutes et 44.000 km d’axes routiers principaux reliant, au sein de chaque département, le chef-lieu de département (préfecture) aux chefs-lieux d’arrondissements (sous-préfectures), et les tronçons de routes sur lesquels circulent en moyenne annuelle au moins cinq mille véhicules par jour. « Les opérateurs sont tenus de couvrir les axes routiers prioritaires en 4G, à l’extérieur des véhicules d’ici fin 2020, et à l’intérieur des véhicules d’ici 2022 ou 2025. Selon l’Arcep, plus de 99 % des axes routiers prioritaires seraient couverts en très haut débit mobile. Les opérateurs devront aussi couvrir 90 % des lignes ferroviaires du réseau ferré régional d’ici fin 2025 », ont rappelé les sénateurs, toujours dans le cadre du PLF 2022.
Ils ont en outre constaté que la 4G fixe peine, elle, à se déployer. Ces services d’accès fixe à Internet sur les réseaux mobiles 4G sont une alternative à la connexion filaire dans les zones où les débits fixes ne sont pas suffisants. Le New Deal Mobile prévoit en effet, d’une part, une obligation pour les quatre opérateurs mobiles de proposer des offres de 4G fixe (obligation que Free a tardé à respecter), et, d’autre part, un engagement de ces mêmes opérateurs à créer des sites de 4G fixe dans des zones identifiées par le gouvernement via des arrêtés (9). « Au total, 510 sites identifiés par arrêté doivent être mis en service par Orange et SFR d’ici fin 2021. Sur ces 510 sites, seuls 75 étaient en service à la date du 30 juin 2021, selon l’Arcep », ont regretté les sénateurs en novembre. Dans sa communication « New Deal Mobile », la FFTélécoms n’en dit mot. De son côté, dans son rapport « Réduire la fracture numérique mobile : le pari du New Deal 4G » publié en juin 2021, la Cour des comptes appelait à mettre en place « un véritable suivi des sites de 4G fixe existants ».

Vers un « New Deal Mobile » 5G ?
Les collectivités territoriales, les consommateurs ou tous ceux qui veulent connaître la couverture mobile réactualisée peuvent accéder à trois sites web du gendarme des télécoms : Arcep.fr, où se trouve (10) le « tableau de bord du New Deal Mobile » (prochaine mise à jour le 31 mars prochain) ; Monreseaumobile.arcep.fr, un outil cartographique permettant de « comparer les opérateurs mobiles » (couverture simulée et qualité de service) ; Jalertelarcep.fr, une plateforme permettant à chaque utilisateur d’« être un acteur de la régulation » (mais pas de réponse individuelle aux alertes). Reste à savoir si la 5G aura à son tour son « New Deal Mobile » : ne serait-ce que pour permettre aux territoires les plus reculés d’avoir du vrai très haut débit à l’ère du télétravail imposé en temps de crise sanitaire. @

Charles de Laubier

L’intelligence artificielle s’immisce dans l’industrie du livre, assise sur un tas d’or : ses données

La 22e édition des Assises du livre numérique, organisées le 6 décembre par le Syndicat national de l’édition (SNE), a pour thème « l’application de l’intelligence artificielle (IA) dans l’édition de livres ». Avec comme « invité inaugural » : Tom Lebrun, co-auteur en 2020 d’un livre blanc sur l’IA.

Ce n’est pas la première fois que les Assises du livre numérique (1) traitent de la question de l’intelligence artificielle (IA) dans l’industrie du livre. Déjà en 2017, lors de l’édition de 2017, une table-ronde avait été consacrés à ce sujet et avait fait l’objet d’une synthèse (2). Celle-ci relevait plus d’un défrichage de la part de la commission numérique que préside depuis plus de sept ans Virginie Clayssen (photo) au sein du Syndicat national de l’édition (SNE), elle-même étant par ailleurs directrice du patrimoine et de la numérisation chez Editis (groupe Vivendi).

Apprivoiser les data de l’IA
Quatre ans après cette table-ronde, le SNE muscle son approche de l’IA en lui consacrant pour la première fois – le 6 décembre pour cette 22e édition et « uniquement en distanciel » – la totalité du programme de ses Assises du livre numérique. « Comment l’intelligence artificielle peut-elle intervenir dans les différentes étapes de la chaîne du livre, de la traduction à la diffusion en passant par la fabrication ? », s’interrogent l’industrie du livre. Un invité inaugural de cette journée doit répondre à la question plus sensible : « Comment l’intelligence artificielle peut-elle transformer le monde de l’édition ? ». Cet intervenant est Tom Lebrun (photo page suivante), juriste et doctorant à l’université Laval (UL), au Québec (Canada), spécialiste en droit et intelligence artificielle, ainsi que co-auteur avec René Audet du livre blanc « L’intelligence artificielle dans le monde de l’édition » publié en septembre 2020 sous licence libre creative commons (3). Tom Lebrun est spécialisé en droit du numérique et en droit d’auteur. Ses travaux de recherche portent actuellement sur la question de « la génération de textes par intelligence artificielle ». Il publie régulièrement sur les questions de droit d’auteur, de culture numérique et de rapport entre droit et IA. Ses recherches sont financées par un fonds québécois (4). « L’intelligence artificielle fait l’objet de fantasmes et de craintes souvent irraisonnées. Elle trouve à s’insérer dans toutes les sphères de notre société : consommation, médecine, industrie, vie quotidienne, … Pourtant, encore peu de travaux ont été consacrés à sa mobilisation par les différents acteurs de l’écosystème du livre. Ce manque est d’autant plus critique que les grands acteurs du numérique – Amazon en tête – s’engouffrent très largement dans cette voie depuis un certain nombre d’années », font justement remarquer Tom Lebrun et René Audet dans l’introduction de leur livre blanc d’une trentaine de pages et mis en ligne gratuitement (5). Contacté par Edition Multimédi@, Tom Lebrun indique que depuis sa parution il y a un an, « les différences sont mineures et strictement quantitatives ». Et aujourd’hui, « les systèmes sont simplement plus performants et plus convaincants ». Les deux auteurs relèvent que le monde de l’édition – habitué jusqu’alors à la « rétroaction entre ses différents acteurs (le libraire informant le diffuseur, ce dernier informant l’éditeur, etc.) » – évolue désormais dans « un contexte de pressurisation économique croissante provoquée par la mainmise de quelques acteurs de la vente en ligne, particulièrement Amazon ». Aussi, la raison d’être de ce livre blanc est d’esquisser pour l’écosystème du livre « une possible piste à suivre », à savoir « l’idée d’une concertation de certains de ses acteurs sur l’utilisation d’IA (voire l’éventuelle mise en commun des données collectées) ». Dans leur conclusion, les deux auteurs québécois appellent toute la filière du livre (maisons d’édition, distributeurs, librairies, plateformes, …) à investir dans les technologies IA si elle n’a pas déjà commencé à le faire car « face à cette concurrence [des acteurs comme Amazon], chacun des acteurs de la chaîne du livre doit se demander comment faire face à ce mouvement de fond, qui s’apprête à modifier en profondeur de nombreux métiers du livre ». Le mieux pour l’introduction d’IA dans les différents maillons de la chaîne est, d’après eux, d’exploiter les différentes « données déjà disponibles et que ne possède pas la concurrence, quitte à nouer des accords asymétriques entre les différents acteurs intéressés pour y accéder ».

La chaîne du livre impactée
D’autant que ces données existent – statistiques centralisées des distributeurs, données des éditeurs ou encore celles collectées par les bibliothèques et les libraires – et sont des actifs précieux que tous les acteurs du milieu du livre possèdent, en particulier dans les bibliothèques, car « diversifier ses ressources en données peut constituer une stratégie payante ». Ces data constituent en tant que telles des ressources stratégiques considérables. Cela suppose que les maisons d’édition et l’ensemble des acteurs qui gravitent autour d’elles se mettent à « récolter » de façon optimale la data du livre, y compris les données qui ne sont pas « moissonnées » car, rappellent les auteurs du livre blanc de l’Université Laval, « le fonctionnement des applications d’IA [est] lié au volume et à la qualité des données disponibles ». Le succès des solutions d’IA dépendra surtout de la compatibilité des données entre elles. Pour ce faire, les auteurs recommandent d’« établir un protocole de normalisation des données en accord avec tous les acteurs concernés est un préalable nécessaire, sur lequel les pouvoirs publics ont un rôle à jouer ».

L’IA se met à écrire livres et articles !
Encore faut-il « catégoriser et étiqueter les données en fonction des objectifs visés », sans quoi, préviennent-ils, « les données collectées sont à peu près inutiles sans cette étape fondamentale de préparation des données ». Cela passe aussi par des chantiers communs entre des acteurs de la filière du livre, y compris avec des plateformes numériques, ainsi que par la mobilisation d’institutions et d’acteurs gouvernementaux pour contribuer au financement du développement de prototypes ou d’éléments logiciels partagés.« La mise en commun de données appelle une concertation, notamment dans le développement de ressources logicielles (aussi rendu possible par la création d’un cadre réglementaire favorable) », est-il souligné. Mais qui dit data dit cyberattaque : la cybersécurité des données « livrées » va devenir primordiale pour l’industrie du livre jusqu’alors épargnée par sa matière première historique qu’est le papier. La dématérialisation des ouvrages en tout genre fait basculer les maisons d’édition, parfois centenaires, dans le nuage informatique et ses fléaux.
Même si le livre blanc n’aborde pas le sujet du nuage informatique liés à l’IA, le cloud va pourtant permettre à l’industrie du livre de créer elle aussi des « lacs de données », des « Data Lake », à savoir le stockage des données dans leurs formats originaux ou peu modifiés, et à partir duquel leur analyse et leur valorisation peuvent s’opérer sous plusieurs formes révolutionnaires pour l’édition : data mining, text and data mining, marchine learning, business intelligence, cognitive search, master data management, etc. Encore fautil que l’industrie du livre sache ce qu’elle veut faire de cet « or noir du XXIe siècle » : des algorithmes de recommandation de livres ? de la traduction automatique d’ouvrage pour l’international (comme avec DeepL, l’IA utilisée par l’éditeur scientifique Springer) ? de l’animation de robots conversationnels (chatbots) pour interagir avec les lecteurs à la place de l’auteur et/ou de l’éditeur ? des réseaux de neurones artificiels afin par exemple de connaître les lecteurs d’un livre ? de la fouille intelligente de textes numérisés ? ou encore de la génération de romans ou d’essais à l’aide d’une IA créative ? Sur cette dernière possibilité, le juriste Tom Lebrun travaille justement en ce moment sur la question de la génération de textes par intelligence artificielle. « Au-delà du fantasme, beaucoup d’outils actuels permettent déjà d’écrire », écrit-il dans le livre blanc. La maîtrise du langage naturel – « et donc de l’écriture » – ne relève plus de la science-fiction. Et le livre blanc de mentionner la société OpenAI qui, cofondée par le milliardaire sud-africano-canadoaméricain Elon Musk il y a six ans, a développé en 2019 une IA nommée « GPT-2 » – devenue le 18 novembre dernier « GPT-3 » (6) – et capable de générer des textes de fiction ou de journalisme. Si la bêta 2 donnait des résultats « à peu près crédibles pour une lecture rapide et superficielle », la bêta 3 devrait avoir appris de ses erreurs. Et du livre à la presse, il n’y a qu’un pas : « L’écriture générée par IA est également utilisée dans le journalisme. Environ un tiers des dépêches publiées par [l’agence de presse] Bloomberg est ainsi générée par des machines », affirment les auteurs. Tom Lebrun signale à EM@ un modèle de génération de texte francophone développé par la société suisse Coteries et appelé Cedille, en version bêta (7). Le livre blanc aurait pu évoquer Dreamwriter, un algorithme conçu par le chinois Tencent, qui avait même écrit un article financier reproduit ensuite sans autorisation par un tiers. Un tribunal de Shenzhen en Chine avait reconnu fin 2019 et pour la première fois que Dreamwriter pouvait bénéficier de la protection du droit d’auteur (8). « L’IA pourrait conduire à développer des assistants créatifs personnifiés, de façon à aider à écrire ou même de dessiner “à la manière” d’un auteur, par exemple », estiment Tom Lebrun et René Audet. Tout au long de la vie d’un livre, de son écriture à sa lecture en passant par son édition, l’intelligence artificielle est amenée à y mettre son grain de sel, voire plus si affinités. Dans son roman « Exemplaire de démonstration » (Fayard, 2002), son auteur Philippe Vasset imaginait Scriptgenerator, un logiciel rédacteur de best-sellers, personnalisable par l’éditeur en fonction d’un public lecteur cible (9).

Encore beaucoup de progrès à faire
« Le risque d’une écriture entièrement algorithmisée existe bel et bien, mais pas exactement de la manière dont on l’imagine. Les auteurs de nouvelles strictement informatives, de récits tenant du divertissement, ont peutêtre effectivement du souci à se faire », ont déjà prévenu Tom Lebrun et René Audet dans une interview accordée en octobre 2020 à la Faculté des lettres et des sciences humaines (FLSH). Mais d’ajouter : « A l’inverse, celles et ceux qui pratiquent du journalisme d’investigation, celles et ceux qui travaillent à un art littéraire (…), en bref, toutes celles et ceux qui proposent un rapport critique et construit au texte, celles et ceux-là entrent dans une catégorie de production textuelle que la machine a encore du mal à investir » (10). Ouf ! @

Charles de Laubier

27 millions de prises FTTH, moitié moins d’abonnés

En fait. Le 9 septembre, l’Arcep a publié les chiffres au 31 juin du haut et très haut débit en France : même si « la fibre pour tous » n’est plus pour 2022 mais reportée à 2025, le taux d’abonnés aux prises FTTH (Fiber-to-the-Home) déployées ne dépasse pas encore les 50 % (45,9 % à fin juin).

En clair. C’est un taux de pénétration qui reste encore presque tabou en France : le nombre d’abonnés à la fibre optique par rapport au nombre de prises de fibre optique raccordables déployées sur tout le territoire à coup de milliards d’euros d’investissement de la part des opérateurs télécoms et/ou des collectivités locales. D’après les chiffres du haut et du très haut débit publiés par l’Arcep le 9 septembre, et selon nos calculs, ce taux est de 45,9 % – soit 12.412.000 abonnés FTTH (1) sur 27.020.000 prises de ce réseau de fibre optique de bout en bout. Moins de la moitié des prises disponibles ont trouvé preneur. Il en reste donc encore 14,6 millions qui n’ont pas fait l’objet d’un abonnement, alors qu’elles sont bien disponibles, le rythme du déploiement des réseaux FTTH restant globalement soutenu. Rien que sur le second trimestre 2021, 1,4 million de lignes supplémentaires ont été installées, mais moins de 1 million d’abonnements (969.000 précisément) ont été contractés sur ces trois mois. Emmanuel Macron a promis « la fibre pour tous » pour 2025, après que son prédécesseur François Hollande l’avait annoncée pour 2022. Encore faudrait-il que l’objectif ne soit pas en prises raccordables mais bien en abonnements contractés. « On ne parle pas suffisamment du taux de pénétration, la différence entre le raccordable et le raccordé (…). Cela doit être un de nos chantiers dans les prochains mois », avait signalé le 2 juillet 2020 Julien Denormandie, alors encore ministre de la Ville et du Logement, aux 14es Assises du Très haut débit (2).
D’après la fédération professionnelle Infranum (3), plus de 5 milliards d’euros étaient alors encore nécessaires pour généraliser la fibre partout en France d’ici 2025. Or avec la crise sanitaire et ses confinements (télétravail, école en distanciel, télé-consultations, …), la fracture numérique est apparue au grand jour (4). Dans son dernier observatoire, l’Arcep pointe le retard pris dans les déploiements de fibre optique : « Le rythme record [des déploiements FTTH, ndlr] observé au niveau national ne se traduit toujours pas dans les zones très denses où le rythme insuffisant constaté ces derniers trimestres perdure » et « la couverture en fibre optique de certains départements [y] est bien inférieure à la couverture moyenne nationale de ces zones qui s’établit à 86%». Mais rien n’est dit sur les 14,6 millions de prises FTTH non encore activées. @