La Chine adopte son 15ᵉ plan quinquennal 2026-2030, avec le digital, la tech et l’IA parmi ses priorités

La deuxième économie mondiale, pesant un cinquième de la population de la planète, a adopté le 12 mars 2026 son 15ᵉ plan quinquennal (2026-2030) pour accélérer son « développement économique et social national ». Avec « Digital China » et « AI Plus », l’Empire du Milieu veut être au centre du monde numérique.

Le draft du 15ᵉ plan directeur pour la période 2026-2030, avant que la version finale ne soit approuvée le 12 mars 2026 à Pékin par les législateurs nationaux chinois, est un document de 141 pages détaillant les stratégies de « modernisation » de la Chine pour accélérer son « développement économique et social national ».
Ce plan quinquennal n’est pas une rupture par rapport au 14e (2021-2025), mais une accélération sur l’innovation, l’autonomie technologique et le développement de haute qualité, avec un accent encore plus fort mis sur l’intelligence artificielle (IA) comme outil essentiel pour booster la modernisation chinoise.
Cinq mois après en avoir ébauché les grandes lignes lors du quatrième plénum du 20e Comité central du Parti communiste (en octobre 2025 (1)), ce 15ᵉ plan vient donc d’être approuvé par les députés de l’Assemblée populaire nationale – National People’s Congress (NPC), l’organe législatif suprême de la République populaire de Chine (PPC), et en présence de son président Xi Jinping (photo). Avec les stratégies « Digital China » et « AI Plus », l’Empire du Milieu veut s’imposer au centre de l’économie numérique mondiale et en profiter pour atteindre un objectif de croissance de son produit intérieur brut (PIB) de 4,5 % à 5 % par an – tout en réduisant son impact carbone et sa consommation de charbon.

Xi Jinping vise l’« autonomie technologique »
Alors qu’elle fait toujours l’objet de restrictions strictes à l’importation de technologies avancées provenant des Etats-Unis – comme les puces IA de Nvidia – et de certains autres pays occidentaux et alliés tels que les Pays-Bas avec le fabricant ASML de machines de lithographie destinées à graver les circuits sur les semi-conducteurs, ou le Japon pour aussi ses outils de gravure, la Chine vise désormais l’« autonomie technologique » (self-reliance). Il s’agit de ne plus dépendre des autres pour ses puces avancées, ses futurs IA générales – ou AGI (2), équivalentes ou supérieures à l’intelligence humaine –, ses robots humanoïdes ou encore ses biotechnologies. Rien qu’en Europe, la Chine devient le 3e pays à déposer des brevets (3), tout en restant n°1 mondial des déposants. « La Chine doit accélérer la construction d’une “Digital China”, en faisant du numérique un moteur central de modernisation. L’objectif est de renforcer la capacité nationale en données, en algorithmes et en puissance de calcul, de généraliser les technologies numériques dans tous les secteurs, et de créer un écosystème numérique sûr, ordonné et propice à l’innovation », est-il prévu dans Continuer la lecture

Rentrée scolaire 2024-2025 : l’Education nationale conjugue numérique et intelligence artificielle

Démissionnaire depuis le 16 juillet 2024 de sa fonction de ministre de l’Education nationale et de la Jeunesse, tout comme le gouvernement Attal, Nicole Belloubet a tout de même présenté la « rentrée scolaire 2024-2025 ». Le numérique et l’intelligence artificielle sont dans les rangs.

Dans les « affaires courantes » qu’a gérées la ministre démissionnaire de l’Education nationale et de la Jeunesse, Nicole Belloubet (photo), il y avait la présentation le 27 août des grandes orientations de la « rentrée scolaire 2024-2025 ». Parmi les mesures prises afin que tout puisse se passer au mieux pour les près de 12 millions d’élèves qui, en France, ont repris le chemin de l’école, certaines portent sur les usages du numérique, avec l’instauration cette année de la « pause numérique », ainsi que l’apport de l’intelligence artificielle (IA) pour que les enfants et les enseignants puissent l’utiliser à des fins pédagogiques.

De la loi de 2018 à la circulaire de 2024
La mesure-phare est sans doute l’expérimentation de la « pause numérique » dans les collèges. Il s’agit de ni plus ni moins d’interdire les smartphones dans les 6.980 collèges que compte la France. Du moins, cette mesure radicale se fera en deux temps : une première expérimentation a commencé pour cette année scolaire 2024-2025 dans quelque 200 établissements qui se sont portés « volontaires » pour priver plus de 50.000 collégiens de leur téléphone portable. La ministre démissionnaire a précisé que la généralisation de cette mesure devrait intervenir au 1er janvier 2025 et l’avait justifiée dans une circulaire datée du 26 juin 2024 : « Au collège, une “pause numérique” sera expérimentée au sein de collèges volontaires dans chaque département, de telle sorte que l’interdiction de l’usage du portable prévue par la loi [du 3 août 2018, ndlr] soit effective et totale sur l’intégralité du temps scolaire, y compris les espaces interstitiels à risques que sont les changements de classe, les récréations et la pause méridienne ».
Cette circulaire a été publiée au Bulletin officiel de l’éducation nationale, de la jeunesse et des sports (1), lequel est adressé aux recteurs et rectrices d’académie, aux inspecteurs et inspectrices de l’éducation nationale, aux cheffes et chefs d’établissement, aux directeurs et directrices des écoles ; aux professeures et professeurs, ainsi qu’aux personnels administratifs, sociaux et de santé, et aux accompagnantes et accompagnants d’élèves en situation de handicap. Elle fait référence à la loi du 3 août 2018 intitulée « encadrement de l’utilisation du téléphone portable dans les établissements d’enseignement scolaire », laquelle prévoit déjà que « l’utilisation d’un téléphone mobile ou de tout autre équipement terminal de communications électroniques par un élève est interdite dans les écoles maternelles, les écoles élémentaires et les collèges et pendant toute activité liée à l’enseignement qui se déroule à l’extérieur de leur enceinte, à l’exception des circonstances, notamment les usages pédagogiques, et des lieux dans lesquels le règlement intérieur l’autorise expressément » (2).

Mais depuis six ans, cette loi n’est pas appliquée ou très peu. Lors de la présentation de l’année scolaire, le 27 août, le ministère de l’Education nationale a encore insisté sur la portée de la mesure « anti-smartphone » : « La pause numérique consiste en une mise à l’écart du téléphone portable des élèves au collège. Elle vise à prévenir les violences en ligne, à limiter l’exposition aux écrans et à faire respecter les règles encadrant l’usage des outils numériques. Cette expérimentation poursuit deux objectifs : l’amélioration du climat scolaire, auquel l’usage des téléphones portables peut nuire en rendant possible le développement de violences (harcèlement en ligne, diffusion d’images violentes) ; l’amélioration des résultats des élèves, l’utilisation du téléphone ayant un effet déterminant sur la capacité de concentration en classe et l’acquisition des connaissances ». L’interdiction des smartphones dans les collèges est la concrétisation d’une des recommandations de la mission installée en janvier 2024 par Emmanuel Macron, président de la République, pour « évaluer l’impact de l’exposition des jeunes aux écrans ».
Dans leur rapport remis à l’Elysée le 30 avril dernier (3), les « experts » – encadrés par les coprésidentes Servane Mouton, neurologue, et Amine Benyamina, psychiatre addictologue – préconisent de « renforcer l’application de l’interdiction des téléphones au collège, et systématiser dans chaque lycée un cadre partagé sur la place et l’usage des téléphones dans la vie de l’établissement ».

« L’Ecole du futur » passe désormais par l’IA
La rue de Grenelle, où est installé le ministère de l’Education nationale dans le 7e arrondissement de Paris, a donné un slogan à cette rentrée scolaire 2024-2025 : « L’Ecole change la vie ! ». Et l’intelligence artificielle (IA) est appelée à y contribuer à partir de cette année scolaire. Dans la circulaire du 26 juin, Nicole Belloubet veut « construire dès à présent l’Ecole du futur ». Ainsi, dit-elle, « l’année 2024-2025 conduira donc à élaborer une stratégie de l’éducation nationale sur l’intelligence artificielle, afin d’en tirer le meilleur parti en matière pédagogique, pour les élèves et pour les enseignants, et d’y former les élèves ». C’est la première fois que l’Education nationale veut utiliser les opportunités de l’IA à des fins pédagogiques. Là encore, c’est un rapport remis au président de la République (photo ci-dessous) en mars 2024 qui l’y encourage. Il émane de la commission de l’IA voulue par Emmanuel Macron et installée à Matignon en septembre 2023.

Initiation à l’IA à partir de la 5e
Parmi ses recommandations : « Encourager l’utilisation individuelle, l’expérimentation à grande échelle et l’évaluation des outils d’IA pour renforcer le service public de l’éducation et améliorer le quotidien des équipes pédagogiques ». Ses auteurs – treize membres et treize rapporteurs (4) – estiment d’ailleurs que « l’éducation est l’un des domaines où l’impact de l’IA générative pourrait être le plus grand » et que « l’IA générative pourrait fournir à chaque élève un tuteur adapté à son niveau, à ses cours, capable d’aider l’élève à raisonner, disponible 24h/24, donnant au professeur des informations sur les éléments mal compris de son cours ». Dans sa présentation de rentrée, le ministère de la rue de Grenelle fait le constat suivant : « L’Ecole est confrontée à un triple enjeu : utiliser les opportunités de l’intelligence artificielle à des fins pédagogiques ; donner aux élèves les clés de compréhension, d’usages éthiques et sûrs ainsi que, pour ceux qui veulent développer une expertise, les compétences leur permettant d’élaborer des outils d’intelligence artificielle ; permettre à chacun d’exercer ses droits et de respecter ses devoirs ».
Pour relever les défis de l’intelligence artificielle, l’Education nationale s’est fixée des objectifs, à savoir : « 1. Créer les conditions d’une appropriation collective de l’IA et de ses enjeux afin de définir ensemble les conditions dans lesquelles elle s’insère dans le quotidien des classes. 2. Encourager une utilisation raisonnée de l’IA à partir de la 5e, sous contrôle de l’enseignant, en lien avec l’évolution des programmes. 3. Permettre à l’Ecole d’assurer son rôle dans l’éducation aux médias et la compréhension des avantages et inconvénients des technologies ». Concrètement, le ministère explique que : chaque enseignant peut explorer les usages de l’IA ; en classe, l’enseignant doit poser un cadre de confiance pour ne pas exposer les données personnelles des élèves à un système d’IA ; toutes les décisions importantes sont validées par l’enseignant. Dans un souci de vigilance et de réflexivité, il s’agit d’organiser une forme de questionnement régulier, méthodique et délibératif pour développer l’esprit critique des élèves sur le fonctionnement des IA et leur utilisation. Avec cette rentrée scolaire 2024-2025, un nouveau programme de technologie du cycle 4 (5e, 4e et 3e) est instauré et axé notamment sur une compréhension du fonctionnement des outils et dispositifs numériques tels que les algorithmes et l’IA. « Le nouveau programme de technologie porte une nouvelle ambition pour le numérique afin de construire la pensée informatique des élèves à partir de la 5e autour de quatre piliers : les données, les algorithmes, les langages et les machines », précise le programme. Encore faut-il que les enseignants aient à leur disposition des formations pour comprendre les enjeux et les usages des IA en éducation, à l’instar du programme européen « AI for Teachers » (AI4T) conçu par la France, la Slovénie, l’Italie, l’Irlande et le Luxembourg dans le cadre d’Erasmus (5).
En outre, en France, un appel au marché est en préparation pour fournir aux enseignants des outils innovants et l’IA générative, afin de les aider dans leurs gestes quotidiens : préparation de cours, confection d’un scénario pédagogique interactif ou encore évaluation. A noter aussi : l’attestation de sensibilisation au numérique devient « obligatoire » à la rentrée pour les élèves de 6e. Cela passera par les certifications « Pix », « Pix Junior » et « Pix 6e », une fois que les élèves auront eu « une sensibilisation au bon usage des outils numériques et des réseaux sociaux ainsi qu’aux dérives et aux risques possibles [dont] la question du harcèlement dans le cadre du programme Phare (6) », au cours de 10 heures d’apprentissage. Plus de 4 millions d’élèves utilisent Pix (7). Pour les enseignants, « la formation au et par le numérique constitue une dimension obligatoire de la formation initiale des professeurs », notamment avec le dispositif « Pix+ Edu ». Quant au cadre de référence des compétences numériques pour l’éducation, « CRCN Edu », il complète le cadre de référence des compétences numériques « CRCN ». Tandis que la loi SREN – visant à sécuriser et à réguler l’espace numérique (8) – instaure une nouvelle attestation des compétences numériques professionnelles pour les personnels volontaires.

Compétences et communs numériques
Lors de sa conférence de rentrée, Nicole Belloubet a aussi insisté sur le fait que « le développement des compétences numériques des professeurs est encouragé par la création d’une attestation accessible aux personnels volontaires et par la mise à disposition de communs numériques (Eléa, Capytale, la Forge) pour créer et partager leurs propres ressources » (9). L’Education nationale compte aussi sensibiliser aux usages et aux risques du numérique, notamment à l’occasion du Safer Internet Day prévu le 11 février 2025, tandis que les familles auront accès à une plateforme de sensibilisation au (cyber)harcèlement. @

Charles de Laubier

Le « Big 19 » en Europe se voit contraint de renforcer sa régulation de l’Internet

Alibaba/AliExpress, Amazon Store, Apple/AppStore, Booking, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Zalando, Bing et Google Search : ce sont les « très grands régulateurs » du Net en Europe. Le règlement européen sur les services numériques (1) a prévu de les identifier ; la Commission européenne les a listés. Ce sont les « très grandes plateformes en ligne », au nombre de dix-sept, et les « très grands moteurs de recherche en ligne », au nombre de deux. Ce « Big 19 », du moins à ce stade puisque la liste sera actualisée tous les six mois, devra se conformer dans un délai de quatre mois – à savoir d’ici fin août 2023 – à l’ensemble des nouvelles obligations cumulatives découlant du Digital Services Act (DSA). 2 « VLOP » européens : Booking et Zalendo La première liste de ces « Very large Online Platforms (VLOP) en Europe, a été publiée le 25 avril dernier par la vice-présidente Margrethe Vestager (photo) et le commissaire Thierry Breton (2). Parmi ce « Big 19 », l’américain Google – la filiale du géant Alphabet – compte à lui seul cinq plateformes (Google Play, Google Search, YouTube, Google Maps et Google Shopping), tandis que son compatriote Meta en compte deux (Facebook et Instagram). Autre américain, Microsoft est présent aussi avec deux plateformes (Bing et LinkedIn). Les dix autres de la liste – avec cette fois une seule plateforme chacun – sont les américains Amazon Store, Apple/AppStore, Pinterest, Snapchat, TikTok, Twitter et Wikipedia, le chinois Alibaba avec AliExpress, ainsi que les européens Booking, et Zalando. Ces deux dernières plateformes – le néerlandais Booking, et l’allemand Zalando – sont à ce stade les deux seuls grands acteurs du Net émanant de l’Union européenne. Les Etats-Unis, eux, sont surreprésentés avec pas moins de seize plateformes sur les dix-neuf. Tous ont en commun de cumuler « au moins 45 millions d’utilisateurs actifs par mois » dans les Vingt-sept, soit 10 % de la population européenne qui est de 446,7 millions au dernier recensement (3). Le « Big 19 » se retrouve ainsi avec le plus d’« obligations cumulatives », soit une vingtaine, par rapport aux autres acteurs du Net moins fréquentés que sont les « services intermédiaires », les « services d’hébergement » et les « plateformes en ligne » (voir page suivante). Les VLOP – dans lesquels nous incluons les deux « VLOSE » (4) que sont, dans le jargon de Bruxelles, les moteurs de recherche Google (Alphabet) et Bing (Microsoft) – sont tenus de : redonner la main à leurs utilisateurs (consentir aux recommandations et au profilage, lesquels doivent pouvoir signaler des contenus illicites, exclure les données sensibles pour le ciblage publicitaire, être informé sur le caractère publicitaire des messages, avoir un résumer clair des conditions générales d’utilisation, etc.). protéger les mineurs en ligne (protection de la vie privée, interdiction de faire du profilage publicitaire sur les enfants, fournir une évaluation des risques et des effets négatifs sur la santé mentale, revoir la conception de la plateforme pour limiter les risques, etc.). modérer plus rapidement les contenus et limiter les fake news (éviter les contenus illicites et les effets négatifs sur la liberté d’expression et d’information, faire respecter plus rapidement les conditions générales d’utilisation, permettre aux utilisateurs de signaler les contenus illicites et y répondre rapidement, identifier les risques et les atténuer, etc.). rendre des comptes (se soumettre à un audit externe et indépendant d’évaluation des risques et du respect des obligations européennes, permettre aux chercheurs d’accéder aux données publiques, rendre public le registre de toutes les publicités, publier des rapports de transparence sur les décisions de modération des contenus et la gestion des risques, etc.). Alors que la Commission européenne a désormais le pouvoir de « surveiller les plateformes et les moteurs de recherche » considérés comme « très grands », avec la collaboration d’« autorités nationales » que chaque Etat membre devra désigner d’ici le 17 février 2024, le « Big 19 », lui, joue un rôle d’auto-régulation pour la part d’Internet les concernant. Cette régulation en cascade – publique-privée – instaurée par le DSA va accroître la pression réglementaire sur le Web en général et l’Internet mobile en particulier. Effets et biais : algorithmes sous surveillance Concernant la « gestion de risques » par les VLOP, la Commission européenne a annoncé le 17 avril le lancement du Centre européen pour la transparence des algorithmes (CETA) (5), afin de veiller à ce que les systèmes algorithmiques soient conformes aux obligations du règlement sur les services numériques (6). Objectifs : atténuer leurs effets et éviter les biais. @

Charles de Laubier

Ce que les GAFAM pensent de l’« accord politique provisoire » européen sur le Digital Services Act

Les grandes plateformes « systémiques » concernées par la future régulation du Digital Services Act (DSA) font bonne figure face à l’arsenal législatif qui entrera en vigueur d’ici fin 2023. Google, Amazon, Facebook, Apple ou encore Microsoft devront être plus précautionneux en Europe. Qu’en disent-ils ? « Nous apprécions les efforts déployés pour créer un marché unique numérique européen plus efficace, clarifier les responsabilités de chacun et protéger les droits en ligne », a déclaré Victoria de Posson (photo de gauche), directrice des affaires publiques de la CCIA Europe, la représentation à Bruxelles de l’association américaine du même sigle, dont sont notamment membres les géants du Net, mais pas Microsoft (1). Elle « reconnaît le travail acharné des décideurs pour parvenir à cet accord historique », tout en mettant un bémol : « Cependant, un certain nombre de détails importants restent à éclaircir » (2). C’est le cas des obligations de retrait de contenus notifiés comme illicites. « Accord politique provisoire » : et après ? Car ce qui a été signé le 23 avril vers 2 heures du matin (3), après de longues négociations entamées la veille, n’est encore qu’un « accord politique provisoire » obtenu à l’arrachée entre les négociateurs de la commission « marché intérieur et protection des consommateurs » (Imco), tête de file dans le processus législatif de ce projet de règlement européen sur les services numériques, et le Conseil de l’Union européenne – dont Cédric O représentait la France qui préside l’Union européenne jusqu’au 30 juin prochain. Le DSA en cours de finalisation prévoit de réguler les grandes plateformes numériques dites « systémiques » pour : les obliger à lutter contre le piratage et les contenus illicites, les contraindre à donner accès à leurs algorithmes, les amener à renforcement de la protection des mineurs notamment vis-à-vis des contenus pornographiques ou vis-à-vis de la publicité ciblée fondée sur des données sensibles (orientation sexuelle, religion, origine ethnique, etc.), les forcer à mieux informer les utilisateurs sur la manière dont les contenus leur sont recommandés. Mais le diable étant dans « les détails importants », la CCIA Europe attend beaucoup de la dernière ligne droite de ce texte unique au monde. Selon les informations de Edition Multimédi@, ce futur règlement DSA devra être approuvé par le Coreper, à savoir le comité des représentants permanents au Conseil de l’UE, et par l’Imco. « Nous espérons que le vote final en plénière aura lieu en juillet, mais cela doit encore être confirmé. Le vote en plénière sera suivi d’un accord formel au Conseil de l’UE », indique une porte-parole du Parlement européen. Pour l’heure, le texte passe par les fourches caudines des juristes-linguistes pour être finalisé techniquement et vérifié jusqu’à la virgule près. Une fois la procédure terminée, probablement l’été prochain, il entrera en vigueur vingt jours après sa publication au Journal officiel de l’UE – sous la présidence cette fois de la République tchèque – et les règles commenceront à s’appliquer quinze mois après, c’est-à-dire au second semestre 2023. Car un règlement européen s’applique dans sa totalité et directement, contrairement à une directive européenne qui donne des objectifs à atteindre par les Etats membres, en leur accordant un délai de plusieurs mois pour les transposer dans la législation nationale. Les GAFAM auront le temps (quinze mois) de se préparer pour ne pas tomber sous le coup de cette nouvelle loi européenne. Par ailleurs, il ne faudra pas s’attendre à ce que le voyage prévu du 23 au 27 mai prochain dans la Silicon Valley par une délégation de la commission Imco – pour notamment visiter plusieurs sièges sociaux de Big Tech telles que Meta (ex-Facebook), Google ou Apple – change les données du problème. Cette délégation d’eurodéputés y rencontrera également d’autres entreprises du numérique, des start-up, des universitaires américains ainsi que des représentants du gouvernement. « La mission aux Etats-Unis n’affectera pas l’accord politique déjà conclu avec les autres institutions. Elle sera une occasion d’explorer plus en profondeur les questions actuelles liées aux dossiers en cours sur le marché unique numérique au sein de la commission du marché intérieur (Imco) », nous précise la porte-parole du Parlement européen. Attention aux libertés fondamentales Cette escapade au pays des GAFAM sera notamment une opportunité pour les députés d’examiner la législation américaine sur le commerce électronique et les plateformes, en faisant le point sur les négociations récemment conclues en rapport avec les dossiers DSA et DMA (Digital Markets Act, pendant concurrentiel du DSA), ainsi que sur d’autres dossiers en cours comme celui sur l’intelligence artificielle. Également contactée, Victoria de Posson n’attend « pas d’impact sur le DSA » de ce voyage. Reste que le DSA, lui, ne sera pas facile à mettre en oeuvre par les GAFAM tant il touche à la liberté des internautes européens. C’est en tout cas ce que pointe DigitalEurope (ex-Eicta), organisation professionnelle des GAFAM entre autres Big Tech (4), et également installée à Bruxelles : « Le cadre du DSA crée un ensemble d’obligations à plusieurs niveaux pour différents types et tailles de services Internet, dont certains seront très complexes à mettre en oeuvre parce qu’ils touchent aux droits fondamentaux comme la liberté d’expression. Nous exhortons tous les intervenants à collaborer de façon pragmatique pour obtenir les meilleurs résultats », prévient sa directrice générale, Cecilia Bonefeld-Dahl (photo de droite). Retrait de contenus : risque de censure Bien que le futur règlement sur les services numériques aidera, d’après DigitalEurope, à rendre l’Internet plus sûr et plus transparent, tout en réduisant la propagation de contenus illégaux et de produits dangereux en ligne, « la modération du contenu sera toujours difficile, compte tenu des intérêts concurrents en cause » (5). D’autant que la réglementation d’Internet est un équilibre entre la protection des droits fondamentaux comme la liberté d’expression, d’une part, et la prévention des activités illégales et nuisibles en ligne, d’autre part. Il y a un an, dans un « position paper » sur le DSA, DigitalEurope se félicitait déjà que « la proposition préserve les principes fondamentaux de la directive sur le commerce électronique, qui ont permis à l’Europe de se développer et de bénéficier d’une économie Internet dynamique ». Et de se dire satisfaite : « Le maintien de principes tels que la responsabilité limitée, l’absence de surveillance générale et le pays d’origine est essentiel à la poursuite de l’innovation et de la croissance de ces services numériques en Europe et sera crucial pour une reprise économique rapide ». Par exemple, le lobby des GAFAM a souligné que le DSA reconnaît que le contenu préjudiciable (mais légal) exige un ensemble de dispositions différent du contenu illégal. Le contenu nuisible et contextuel, difficile à définir, peut être subjectif sur le plan culturel et est souvent juridiquement ambigu. Est apprécié également le fait que le texte impose aux plateformes numériques des « exigences de diligence raisonnable » (signaleurs fiables, traçabilité des négociants et mécanismes de transparence), « de façon proportionnelle et pratique ». De plus, DigitalEurope est favorable pour fournir aux intervenants une transparence significative au sujet des pratiques de modération du contenu et d’application de la loi. « Toutefois, ajoute DigitalEurope, il sera important que les mesures de transparence du DSA garantissent que la vie privée des utilisateurs est protégée, que les mauvais acteurs ne peuvent pas manipuler le système et que les renseignements commerciaux sensibles ne sont pas divulgués » (6). Les intermédiaires de l’écosystème numérique, à savoir les plateformes en ligne que sont les réseaux sociaux et les places de marché, devront prendre des mesures pour protéger leurs utilisateurs contre les contenus, les biens et les services illicites. Une procédure de notification et d’action plus claire permettra aux utilisateurs de signaler du contenu illicite en ligne et obligera les plateformes en ligne à réagir rapidement (les contenus cyberviolents comme le « revenge porn » seront retirés immédiatement). Et ces notifications devront être traitées de manière non-arbitraire et non-discriminatoire, tout en respectant les droits fondamentaux, notamment la liberté d’expression et la protection des données. Quant aux places de marché en ligne, elles seront plus responsables : les consommateurs pourront acheter des produits et services en ligne sûrs et non-illicites, « en renforçant les contrôles permettant de prouver que les informations fournies par les vendeurs sont fiables (principe de “connaissance du client”, (…) notamment via des contrôles aléatoires ». En cas d’infraction à toutes ces obligations et bien d’autres, des pénalités pécuniaires sont prévues à l’encontre des plateformes en ligne et des moteurs de recherche qui pourront se voir infliger des amendes allant jusqu’à 6% de leur chiffre d’affaires mondial. Concernant les très grandes plateformes (disposant de plus de 45 millions d’utilisateurs), la Commission européenne aura le pouvoir exclusif d’exiger le respect des règles. Algorithmes de recommandation, publicité en ligne, protection des mineurs, choix et désabonnement facilités, compensation des utilisateurs en cas d’infraction, … Une multitude de mesures en faveur du consommateur seront mises en place pour un Internet plus sûr. Bruxelles dompte la Silicon Valley Par exemple, les plateformes numériques qui utilisent des « systèmes de recommandation » – basés sur des algorithmes qui déterminent ce que les internautes voient à l’écran – devront fournir au moins une option qui ne soit pas fondée sur le profilage des utilisateurs. « Les très grandes plateformes devront évaluer et atténuer les risques systémiques et se soumettre à des audits indépendants chaque année », est-il en outre prévu (7). Malgré la distance de 8.894 km qui les séparent, Bruxelles et la Silicon Valley n’ont jamais été aussi proches. @

Charles de Laubier

Les recommandations algorithmiques en question

En fait. Le 15 décembre, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) s’est réuni en séance plénière et en visio. Parmi les points à l’ordre du jour : la présentation du rapport « Frachy & Benabou » sur les algorithmes de recommandation des œuvres audiovisuelles et musicales.

En clair. Un an après avoir été missionnées par le CSPLA sur « les dispositifs de recommandation des œuvres auprès des utilisateurs des plateformes en ligne », les professeures Valérie- Laure Benabou et Joëlle Farchy ont présenté leur rapport de 80 pages (1). Elles étaient assistées par Steven Tallec, rapporteur de la mission et par ailleurs chercheur associé au sein de la chaire « PcEn » (Pluralisme culturel & Ethique du numérique) que dirige sa fondatrice Joëlle Farchy à l’université Paris 1 Panthéon-Sorbonne (2). Cette chaire créée en 2020 est notamment financée par Netflix et Amazon Prime Video. Popularisée par l’iTunes Store à partir de 2003 et surtout par Netflix depuis le lancement de sa plateforme de SVOD en 2007, la recommandation algorithmique est devenue la boîte noire des services de streaming. Les deux auteures tentent de tordre le cou à l’idée répandue d’un enfermement de l’utilisateur induit par les algorithmes de recommandation au détriment de sa « découvrabilité » et donc de la diversité culturelle : « Des travaux menés sur les moteurs de recherche ou les réseaux sociaux font état de biais avérés, sans pour autant accréditer la thèse d’un enfermement généralisé dans une bulle de filtre ». Pourtant, lorsque TikTok ne propose que des vidéos tristes et dépressives à un utilisateur concernés, cela pose problème. Lorsque YouTube, dont l’algorithme de recommandation « Watch Next » décrié, propose à l’internaute la lecture automatique de vidéos « sensationnelles, clivantes ou complotistes » après celle du même genre qu’il vient de visionner, cela soulève la question de l’enfermement et de l’amplification. Mais des chercheurs du CNRS, cités par les deux auteures, relativisent : « Si la recommandation implicite proposée n’a clairement pas un rôle neutre, il reste difficile d’apporter une réponse univoque et définitive à la question de l’enfermement sur YouTube » (3). Quant à la rémunération des auteurs et artistes, elle peut être directement impactée par des algorithmes de recommandation – surtout dans la musique où le « market centric » domine au détriment du « user centric » (4), et où les « Fake Streams » (achats de streams) se le disputent aux « Fake Artists » (faux artistes) ! La dernière version du projet de règlement européen Digital Services Act (DSA), discutée le 25 novembre dernier (5), va dans le sens de plus de transparence de la recommandation. @