Elections européennes : le numérique au programme

En fait. Le dimanche 9 juin, les Français élisent leurs 81 députés européens (dès le 8 juin pour certains territoires ultra-marins et Français de l’étranger). Il n’y a pas moins de 38 listes pour ces élections européennes. Edition Multimédi@ a sélectionné quelques mesures-phare pour le numérique, dont l’IA.

En clair. Nous nous sommes concentrés sur le « Top 5 » des listes arrivant en tête des sondages (1), en allant de la cinquième position à la première (2).
« Europe écologie » (Marie Toussaint) : « Lancer un Digital Green and Social Deal qui place les technologies numériques au service de la réalisation d’une vie décente pour tous·tes dans les limites de la planète » ; « Passer une nouvelle étape dans la réglementation des cryptomonnaies » ; « Encadrer les consommations des datacenters sur le sol européen » ; « Briser le monopole des GAFAM en Europe en garantissant l’interopérabilité des services numériques » ; « Taxer les GAFAM ».
« La France insoumise » (Manon Aubry) : « Réglementer les IA » ; « Garantir un euro numérique 100 % public » ; « Reprendre le contrôle sur les multinationales du numérique » ; « Inscrire la neutralité du Net dans la Charte des droits fondamentaux de l’Union européenne » ; « Renforcer la réglementation sur l’IA, en interdisant les identifications biométriques et les technologies répressives » ; « Encadrer l’usage de l’IA dans les secteurs culturels et créatifs notamment par la transparence des algorithmes » ; « Réguler les “coffres à butin” (loot box) en jeux d’argent ».

« Parti socialiste » (Raphaël Glucksmann) : « Créer un fonds souverain pour investir dans le numérique, en imposant des obligations de financement sur le territoire européen aux géants étrangers (les GAFAM et les BATX) […] et en poussant un accord international sur l’IA » ; « Lutter contre la fracture numérique » ; « S’assurer qu’un contrôle humain et une approche non-discriminatoire sont appliqués à l’ensemble des services numériques faisant appel à l’IA » ; « Multiplier par 10 le budget de l’Agence de cyberdéfense européenne ENISA ».
« Renaissance » (Valérie Hayer) : « Mettre en œuvre un plan Europe 2030 [notamment en] 5 ans pour des capacités de calcul de rang mondial, dont trois des cinq supercalculateurs parmi les plus puissants au monde » ; « Mieux protéger nos enfants avec la majorité numérique à 15 ans sur les réseaux sociaux et le contrôle parental par défaut sur les mobiles ».
« Rassemblement nationale » (Jordan Bardella) : « Revoir les règles de la concurrence européenne pour autoriser la concentration des acteurs et créer des champions européens du numérique » ; « Défendre la constitution d’un cloud souverain européen » ; « Créer un environnement complet en faveur de l’IA ». @

Pub des médias en baisse : taxer les géants du Net ?

En fait. Le 30 janvier, l’Arcom et la DGMIC (ministère de la Culture) ont présenté une étude sur la publicité accaparée par les plateformes Google, Meta, Amazon et TikTok au détriment des médias. Pour le président de l’Arcom, il faut « anticiper une régulation au niveau européen pour un meilleur équilibre ».

En clair. Alors que la prochaine Commission européenne ne prendra ses fonctions qu’en novembre 2024, à l’issue des résultats des élections européennes qui se dérouleront du 6 au 9 juin prochains, la France lui suggère déjà de faire à nouveau évoluer la régulation des médias et du numérique dans les Vingt-sept. « Nous avons un processus d’élections européennes devant nous ; il faut d’ores et déjà anticiper et réfléchir à une voie de régulation, au niveau européen, sur un meilleur équilibre de la ressource publicitaire entre les acteurs du numérique et les acteurs de contenus », a expliqué Roch-Olivier Maistre, président de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), devant l’Association des journalistes médias (AJM) le 1er février.
Cet équilibre publicitaire doit être trouvé au niveau européen, car l’étude publiée l’avant-veille par l’Arcom – avec la Direction générale des médias et des industries culturelles (DGMIC) du ministère de la Culture – montre que « les médias de contenus vont souffrir », prévient-il. Et de constater : « Sur le numérique, tout se concentre sur quatre acteurs : Amazon, Google, Meta et TikTok. Or il faut défendre le pluralisme des médias qui portent une forme de contenus ».

L’étude (1) réalisée par le cabinet PMP Strategy estime qu’en 2030 la part des recettes de publicités sur les espaces numériques des médias historiques ne dépassera pas les 6 % du marché publicitaire français, lequel devrait atteindre 18,4 milliards d’euros à la fin de cette décennie. Ce taux était de 5 % en 2022 sur 15,2 milliards d’euros. Constat : malgré la croissance du marché français de la publicité (+ 2,3 % par an d’ici à 2030), les recettes publicitaires des médias créateurs de contenus vont diminuer au profit principalement des géants du Net.
Au niveau de Bruxelles, il reviendra à la prochaine Commission européenne de réexaminer le DMA (marchés numériques) et le DSA (services numériques) d’ici, respectivement, le 3 mai 2026 (2) et le 17 novembre 2027 (3). Ce serait donc l’occasion d’« équilibrer », selon Roch-Olivier Maistre. Au niveau de Paris, la DGMIC a lancé le 30 janvier dernier une consultation publique jusqu’au 25 mars 2024 (4) pour une « adaptation de la réglementation ». « Trouver un mécanisme correctif me paraît souhaitable », estime le président de l’Arcom. Comme taxer les géants du Net pour financer les médias locaux ? @

L’AI Act devra limiter les risques élevés de l’IA pour les droits humains, sans freiner l’innovation

L’émergence fulgurante et extraordinaire de l’intelligence artificielle (IA) soulève aussi des préoccupations légitimes. Sur l’AI Act, un accord entre les Etats membres tarde avant un vote des eurodéputés, alors que 2024 va marquer la fin de la mandature de l’actuelle Commission européenne.

Par Arnaud Touati, avocat associé, Nathan Benzacken, avocat, et Célia Moumine, juriste, Hashtag Avocats.

Il y a près de trois ans, le 21 avril 2021, la Commission européenne a proposé un règlement visant à établir des règles harmonisées concernant l’intelligence artificielle (IA). Ce règlement européen, appelé AI Act, a fait l’objet, le 9 décembre 2023 lors des trilogues (1), d’un accord provisoire. Mais des Etats européens, dont la France, ont joué les prolongations dans des réunions techniques (2). La dernière version consolidée (3) de ce texte législatif sur l’IA a été remise le 21 janvier aux Etats membres sans savoir s’ils se mettront d’accord entre eux début février, avant un vote incertain au Parlement européen (4).

Contours de l’IA : éléments et précisions
Cette proposition de cadre harmonisé a pour objectif de : veiller à ce que les systèmes d’IA mis sur le marché dans l’Union européenne (UE) soient sûrs et respectent la législation en matière de droits fondamentaux et les valeurs de l’UE ; garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA ; renforcer la gouvernance et l’application effective de la législation en matière de droits fondamentaux et des exigences de sécurité applicables aux systèmes d’IA; et faciliter le développement d’un marché unique pour les applications d’IA, sûres et dignes de confiance et empêcher la fragmentation du marché (5). Pour résumer, cette règlementation vise à interdire certaines pratiques, définir des exigences pour les systèmes d’IA « à haut risque »et des règles de transparence, tout en visant à minimiser les risques de discrimination et à assurer la conformité avec les droits fondamentaux et la législation existante. Il reste encore au futur AI Act à être formellement adopté par le Parlement et le Conseil européens pour entrer en vigueur.

L’accord provisoire prévoit que l’AI Act devrait s’appliquer deux ans après son entrée en vigueur, avec des exceptions pour certaines dispositions. Afin de pouvoir saisir l’ampleur des mesures réglementaires, il faut tout d’abord définir ce qu’est réellement l’IA.
La proposition de texte actuelle, tel qu’amendé par le Parlement européen le 14 juin 2023 en première lecture par 499 voix pour, 28 contre et 93 abstentions (6), contient la définition suivante d’un « système d’intelligence artificielle », à savoir « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels ». Dans cette définition amendée, il n’est plus fait référence à l’annexe I contenant une liste de formes d’IA, annexe I contenue dans la proposition initiale de la Commission européenne. En effet un amendement n°708 a supprimé cette annexe I qui contenait trois types d’IA :
« (a) Approches d’apprentissage automatique, y compris d’apprentissage supervisé, non supervisé et par renforcement, utilisant une grande variété de méthodes, y compris l’apprentissage profond ». Ces techniques permettent aux systèmes d’IA d’apprendre de l’expérience, de reconnaître des modèles et de prendre des décisions intelligentes.
« (b) Approches fondées sur la logique et les connaissances, y compris la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs d’inférence (7) et de déduction, le raisonnement (symbolique) et les systèmes experts ». Les approches d’intelligence artificielle basées sur la logique et les connaissances organisent des données complexes en structures logiques, permettant un raisonnement précis par des systèmes d’IA.
« (c) Approches statistiques, estimation bayésienne, méthodes de recherche et d’optimisation ». Ces approches permettant l’analyse et l’interprétation précises de données complexes. Ces techniques sont utiles pour identifier des tendances, faire des prédictions, et résoudre des problèmes complexes dans divers secteurs, comme la finance, la logistique et la recherche scientifique.
Face au potentiel de l’IA d’impacter les droits fondamentaux, l’UE vise à réguler son usage viaun marché de confiance, tout en préservant le dynamisme de l’innovation dans ce secteur. Pour atteindre ces objectifs, l’AI Act énonce des dispositions spécifiques applicables aux acteurs de l’IA. Ces dispositions s’articulent autour de deux axes principaux : la gestion des risques et la responsabilité des acteurs.

Risque, de « limité » à « inacceptable »
Ainsi, cette proposition de règles établit des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l’IA. Concernant la gestion des risques, sont définis des niveaux de risque pour les systèmes d’IA, classés de « limité » à « inacceptable ». Ce classement établit des obligations proportionnées en fonction du niveau de risque associé.
Risque inacceptable. Les systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Par exemple, la proposition de règlement interdit les pratiques suivantes : les systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes en fonction de leur comportement social ou de caractéristiques personnelles et pouvant entraîner un traitement préjudiciable de personnes, dans certains contextes, injustifié ou disproportionné (score social) ; ou la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques, par exemple, des jouets activés par la voix qui encouragent à des comportements.

Droits des individus et IA éthique
Risque élevé.
Les systèmes d’IA qui ont un impact négatif sur la santé, la sécurité, les droits fondamentaux ou l’environnement (8) seront considérés comme à haut risque et seront divisés en deux catégories (systèmes d’IA utilisés dans des produits tels que jouets, voitures, etc.) et systèmes d’IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l’UE (aide à l’interprétation juridique, la gestion de la migration, de l’asile et du contrôle des frontières, etc.). L’annexe III de la proposition de règlement donne une liste des systèmes d’IA à haut risque. Une analyse d’impact sera obligatoire sur les droits fondamentaux, également applicable au secteur bancaire et des assurances. Les citoyens auront le droit de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque ayant une incidence sur leurs droits.
Risque limité. Les systèmes d’IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Ainsi, les utilisateurs doivent être informés lorsqu’ils interagissent avec l’IA. Cela inclut les systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo (comme les deepfakes). Par exemple, l’IA générative, telle que ChatGPT, devrait se conformer aux exigences de transparence : indiquer que le contenu a été généré par l’IA, concevoir le modèle pour l’empêcher de générer du contenu illégal, publier des résumés des données protégées par le droit d’auteur utilisées pour la formation. Les modèles d’IA à usage général à fort impact susceptibles de présenter un risque systémique, tels que le modèle d’IA plus avancé GPT-4, et bientôt GPT-5, devraient faire l’objet d’évaluations approfondies et signaler tout incident grave à la Commission européenne. Les droits individuels, eux, sont au cœur de la régulation sur l’IA. L’AI Act accorde une attention particulière aux droits des individus, qui s’articulent autour de quatre axes, afin de garantir une utilisation éthique et respectueuse de l’intelligence artificielle :
Le droit à la transparence et à l’information vise à assurer que les individus comprennent comment les systèmes d’IA prennent des décisions les concernant.
Le droit à la non-discrimination vise à protéger les individus contre les décisions automatisées basées sur des critères discriminatoires tels que la race, le genre, l’origine ethnique, la religion ou d’autres caractéristiques protégées. Les systèmes d’IA ne doivent pas conduire à des discriminations injustes ou à des disparités injustifiées.
Le droit à la sécurité et à la santé souligne l’importance de protéger les individus contre les risques inhérents aux systèmes d’IA. Les entreprises qui développent, mettent sur le marché ou utilisent des systèmes d’IA doivent garantir que ces technologies n’entraînent pas de préjudices physiques ou psychologiques aux individus.
La protection des données personnelles et de la vie privée. Dans la continuité du RGPD, les entreprises doivent ainsi garantir la confidentialité des données personnelles traitées par les systèmes d’IA. Cela implique une transparence totale sur les données collectées, les finalités du traitement et les mécanismes permettant aux individus de contrôler l’utilisation de leurs informations personnelles.
Les entreprises devront instaurer et suivre un processus itératif de gestion des risques, mettre en place des procédures de gouvernance des données, et garantir la robustesse, l’exactitude, ainsi que la cybersécurité. Les entreprises pourront compter sur les autorités européennes de standardisation qui élaboreront des normes techniques harmonisées pour faciliter la démonstration de la conformité des systèmes d’IA. Les autorités nationales compétentes auront la possibilité de créer des « bacs à sable réglementaires », offrant ainsi un cadre contrôlé pour évaluer les technologies innovantes sur une période déterminée.
Ces regulatory sandboxes reposent sur un plan d’essai visant à garantir la conformité des systèmes et à faciliter l’accès aux marchés auxquels les PME et les start-ups auront une priorité. Avant même la mise sur le marché des systèmes d’IA, les Etats membres devront désigner des « autorités notifiantes ». Cellesci sont désignées afin de superviser le processus de certification des organismes d’évaluation de la conformité. Ces organismes notifiés auront la tâche de vérifier la conformité des systèmes d’IA à haut risque.

« Cnil » européennes, futures gendarmes de l’IA
Il ne faut pas confondre ces entités avec les autorités nationales de contrôle, qui auront la tâche, après la mise en service des systèmes d’IA, de surveiller l’utilisation des systèmes et de s’assurer qu’ils respectent les normes établies par l’AI Act. En France, la Cnil (9) est pressentie. Le règlement comprend également la création du Comité européen de l’IA. Celui-ci sera composé d’un représentant par Etat membre et son rôle sera de conseiller et d’assister la Commission européenne ainsi que les Etats membres dans la mise en œuvre du règlement. L’AI Act prévoit également des mécanismes rigoureux pour garantir la conformité et sanctionner financièrement (10) d’éventuels manquements. @

Discours de la présidente von der Leyen sur l’état de l’UE : l’IA a éclipsé le métavers européen

Lors de son discours sur l’état de l’Union européenne, prononcé le 13 septembre, Ursula von der Leyen – présidente de la Commission européenne – s’est focalisée sur l’intelligence artificielle. Mais pas un mot sur la stratégie du métavers européen, dont les défis sont pourtant nombreux.

Ursula von der Leyen (photo) a fait l’impasse sur les mondes virtuels. La présidente de la Commission européenne, dont le mandat commencé en décembre 2019 se terminera en novembre 2024, n’a pas eu un mot sur le métavers européen dans son discours du 13 septembre (1) à Strasbourg sur l’état de l’Union européenne (UE). Ni dans sa lettre d’intention datée du même jour et envoyée de Bruxelles à la présidente du Parlement européen (2) et au président du Conseil de l’UE (3), pour leur faire part de ses « principales priorités pour 2024 » (4).

Mondes virtuels : principes directeurs fin 2023
Pourtant, les défis des mondes virtuels sont tout aussi importants que ceux des intelligences artificielles. Est-ce à dire que « la nouvelle stratégie sur le Web 4.0 et les mondes virtuels » – présentée à Strasbourg le 11 juillet dernier n’est plus prioritaire d’ici les élections du Parlement européen de juin 2024 ? Ursula von der Leyen semble avoir tourné la page du « métavers européen », renvoyant la mise en œuvre à la Commission européenne 2024-2029.
« Les mondes virtuels changeront la façon de vivre en société et leur avènement s’accompagnera de possibilités et de risques qui doivent être pris en compte », avaient pourtant prévenu cet été pas moins de trois commissaires européens – Margrethe Vestager, Dubravka Suica et Thierry Breton – en dévoilant cette nouvelle stratégie et son calendrier. Ainsi, d’ici fin 2023, la Commission européenne va promouvoir des « principes directeurs pour les mondes virtuels », identifiés par un panel de 150 citoyens européens sélectionnés de façon aléatoire (5) et réunis entre les mois de février et d’avril derniers. Il en était ressorti 23 recommandations (6) qui ont inspiré la stratégie « Mondes virtuels », parmi lesquelles : « formation harmonisée pour le travail dans les mondes virtuels » ; « soutien financier au développement des mondes virtuels » ; « forums participatifs pour des avancées, des réglementations et des normes communes » ; « police pour agir et protéger dans les mondes virtuels » ; « accessibilité pour tous – personne n’est laissé de côté » ; « labels/certificats européens pour les applications des mondes virtuels », etc.

Ces recommandations s’articulent autour de huit valeurs et principes applicables aux métavers : liberté de choix, durabilité, approche centrée sur l’humain, santé, éducation, sûreté et sécurité, transparence et intégration. La Commission européenne veut ainsi faire des mondes virtuels en Europe « un environnement numérique ouvert, sécurisé, digne de confiance, équitable et inclusif » (7). Elle veut aussi rendre disponibles au premier trimestre de 2024 des « orientations à l’intention du grand public » grâce à une « boîte à outils pour les citoyens » afin de les orienter. Il s’agit pour l’Europe de ne pas manquer la marche du siècle vers le Web3, où le marché mondial des mondes virtuels devrait exploser à plus de 800 milliards d’euros d’ici à 2030, contre 27 milliards d’euros en 2022. Et d’ici 2025 (soit dans moins de deux ans), les Vingt-sept pourraient totaliser 860.000 nouveaux emplois dans le secteur de la réalité étendue (virtuelle et augmentée). La Commission européenne va créer avec les Etats membres « un réservoir de talents » pour le développement des compétences, qui sera financé par les programmes Digital Europe (8) et Europe Creative (9). Du côté de l’écosystème industriel du Web 4.0, et dans le but d’éviter la fragmentation de ma chaîne de valeur des mondes virtuels, il est prévu de faire appel à un autre programme européen, Horizon Europe (10), pour que débute en 2025 « un partenariat candidat sur les mondes virtuels, afin de promouvoir l’excellence dans la recherche et d’élaborer une feuille de route industrielle et technologique pour les mondes virtuels ».
La Commission européenne a en outre promis d’aider les créateurs et les entreprises de médias de l’UE « à tester de nouveaux outils de création, à rapprocher les développeurs et les utilisateurs industriels, et à travailler avec les Etats membres à la mise au point de bacs à sable réglementaires pour le Web 4.0 et les mondes virtuels ». Les mondes virtuels concerneront autant les particuliers que les professionnels.

Meta Platforms y croit plus que l’Europe
Parmi les projets pan-européens sur les rails : DestinE (Destination Earth), qui vise à créer un jumeau numérique de la Terre pour simuler et visualiser au plus près l’évolution du climat, et CitiVerse, qui sera un environnement urbain immersif pour la planification et la gestion urbaines. Pour l’heure, le groupe américain Meta Platforms (ex-Facebook) essuie les plâtres (11) mais il a pris de l’avance en investissant des milliards dans son métavers perfectible Horizon Worlds (12). Apple mise de son côté sur son casque de réalité virtuelle et augmentée Vision Pro, disponible début 2024. Bien d’autres métavers se développent, comme pour les spectacles et concerts chez Vrroom (13) en France, pays où le chef de l’Etat rêve d’un « métavers européen » (14). @

Charles de Laubier

Passer de 4 à 3 trois opérateurs en rachetant SFR ?

En fait. Le 6 septembre, Patrick Drahi a évoqué pour la première fois l’éventualité de vendre tout ou partie du deuxième opérateur télécoms français – après l’avoir exclu les 7 et 8 août. Cette réflexion a été confirmée le 7 aux élus de SFR. De là à passer de quatre à trois opérateurs comme en rêve le marché…

En clair. Passer de quatre à trois opérateurs télécoms en France, Patrick Drahi y est favorable depuis longtemps : « Je pense que ce serait mieux pour le marché français que deux opérateurs français se rapprochent pour être plus forts », avait-il plaidé lors de son audition au Sénat le 2 février 2022 devant la commission d’enquête sur la concentration dans les médias en France (1). C’était il y a une vingtaine de mois, à un moment où circulaient des rumeurs de discussions entre SFR et Free, ce que le président fondateur du groupe Altice, maison mère d’Altice France détenant SFR, avait alors démenti : « Il n’y a aucune stratégie de rapprochement. J’ai tout essayé, du point de vue de la consolidation du marché français des télécoms. (…) Mais je suis assez persévérant, dans la vie et je ne suis pas pressé ».
Pour Patrick Drahi, le passage à trois opérateurs télécoms aura lieu « tôt ou tard » car « il vaut mieux pour le marché français que deux opérateurs français se rapprochent, un jour, pour former un nouvel ensemble plus fort, plutôt que de voir l’un des quatre opérateurs français passer dans des mains étrangères ». Après avoir changé d’avis sur le sort de sa filiale SFR au sein de son groupe Altice surendetté (jusqu’à 60 milliards) et enlisé dans une affaire de corruption et de fraude fiscale (2), Patrick Drahi songe à la vendre. Devant des investisseurs à Londres le 6 septembre, il a évoqué la vente de tout ou partie du deuxième opérateur télécom français. « Est-ce que le retrait de France est une option ? (…) Oui », a-t-il dit.

Et d’après Le Monde du 7 septembre, la banque d’affaires Lazard épaulée par BNP Paribas a été mandatée pour « la tour Eiffel » – dixit Drahi en parlant de SFR (3). Pourtant, elle a des pieds d’argile : Altice France accuse une dette de 23,8 milliards d’euros au 30 juin ; le réseau de fibre n’est plus intégré à SFR mais dans XpFibre (ex-SFR FTTH) depuis 2021 ; 1.226 antennes de SFR ont été cédées cet été à l’américain Phoenix Tower ; les 92 data centers en France pourraient être vendus à Morgan Stanley (4) ; SFR a perdu 235.000 abonnés depuis le début de l’année… Alors, Bouygues Telecom – que Martin Bouygues n’exclut plus de vendre (5) – pourrait-il racheter SFR ? Ou Free – que Xavier Niel ne veut pas vendre (6) – serait-il tenté ? Mais, ni l’Autorité de la concurrence ni la Commission européenne ne sont favorables à un « triopole ». @