La réforme de l’audiovisuel public est devenue le « marronnier » de la macronie, … et l’arlésienne ?

Rachida Dati, la cinquième ministre de la Culture de l’hyperprésident Macron, s’est emparée du marronnier de la macronie : la réforme de l’audiovisuel public. « Un audiovisuel public fort, je vous le dis, c’est un audiovisuel public qui rassemble ses forces », a-t-elle lancé lors de ses vœux 2024.

Delphine Ernotte (présidente de France Télévisions), Sibyle Veil (présidente de Radio France), Marie-Christine Saragosse (présidente de France Médias Monde) et Laurent Vallet (président de l’Institut national de l’audiovisuel) sont sur le qui-vive, depuis que Rachida Dati est ministre de la Culture. Car le plus gros dossier de la locataire de la rue de Valois est la réforme de l’audiovisuel public qu’Emmanuel Macron (photo) promet depuis début 2017 : « Nous rapprocherons les sociétés audiovisuelles publiques pour une plus grande efficacité », avait assuré le candidat d’alors, devenu le 8e président de la République française (1).

Holding « France Médias », le retour ?
Rachida Dati, cinquième (2) ministre de la Culture de l’hyperprésident, a repris le flambeau de cette réforme de l’audiovisuel devenue le « marronnier » de la macronie. « Je partage avec le président de la République la conviction que nous avons besoin d’un audiovisuel public puissant […]. Un audiovisuel public fort, je vous le dis, c’est un audiovisuel public qui rassemble ses forces. C’est pourquoi je souhaite encourager et même accélérer les coopérations entre sociétés […]. C’est aussi à cette condition que nous pourrons obtenir un financement pérenne dédié », a-t-elle prévenu le 29 janvier lors de ses vœux aux acteurs culturels. Car c’est une affaire de gros sous : la redevance audiovisuelle a été payée pour la dernière fois en 2021 par les Français (3,2 milliards d’euros collectés) ; elle a été remplacée par une fraction de la TVA fléchée vers l’audiovisuel public (4 milliards d’euros en 2024).

Mais ce dispositif fiscal ne peut aller au-delà de 2025, ce qui nécessite de voter une loi organique dès cette année, alors que les contrats d’objectifs et de moyens (COM) se terminent cette année et que les nouveaux en phase de négociation prévoient plus de synergies entre les groupes audiovisuels publics. Avant la fin de son second et dernier quinquennat, qui se terminera le 13 mai 2027, Emmanuel Macron va-t-il remettre sur les rails la création de la holding « France Médias » ? Attaché à son « en même temps », le chef de l’Etat – lequel Etat français est actionnaire unique de France Télévisions, de Radio France, de France Médias Monde et de l’INA – a changé d’avis entre son premier quinquennat et son second. Le locataire de l’Elysée avait fait sienne ((3) l’idée d’une holding France Médias proposée pour la première fois, en septembre 2015, par les sénateurs Jean-Pierre Leleux et André Gattolin dans leur rapport parlementaire « sur le financement de l’audiovisuel public » (4). Mais la crise sanitaire a fait changer d’avis le président de la République, « la grande réforme » de l’audiovisuel étant sacrifiée en juin 2020 sur l’autel du plan de relance face à « l’urgence économique » (5). Depuis, le Sénat, lui, n’a pas abandonné son idée de holding : en avril 2023, le sénateur centriste Laurent Lafon remettait au goût du jour France Médias. « Cette structure légère et stratégique constituera une étape avant une fusion des différentes entités », précisait le sénateur (LR) JeanRaymond Hugonet, le rapporteur (6) de sa proposition de loi de « réforme de l’audiovisuel public et souveraineté audiovisuelle » (7). Celle-ci fut adoptée par le Sénat en juin (première lecture), est toujours en stand-by à l’Assemblée nationale (en commission des affaires culturelles), et n’attend plus qu’un débat avec… Rachida Dati. Autant sa prédécesseure Rima Abdul-Malak s’était alignée sur Emmanuel Macron pour dire non à France Médias, « une usine à gaz » (8), autant la transfuge de la droite pourrait convaincre le chef de l’Etat de franchir le Rubicon.
Sur France Inter le 31 janvier, la nouvelle ministre de la Culture a dit vouloir « faire cette réforme et vite », en la justifiant : « Si vous voulez le préserver [l’audiovisuel public], dans un monde qui est en bouleversement technologique immense, il faut rassembler les forces. [Une BBC à la française], lorsque je n’étais pas ministre de la Culture, c’était mon idée, c’était ma conviction. Il faut rassembler les forces. Il faut un pôle [audiovisuel public] puissant. Il peut y avoir des fusions, des coopérations, des synergies positives, c’est ça auquel il faut penser » (9).

Du PJL de 2019 à la PPL de 2023
De son côté, Roch-Olivier Maistre, invité de l’Association des journalistes médias (AJM) le 1er février, a rappelé que le CSA qu’il présidait (avant de présider l’Arcom) avait rendu en novembre 2019 au gouvernement « un avis plutôt favorable » sur le projet de loi (PJL) « Communication audiovisuelle et souveraineté culturelle » (abandonné ensuite). A la page 20 de cet avis (10), le CSA « considère que cette société [France Médias] doit assurer un rôle de pilotage stratégique sans interférer avec la gestion opérationnelle quotidienne des filiales ». C’est dans cet esprit qu’est faite la proposition de loi (PPL) « Lafon » de « réforme de l’audiovisuel public et souveraineté audiovisuelle ». @

Charles de Laubier

L’AI Act devra limiter les risques élevés de l’IA pour les droits humains, sans freiner l’innovation

L’émergence fulgurante et extraordinaire de l’intelligence artificielle (IA) soulève aussi des préoccupations légitimes. Sur l’AI Act, un accord entre les Etats membres tarde avant un vote des eurodéputés, alors que 2024 va marquer la fin de la mandature de l’actuelle Commission européenne.

Par Arnaud Touati, avocat associé, Nathan Benzacken, avocat, et Célia Moumine, juriste, Hashtag Avocats.

Il y a près de trois ans, le 21 avril 2021, la Commission européenne a proposé un règlement visant à établir des règles harmonisées concernant l’intelligence artificielle (IA). Ce règlement européen, appelé AI Act, a fait l’objet, le 9 décembre 2023 lors des trilogues (1), d’un accord provisoire. Mais des Etats européens, dont la France, ont joué les prolongations dans des réunions techniques (2). La dernière version consolidée (3) de ce texte législatif sur l’IA a été remise le 21 janvier aux Etats membres sans savoir s’ils se mettront d’accord entre eux début février, avant un vote incertain au Parlement européen (4).

Contours de l’IA : éléments et précisions
Cette proposition de cadre harmonisé a pour objectif de : veiller à ce que les systèmes d’IA mis sur le marché dans l’Union européenne (UE) soient sûrs et respectent la législation en matière de droits fondamentaux et les valeurs de l’UE ; garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA ; renforcer la gouvernance et l’application effective de la législation en matière de droits fondamentaux et des exigences de sécurité applicables aux systèmes d’IA; et faciliter le développement d’un marché unique pour les applications d’IA, sûres et dignes de confiance et empêcher la fragmentation du marché (5). Pour résumer, cette règlementation vise à interdire certaines pratiques, définir des exigences pour les systèmes d’IA « à haut risque »et des règles de transparence, tout en visant à minimiser les risques de discrimination et à assurer la conformité avec les droits fondamentaux et la législation existante. Il reste encore au futur AI Act à être formellement adopté par le Parlement et le Conseil européens pour entrer en vigueur.

L’accord provisoire prévoit que l’AI Act devrait s’appliquer deux ans après son entrée en vigueur, avec des exceptions pour certaines dispositions. Afin de pouvoir saisir l’ampleur des mesures réglementaires, il faut tout d’abord définir ce qu’est réellement l’IA.
La proposition de texte actuelle, tel qu’amendé par le Parlement européen le 14 juin 2023 en première lecture par 499 voix pour, 28 contre et 93 abstentions (6), contient la définition suivante d’un « système d’intelligence artificielle », à savoir « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels ». Dans cette définition amendée, il n’est plus fait référence à l’annexe I contenant une liste de formes d’IA, annexe I contenue dans la proposition initiale de la Commission européenne. En effet un amendement n°708 a supprimé cette annexe I qui contenait trois types d’IA :
« (a) Approches d’apprentissage automatique, y compris d’apprentissage supervisé, non supervisé et par renforcement, utilisant une grande variété de méthodes, y compris l’apprentissage profond ». Ces techniques permettent aux systèmes d’IA d’apprendre de l’expérience, de reconnaître des modèles et de prendre des décisions intelligentes.
« (b) Approches fondées sur la logique et les connaissances, y compris la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs d’inférence (7) et de déduction, le raisonnement (symbolique) et les systèmes experts ». Les approches d’intelligence artificielle basées sur la logique et les connaissances organisent des données complexes en structures logiques, permettant un raisonnement précis par des systèmes d’IA.
« (c) Approches statistiques, estimation bayésienne, méthodes de recherche et d’optimisation ». Ces approches permettant l’analyse et l’interprétation précises de données complexes. Ces techniques sont utiles pour identifier des tendances, faire des prédictions, et résoudre des problèmes complexes dans divers secteurs, comme la finance, la logistique et la recherche scientifique.
Face au potentiel de l’IA d’impacter les droits fondamentaux, l’UE vise à réguler son usage viaun marché de confiance, tout en préservant le dynamisme de l’innovation dans ce secteur. Pour atteindre ces objectifs, l’AI Act énonce des dispositions spécifiques applicables aux acteurs de l’IA. Ces dispositions s’articulent autour de deux axes principaux : la gestion des risques et la responsabilité des acteurs.

Risque, de « limité » à « inacceptable »
Ainsi, cette proposition de règles établit des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l’IA. Concernant la gestion des risques, sont définis des niveaux de risque pour les systèmes d’IA, classés de « limité » à « inacceptable ». Ce classement établit des obligations proportionnées en fonction du niveau de risque associé.
Risque inacceptable. Les systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Par exemple, la proposition de règlement interdit les pratiques suivantes : les systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes en fonction de leur comportement social ou de caractéristiques personnelles et pouvant entraîner un traitement préjudiciable de personnes, dans certains contextes, injustifié ou disproportionné (score social) ; ou la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques, par exemple, des jouets activés par la voix qui encouragent à des comportements.

Droits des individus et IA éthique
Risque élevé.
Les systèmes d’IA qui ont un impact négatif sur la santé, la sécurité, les droits fondamentaux ou l’environnement (8) seront considérés comme à haut risque et seront divisés en deux catégories (systèmes d’IA utilisés dans des produits tels que jouets, voitures, etc.) et systèmes d’IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l’UE (aide à l’interprétation juridique, la gestion de la migration, de l’asile et du contrôle des frontières, etc.). L’annexe III de la proposition de règlement donne une liste des systèmes d’IA à haut risque. Une analyse d’impact sera obligatoire sur les droits fondamentaux, également applicable au secteur bancaire et des assurances. Les citoyens auront le droit de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque ayant une incidence sur leurs droits.
Risque limité. Les systèmes d’IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Ainsi, les utilisateurs doivent être informés lorsqu’ils interagissent avec l’IA. Cela inclut les systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo (comme les deepfakes). Par exemple, l’IA générative, telle que ChatGPT, devrait se conformer aux exigences de transparence : indiquer que le contenu a été généré par l’IA, concevoir le modèle pour l’empêcher de générer du contenu illégal, publier des résumés des données protégées par le droit d’auteur utilisées pour la formation. Les modèles d’IA à usage général à fort impact susceptibles de présenter un risque systémique, tels que le modèle d’IA plus avancé GPT-4, et bientôt GPT-5, devraient faire l’objet d’évaluations approfondies et signaler tout incident grave à la Commission européenne. Les droits individuels, eux, sont au cœur de la régulation sur l’IA. L’AI Act accorde une attention particulière aux droits des individus, qui s’articulent autour de quatre axes, afin de garantir une utilisation éthique et respectueuse de l’intelligence artificielle :
Le droit à la transparence et à l’information vise à assurer que les individus comprennent comment les systèmes d’IA prennent des décisions les concernant.
Le droit à la non-discrimination vise à protéger les individus contre les décisions automatisées basées sur des critères discriminatoires tels que la race, le genre, l’origine ethnique, la religion ou d’autres caractéristiques protégées. Les systèmes d’IA ne doivent pas conduire à des discriminations injustes ou à des disparités injustifiées.
Le droit à la sécurité et à la santé souligne l’importance de protéger les individus contre les risques inhérents aux systèmes d’IA. Les entreprises qui développent, mettent sur le marché ou utilisent des systèmes d’IA doivent garantir que ces technologies n’entraînent pas de préjudices physiques ou psychologiques aux individus.
La protection des données personnelles et de la vie privée. Dans la continuité du RGPD, les entreprises doivent ainsi garantir la confidentialité des données personnelles traitées par les systèmes d’IA. Cela implique une transparence totale sur les données collectées, les finalités du traitement et les mécanismes permettant aux individus de contrôler l’utilisation de leurs informations personnelles.
Les entreprises devront instaurer et suivre un processus itératif de gestion des risques, mettre en place des procédures de gouvernance des données, et garantir la robustesse, l’exactitude, ainsi que la cybersécurité. Les entreprises pourront compter sur les autorités européennes de standardisation qui élaboreront des normes techniques harmonisées pour faciliter la démonstration de la conformité des systèmes d’IA. Les autorités nationales compétentes auront la possibilité de créer des « bacs à sable réglementaires », offrant ainsi un cadre contrôlé pour évaluer les technologies innovantes sur une période déterminée.
Ces regulatory sandboxes reposent sur un plan d’essai visant à garantir la conformité des systèmes et à faciliter l’accès aux marchés auxquels les PME et les start-ups auront une priorité. Avant même la mise sur le marché des systèmes d’IA, les Etats membres devront désigner des « autorités notifiantes ». Cellesci sont désignées afin de superviser le processus de certification des organismes d’évaluation de la conformité. Ces organismes notifiés auront la tâche de vérifier la conformité des systèmes d’IA à haut risque.

« Cnil » européennes, futures gendarmes de l’IA
Il ne faut pas confondre ces entités avec les autorités nationales de contrôle, qui auront la tâche, après la mise en service des systèmes d’IA, de surveiller l’utilisation des systèmes et de s’assurer qu’ils respectent les normes établies par l’AI Act. En France, la Cnil (9) est pressentie. Le règlement comprend également la création du Comité européen de l’IA. Celui-ci sera composé d’un représentant par Etat membre et son rôle sera de conseiller et d’assister la Commission européenne ainsi que les Etats membres dans la mise en œuvre du règlement. L’AI Act prévoit également des mécanismes rigoureux pour garantir la conformité et sanctionner financièrement (10) d’éventuels manquements. @

De l’image détournée par l’IA aux deepfakes vidéo, la protection du droit à l’image en prend un coup

La manipulation d’images par l’intelligence artificielle, poussée jusqu’aux hypertrucages vidéo (deepfakes), n’épargne potentiellement personne. Angèle, Scarlett Johansson, Volodymyr Zelensky et bien autres en font les frais. Reste à savoir si le droit à l’image sera garanti par l’AI Act européen.

Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés*

L’intelligence artificielle (IA) représente un défi désormais bien connu en matière de droit d’auteur (1). Mais de nouveaux enjeux se dessinent également en termes de droit à l’image, un des composants du droit au respect de la vie privée. Voyons ce qu’il en est sur ce point, à l’aube de l’adoption de l’AI Act (2). Malgré une entrée tardive dans le droit positif français (3), le droit au respect de la vie privée est un pilier des droits de la personnalité. Le droit à l’image, qui protège le droit de s’opposer à sa reproduction par des tiers (4) en fait également partie.

L’image inclut le physique et la voix
Parmi les composantes de l’image figurent non seulement l’aspect physique mais aussi, notamment, la voix. Le tribunal de grande instance de Paris avait ainsi considéré, en 1982, lors d’un procès relatif à des enregistrements de Maria Callas, que « la voix est un attribut de la personnalité, une sorte d’image sonore dont la diffusion sans autorisation expresse et spéciale est fautive ». Or, de même que les outils de l’IA utilisent des œuvres protégées et s’exposent à des risques de contrefaçon, leur utilisation peut consister à reproduire l’image ou la voix de personnes existantes ou décédées, par exemple en réalisant la fausse interview d’une personne défunte ou en faisant tenir à une personnalité politique un discours à l’encontre des opinions qu’elle défend. Ces usages sont-ils licites ?
Quels sont les droits des personnes concernées ? Les exemples ne manquent pas. A l’été 2023, un beatmaker (compositeur de rythmiques) nancéen, nommé Lnkhey, a remixé au moyen de l’IA une chanson des rappeurs Heuss l’Enfoiré et Gazo avec la voix de la chanteuse Angèle, dont les œuvres sont bien évidemment très éloignées de celles de ces rappeurs. Le remix (5) a eu un succès tel qu’Angèle l’a elle-même repris en public lors de la Fête de l’Humanité en septembre 2023.

La même année, l’éditeur d’une application (Lisa AI) a utilisé la voix de l’actrice Scarlett Johansson dans un spot publicitaire. La publicité précisait avoir été créée par un procédé d’intelligence artificielle. Scarlett Johansson a annoncé avoir porté plainte. Le même type de mésaventure est arrivé, entre autres, à Tom Hanks et Bruce Willis. D’autres images ont aussi fait le tour du monde : celles du Pape François en doudoune blanche, d’Emmanuel Macron manifestant dans les rues de Paris, ou de Barack Obama et Angela Merkel construisant un château de sable ou tendrement enlacés à la plage. Les images de nombreuses stars de cinéma ont même été réutilisées en mars 2023 dans des vidéos à caractère pornographique diffusées sur les réseaux sociaux pour la promotion de Face Mega, un logiciel de « deepfakes », ces « hypertrucages » vidéo. Une autre vidéo diffusée sur la chaîne d’informations Ukraine 24 a montré Volodymyr Zelensky tenant un discours en faveur de la reddition du pays.
Ces différents exemples sont intéressants à rapprocher car ils montrent que l’usage de l’image d’une personnalité peut : être totalement inoffensif, voire relever de la liberté d’expression ; être approuvés implicitement ou explicitement par la « victime » ; ou porter une atteinte grave à la victime, voire présenter un danger pour la démocratie. Les photographies de Barack Obama et d’Angela Merkel sont humoristiques et ne portent aucun tort aux intéressés. Elles pourraient relever de la parodie ou de la satire légitime appliquées à des dirigeants politiques, dès lors que les images sont clairement identifiées comme ayant été créées par IA. La reprise par Angèle elle-même, en concert, de la chanson créée avec sa voix et sans son autorisation peut faire penser qu’elle aurait avalisé a posteriori cette atteinte à ses droits. Mais les propos qu’elle a tenus par ailleurs dénotent une certaine gêne et une pression pesant sur elle : « Et pourquoi je ne ferais pas ce que les gens me demandent depuis des semaines ? » ; « Je sais pas quoi penser de l’intelligence artificielle. J’trouve que c’est une dinguerie mais en même temps j’ai peur pour mon métier » (6). Il est en tout cas significatif qu’elle ait préféré « surfer » sur le succès du remix plutôt que de faire valoir judiciairement une atteinte à son droit à l’image, comme le droit français lui en donne la possibilité.

En cas d’avantage économique indu
C’est une attitude différente qu’a choisie Scarlett Johansson. La violation de son image par la reprise de sa voix dans un cadre commercial, et non artistique, est en effet moins « excusable » dans la mesure où les célébrités monnayent fréquemment l’utilisation de leur image et de leur voix par des marques, et sont en droit de refuser d’être associées à tel ou tel annonceur, même de manière rémunérée. Utiliser la voix de Scarlett Johansson sans autorisation n’est motivé par aucune prétention artistique ou satirique, mais par la volonté de profiter de sa notoriété pour en tirer un avantage économique indu. Le droit français offre, bien sûr, des fondements (articles 9 et 1240 du code civil) pour faire sanctionner ce type d’atteinte.

Code pénal durci contre les deepfakes ?
La France dispose également, depuis 1994, d’un texte qui condamne d’un an d’emprisonnement et de 15.000 euros d’amende « le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » (article 226-8 du code pénal). Pour que ce texte couvre mieux les deepfakes, il a fait l’objet d’un amendement du gouvernement adopté au Sénat (7) et modifié par un autre amendement toujours discuté à l’Assemblée nationale (8) dans le cadre du projet de loi visant à sécuriser et réguler l’espace numérique (9). Le projet prévoit qu’« est assimilé à l’infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne, sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention » (10). Une circonstance aggravante serait caractérisée lorsque le contenu deepfake est publié sur les réseaux sociaux (ou tout service de communication en ligne) : en ce cas, les peines pourraient être portées à deux ans d’emprisonnement et 45.000 euros d’amende.
A aussi été proposée l’introduction d’un nouvel article 226- 8-1 dans le code pénal, permettant la condamnation de la diffusion non consentie d’un hypertrucage à caractère sexuel, assortie d’une peine de deux ans d’emprisonnement et de 60.000 euros d’amende (article 5 ter du projet de loi). Quid cette fois de l’image « ressuscitée » de personnes décédées ? L’émission de télévision « L’Hôtel du Temps » diffusée sur France 3 a « ressuscité » différentes personnalités (Dalida, François Mitterrand ou encore Lady Di) grâce à des procédés d’IA tels que Face Retriever et Voice Cloning. Ces « résurrections » ont suscité de vifs débats : la personne dont on reproduit l’image et la voix aurait-elle réellement tenu ces propos ? Les héritiers disposent-ils de recours et d’un droit de regard sur les réponses de leurs ascendants ? Les archives utilisées aux fins de création de deepfakes sont-elles toutes utilisées légalement ? Une « démocratisation » de cette pratique semble se dessiner. Lors de sa conférence « re:Mars » (11) du 22 juin 2022, Amazon avait annoncé une nouvelle fonctionnalité d’IA dont serait dotée son logiciel Alexa, à savoir la capacité de reproduire la parole d’un défunt, à partir d’un très court extrait d’enregistrement de sa voix, ce qui pourrait aider les personnes survivantes à faire leur deuil. Mais dans le cas d’un usage non sollicité par les survivants, le fondement de l’article 9 du code civil n’est pas disponible car les droits de la personnalité sont intransmissibles aux héritiers. Ces derniers ne pourraient guère que se prévaloir d’un préjudice personnel résultant de l’atteinte à la mémoire d’un défunt. Par exemple, l’utilisation de l’image du défunt ne doit pas porter atteinte à la vie privée de ses héritiers.
Que prévoit alors le projet d’AI Act européen pour protéger les droits de la personnalité ? En avril 2021, la Commission européenne a proposé d’encadrer l’IA juridiquement. Ce n’est que le 9 décembre 2023 que les institutions européennes se sont accordées provisoirement sur un premier texte. Ce texte prévoit notamment une quasiinterdiction de pratiques présentant un « risque inacceptable », notamment en matière de droit à l’image et de protection des données personnelles : extractions non ciblées d’images faciales sur Internet à des fins de création de bases de données de reconnaissance faciale, systèmes de reconnaissance des émotions sur le lieu de travail ou d’études, ou encore systèmes de catégorisation biométrique. Le projet prévoit également que « les utilisateurs d’un système d’IA, qui génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d’autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques (“hypertrucage”), précisent que les contenus ont été générés ou manipulés artificiellement » (article 52). La difficulté est que le processus législatif ne progresse pas aussi rapidement que les outils d’IA et qu’il existe un risque d’obsolescence avant même l’adoption du texte final. D’autre part, la négociation a révélé des tensions non dissipées entre Etats membres.

Emmanuel Macron veut assouplir l’AI Act
Ainsi, Emmanuel Macron a plaidé lundi 11 décembre 2023, lors du premier bilan du plan d’investissement France 2030, en faveur d’une accélération de l’innovation, en affirmant que l’« on peut décider de réguler beaucoup plus vite et plus fort, mais on régulera ce qu’on n’inventera pas ». La France, dont la position consistant à faire primer l’innovation sur le droit d’auteur et sur la protection des droits humains est inhabituelle, est allée jusqu’à considérer que le projet sur lequel les institutions européennes se sont accordées n’était pas définitif et pourrait encore être amendé dans le sens de moins de régulation (12). @

* Article rédigé avec l’aide de Bérénice Leg.

Médias sociaux : l’Unesco tiendra sa première Conférence mondiale des régulateurs en juin 2024

L’agence de l’ONU pour l’éducation, la science et la culture organisera mi-2024 sa toute première Conférence mondiale des régulateurs. Au moment où les plateformes numériques en Europe font la chasse aux « contenus illicites », l’Unesco veut des garde-fous pour la liberté d’expression.

Audrey Azoulay (photo), directrice générale de l’Unesco, l’a annoncé le 6 novembre dernier : l’agence des Nations unies pour l’éducation, la science et la culture organisera mi-2024 – en juin, selon les informations de Edition Multimédi@ – sa toute première Conférence mondiale des régulateurs, en vue de mettre en œuvre les mesures préconisées pour « mettre fin à ce fléau » qu’est « l’intensification de la désinformation et des discours de haine en ligne » sur les médias sociaux. Ce prochain rendez-vous concernera non seulement les gouvernements et les autorités de régulation, mais aussi la société civile et les plateformes numériques.

Préserver la liberté d’expression
« Il y a une exigence cardinale qui a guidé nos travaux : celle de préserver toujours la liberté d’expression et tous les autres droits humains. Contraindre ou brider la parole serait une terrible solution. Des médias et des outils d’information libres, de qualité et indépendants, constituent la meilleure réponse sur le long terme à la désinformation », a mis en garde Audrey Azoulay.
L’Unesco, qui revendique son rôle « pour la promotion et la protection de la liberté d’expression et de l’accès à l’information », a présenté à Paris – où est basé son siège social – les « Principes pour la gouvernance des plateformes numériques », détaillés dans un document d’une soixantaine de pages (1). Ils sont le fruit d’une consultation multipartite engagée en septembre 2022 et au cours de trois consultations ouvertes qui ont eu lieu respectivement entre décembre 2022 et janvier 2023, entre février et mars 2023 et entre avril et juin 2023, soit au total 1.540 contributions provenant de 134 pays et ayant généré plus de 10.000 commentaires. « Préserver la liberté d’expression et le droit d’accès à l’information, tout en luttant contre la désinformation, les discours de haine et les théories du complot, nécessite une approche multipartite », justifie l’Unesco, qui a aussi tenu compte des conclusions de sa conférence mondiale de février 2023 consacrée à la régulation des plateformes numériques (2). La protection de la liberté d’expression dans le monde est la première préoccupation de l’Unesco, alors que dans les vingt-sept Etats membres de l’Union européenne (UE) les très grandes plateformes en ligne et très grands moteurs de recherche en ligne – au nombre de dix-neuf (3) – doivent se conformer depuis le 25 août au règlement sur les services numériques qui leur impose de lutter contre les « contenus illicites » (fausses informations, discours haineux, messages à caractère terroriste, …). Selon certaines organisations, ce Digital Services Act (DSA) – applicable à toutes les plateformes numériques à partir du 17 février 2024 – présentent une menace pour la liberté d’expression des Européens (4) – notamment en cas de censure abusive, voire d’interprétation contestée de la part du commissaire au Marché intérieur, Thierry Breton (5).

Si l’Unesco ne mentionne pas dans son document les avancées de l’UE dans ce domaine, elle n’en met pas moins en garde les Etats du monde entier contre les atteintes à la liberté d’expression et aux droits humains. « Les Principes [pour la gouvernance des plateformes numériques] commencent par décrire l’environnement propice nécessaire pour sauvegarder la liberté d’expression, l’accès à l’information et d’autres droits humains, tout en garantissant un environnement ouvert, sûr et sécurisé pour les utilisateurs et les non-utilisateurs des plateformes numériques », explique l’Unesco dans son document. Sont ainsi définies les responsabilités des différentes parties prenantes, et ce n’est pas un hasard si celles-ci commencent par « les devoirs des Etats de respecter, protéger et appliquer les droits humains » :
Les Etats doivent respecter et promouvoir les droits humains, y compris le droit à la liberté d’expression et le droit d’accès à l’information. Les restrictions à la liberté d’expression ne sont admissibles que dans les conditions prévues aux articles 19 et 20 du PIDCP [Pacte international relatif aux droits civils et politiques (6), adopté par les Nations Unies en 1966 et entré en vigueur en 1976, ndlr].

Les Etats ne doivent ni censurer…
Les Etats ont des obligations positives de protéger les droits humains contre les ingérences injustifiées des acteurs privés, y compris les plateformes numériques, car ils ont la responsabilité de créer un environnement réglementaire qui facilite le respect des droits humains par les plateformes numériques et de donner des orientations aux plateformes numériques sur leurs responsabilités.
Les Etats sont tenus d’être pleinement transparents et responsables quant aux exigences qu’ils imposent aux plateformes numériques pour assurer la sécurité et la prévisibilité juridiques, qui sont des conditions préalables essentielles à l’Etat de droit. Plus précisément, les Etats doivent notamment : garantir les droits des utilisateurs des plateformes numériques à la liberté d’expression, à l’accès à l’information, à l’égalité et à la non-discrimination, et protéger les droits à la vie privée, à la protection des données, d’association et de participation publique des utilisateurs ; veiller à ce que toute restriction imposée aux plateformes respecte systématiquement le seuil élevé fixé pour les restrictions à la liberté d’expression, sur la base de l’application des Articles 19 et 20 du PIDCP.

…ni couper le réseau Internet
Les Etats doivent s’abstenir, notamment
: d’imposer des mesures qui empêchent ou perturbent l’accès général à la diffusion de l’information, en ligne et hors ligne, y compris les coupures d’Internet ; d’imposer une obligation générale de surveillance ou, pour les plateformes numériques, l’obligation générale de prendre des mesures proactives en relation avec les contenus considérés comme illégaux dans une juridiction spécifique ou avec les contenus qui peuvent être restreints de manière admissible en vertu des normes et de la législation internationales en matière de droits humains.
L’année 2024, au cours de laquelle se tiendra la première Conférence mondiale des régulateurs organisée par l’Unesco, sera d’autant plus décisive pour la régulation des plateformes numérique que 2 milliards de personnes sur la planète seront appelées à voter lors d’une cinquantaine d’élections dans plusieurs pays. Or, selon une étude réalisée l’été dernier par l’institut Ipsos pour l’agence « éducation, science et culture » de l’ONU, 87 % des personnes interrogées (sur un total de 8.000 dans 16 pays où se dérouleront une élection en 2024) craignent que la propagation de fausses informations en ligne ait un impact majeur sur les élections dans leur pays, et autant (87 % également) en appelle à une meilleure régulation des médias sociaux.
Les Facebook, YouTube, TikTok et autres Snapchat sont devenus dans de nombreux pays « la première source d’information des citoyens, en même temps que le principal vecteur de désinformation et de manipulation », relève la directrice générale de l’Unesco. La prochaine année électorale débutera avec les élections parlementaires au Bengladesh en janvier 2024, suivies par l’élection présidentielle au Sénégal en février 2024 et bien d’autres rendez-vous électoraux dans d’autres pays (El Salvador, Indonésie, Inde, Afrique du Sud, République dominicaine, Belgique, Mexique, Croatie, Autriche, Roumanie, Ghana), et se terminera avec l’élection présidentielle en Algérie en décembre 2024, précédée de l’élection présidentielle aux Etats-Unis en novembre 2024. « La régulation des réseaux sociaux constitue d’abord un enjeu démocratique. Bien sûr, la libération de la parole et de la participation démocratique par le numérique a représenté d’immenses progrès à certains égards, a expliqué Audrey Azoulay. Mais ces réseaux sociaux ont aussi accéléré et amplifié, parfois délibérément et à une échelle quasi-industrielle, la diffusion de fausses informations, voire de discours de haine et de théories complotistes – et ceux-ci tendent à se renforcer mutuellement ». Tout en appelant à la « modération » des contenus illicites sur Internet, elle appelle aussi à la « modération » de la régulation pour préserver la liberté d’expression. « Je voudrais souligner une exigence essentielle, qui a servi de boussole pour nous : la préservation de la liberté d’expression et de tous les autres droits de l’homme. Limiter ou restreindre la parole serait une fausse solution – une solution terrible, en fait – pour un problème très réel », a prévenu la directrice générale de l’Unesco, dont le second mandat s’achèvera en novembre 2025.
Les gouvernements et les autorités de régulation auront-ils la main lourde dans la chasse aux fake news ? C’est à craindre, alors que les pouvoirs publics (gouvernements et régulateurs justement) sont considérés – par le plus grand nombre de personnes interrogées dans le monde par Ipsos pour l’Unesco (29 %) – « comme les principaux responsables de l’identification et de la lutte contre la désinformation en ligne ». Et ce, devant les internautes eux-mêmes (23 %), les nouveaux médias (20 %), les médias sociaux (19 %), les organisations internationales (5 %) et les politiciens (4 %). En outre, à l’affirmation selon laquelle « les organisations internationales comme les Nations unies ou l’Unesco ont un rôle majeur à jouer dans la lutte contre la désinformation et les “fake news” », 75 % des sondés disent « Oui » (7).

La recommandation sur l’IA a deux ans
L’Unesco, dont le mandat confié par l’ONU est aussi de défendre et de promouvoir la liberté d’expression, l’indépendance et le pluralisme des médias (régulation globale des médias comme la radio ou la télévision), s’affirme de plus en plus dans la régulation d’Internet et l’éthique des nouvelles technologies. Elle a ainsi émis une recommandation sur l’éthique de l’intelligence artificielle, adoptée en novembre 2021 par les 193 Etats membres, pour fixer un cadre humaniste aux développements de cette innovation qui a depuis explosée avec les IA génératives (8). Tandis que la Convention de l’Unesco de 2005 sur la protection et la promotion de la diversité des expressions culturelles (9) intègre de plus en plus de directives opérationnelles élargies au numérique. @

Charles de Laubier

Chrome, Safari, Edge, Firefox, … : les navigateurs Internet pourraient filtrer, voire censurer

Le projet de loi « Sécuriser et réguler l’espace numérique » sera examiné à l’Assemblée nationale par une « commission spéciale » qui se réunira du 19 au 22 septembre. Parmi les mesures controversées : obliger les navigateurs web à faire la chasse aux contenus illicites, par filtrage ou blocage.

Les navigateurs Chrome de Google, Safari d’Apple, Edge de Microsoft ou encore Firefox de Mozilla sont appelés à lutter contre les sites web et les contenus illicites, au risque de devenir des censeurs de l’Internet. L’article 6 du projet de loi – du gouvernement donc (1) – visant à sécuriser et réguler l’espace numérique (« SREN »). Le texte dans son ensemble a déjà été adopté en première lecture par le Sénat le 5 juillet dernier ; il doit maintenant passer par les fourches caudines d’une « commission spéciale » créée à l’Assemblée nationale. Les réunions pour l’examiner dans ce cadre se tiendront du 19 au 22 septembre (2).

Les navigateurs avertissent voire bloquent
« L’autorité administrative notifie l’adresse électronique du service concerné aux fournisseurs de navigateurs Internet […], aux fins de la mise en œuvre de mesures conservatoires » prévoit l’article 6 du projet SREN. Et de préciser : « La personne destinataire d’une notification prend sans délai, à titre conservatoire, toute mesure utile consistant à afficher un message avertissant l’utilisateur du risque de préjudice encouru en cas d’accès à cette adresse. Ce message est clair, lisible, unique et compréhensible et permet aux utilisateurs d’accéder au site Internet officiel du groupement d’intérêt public pour le dispositif national d’assistance aux victimes d’actes de cyber malveillance ».

Tout en fixant un délai durant lequel apparaîtra le message d’avertissement : « Cette mesure conservatoire est mise en œuvre pendant une durée de sept jours ». De deux choses l’une, alors : soit l’éditeur du service en cause cesse de mettre en ligne le contenu illicite, auquel cas il est mis fin à la mesure conservatoire, soit l’infraction en ligne continue, auquel cas « l’autorité administrative peut, par une décision motivée, enjoindre aux fournisseurs de navigateurs Internet […], aux fournisseurs de services d’accès à internet ou aux fournisseurs de systèmes de résolution de noms de domaine [DNS, ndlr] de prendre sans délai toute mesure utile destinée à empêcher l’accès à l’adresse de ce service pour une durée maximale de trois mois ». Pendant ces trois mois de blocage, destiné à empêcher l’accès à l’adresse du service incriminé, les internautes seront redirigés vers « une page d’information de l’autorité administrative compétente indiquant les motifs de la mesure de blocage ». Mais le blocage peut être prolongée « de six mois au plus » sur avis conforme de la personnalité qualifiée désignée au sein de la Commission nationale pour l’informatique et les libertés (Cnil). Et si cela ne suffit pas, « une durée supplémentaire de six mois peut être prescrite selon la même procédure ». Il est en outre précisé que l’autorité administrative établit « une liste des adresses des services de communication au public en ligne dont l’accès a été empêché » et vérifie cette « liste noire » à l’approche de l’expiration de la durée des trois mois de blocage.
Dans son rapport daté du 27 juin 2023, la commission du Sénat fait remarquer que « le dispositif de filtrage proposé s’inspire à la fois des dispositifs de filtrage déjà existants, des dispositifs mis en œuvre à l’étranger, mais aussi des solutions gratuites déjà mises en œuvre par les principaux navigateurs sur Internet depuis plusieurs années, en particulier l’outil Safe Browsing de Google et Smart Screen de Microsoft, qui sont d’ailleurs utilisables sur d’autres navigateurs tels que Mozilla Firefox ». Pourtant, elle reconnaît que « le dispositif proposé va toutefois plus loin que ce que le marché offre actuellement, en permettant le blocage de l’accès aux sites frauduleux » (3).
Pour la fondation Mozilla justement, éditrice du navigateur Firefox, c’est là que le bât blesse selon elle. Ces mesures présentent un risque de censure pour Internet, non seulement en France mais aussi ailleurs. « Obliger les navigateurs à créer des fonctionnalités pour bloquer des sites web créera un précédent inquiétant à l’échelle mondiale », explique à Edition Multimédi@ Tasos Stampelos (photo ci-dessus), responsable des politiques publiques et des relations gouvernementales de Mozilla en Europe.

Le « filtre anti-arnaque » de Macron
« Car, poursuit-il, de telles fonctionnalités pourraient être utilisées par des régimes autoritaires pour restreindre les droits fondamentaux, les libertés publiques et imposer une censure sur les sites web auxquels les utilisateurs voudraient accéder ». La fondation Mozilla a en outre lancé en ligne, le 17 août dernier, une pétition (4) « pour empêcher la France d’obliger les navigateurs comme Mozilla Firefox à censurer des sites web ». Elle a déjà recueilli « plus de 50.000 signatures », nous indique Tasos Stampelos. Au Sénat, il était intervenu lors de la table ronde « Navigateurs Internet » réunie avant l’été par la commission sénatoriale, où était aussi présent Sylvestre Ledru, directeur de l’ingénierie et responsable de Mozilla en France. Google (Chrome) et Apple (Safari) y participaient également. Selon l’éditeur de Firefox, la loi poussée par le gouvernement français – lequel a engagé la procédure accélérée – « pourrait menacer la liberté sur Internet », en obligeant les navigateurs à bloquer des sites web directement au niveau du navigateur. « Cette mesure créerait un dangereux précédent et servirait de modèle à d’autres gouvernements pour, à leur tour, transformer les navigateurs en outils de censure gouvernementale », craint-elle.

Mozilla contre le risque de « dystopie »
L’article 6 est au cœur du « filtre anti-arnaque » promis par le président de la République au printemps 2022, lorsque Emmanuel Macron était candidat à sa propre succession : « Un filtre anti arnaques [qui] avertira en temps réel tous les usagers d’Internet avant qu’ils ne se rendent sur un site potentiellement piégé ». On y est. Dans un post sur le blog de Mozilla publié le 27 juin 2023, Sylvestre Ledru (photo ci-contre) estime que « la proposition française de bloquer les sites web via le navigateur nuira gravement à l’Internet ouvert mondial ». Ce texte de loi, s’il devait être adopté, « serait un désastre pour un Internet libre et serait disproportionnée par rapport aux objectifs du projet de loi, à savoir la lutte contre la fraude ». Pire, selon la fondation Mozilla : « La France s’apprête à obliger les créateurs de navigateurs à mettre en œuvre une fonctionnalité technique relevant de la dystopie », à savoir, d’après le Larousse, une « société imaginaire régie par un pouvoir totalitaire ou une idéologie néfaste ».
Mozilla affirme en outre que « cette mesure fournira aux gouvernements autoritaires un moyen de minimiser l’efficacité des outils qui peuvent être utilisés pour contourner la censure », comme les VPN (réseaux privés virtuels) ou les « proxy ». La France entre, selon la fondation de Firefox, dans « un terrain inconnu » et crée « un précédent mondial ». Sylvestre Ledru rappelle que « même les régimes les plus répressifs dans le monde préfèrent jusqu’à présent bloquer les sites web en amont du réseau (fournisseurs d’accès à Internet, etc.) » plutôt que d’ordonner aux éditeurs de navigateur du Net de bloquer ou censurer (c’est selon) les sites indésirables. Pour éviter d’en arriver là, « il serait plus judicieux de tirer parti des outils de protection existants contre les logiciels malveillants et l‘hameçonnage (phishing) plutôt que de les remplacer par des listes de blocage de sites web imposées par le gouvernement » (5). La fondation Mozilla rappelle que « les deux systèmes de protection contre les logiciels malveillants et l’hameçonnage les plus utilisés dans l’industrie sont Safe Browsing de Google et Smart Screen de Microsoft, Mozilla (ainsi qu’Apple, Brave et bien d’autres) utilisant Safe Browsing de Google ». Safe Browsing, qui couvre les logiciels malveillants, les logiciels indésirables et l’ingénierie sociale (hameçonnage et autres sites trompeurs), existe depuis au moins 2005 et protègerait actuellement près de la moitié de la population mondiale en ligne sur divers appareils et logiciels. Firefox utilise l’offre Safe Browsing de Google depuis 2007 et dispose d’une implémentation unique qui protège la vie privée des utilisateurs tout en les empêchant d’être victimes de logiciels malveillants et d’hameçonnage. Ce paramètre peut également être désactivé par les utilisateurs à tout moment, ce qui leur permet de garder le contrôle de leur expérience sur le Web. Dans le cadre de son audition pour le rapport du Sénat, Benoît Tabaka, secrétaire général de Google France, a expliqué que Safe Browsing utilise l’intelligence artificielle et se base sur les analyses menées par les équipes du géant du Net. « Cette interface de programmation d’application (API) affiche les informations dans les navigateurs comme Safari, Firefox ou Google Chrome, mais aussi dans les navigateurs internes de certaines applications. Nos équipes travaillent aujourd’hui sur l’articulation entre l’outil et le nouveau cadre juridique français, en sachant qu’un blocage via Safe Browsing serait par nature mondial », avait-il indiqué aux sénateurs.

La France outrepasse les DSA et DMA
Mettre à contribution obligatoire les navigateurs Internet dans la lutte contre les contenus illicites outrepasse les dispositions des deux règlements européens DSA et DMA, lesquels, assure Tasos Stampelos, « ne prévoient pas d’obligations pour les navigateurs web en matière de modération de contenu ». Selon lui, « l’article 6 du projet SREN va trop loin et crée directement une incohérence avec la législation européenne ». Le 2 août, le commissaire européen Thierry Breton, chargé du marché intérieur, a mis en garde la France : « L’effet direct des règlements de l’UE rend toute transposition nationale inutile et […] les Etats membres devraient s’abstenir d’adopter des législations nationales qui feraient double emploi » (6). Il a indiqué aussi que « les autorités françaises n’ont que partiellement notifié leur projet de loi » et « l’appréciation de sa compatibilité avec le droit de l’Union est en cours ». @

Charles de Laubier