Le Monde en France, El País en Espagne, Die Welt en Allemagne : OpenAI séduit la presse au cas par cas

OpenAI a réussi à convaincre de grands titres de presse en Europe – Le Monde, El País et Die Welt – et, aux Etats-Unis, l’agence de presse AP et l’American Journalism Project pour que son IA générative ChatGPT soit plus au fait de l’actualité dans des langues différentes. Le New York Times, lui, a préféré un procès.

Le directeur des opérations d’OpenAI, Brad Lightcap (photo), n’est pas peu fier d’avoir décroché des accords pluriannuels avec les grands quotidiens européens Le Monde en France, El País en Espagne et Die Welt en Allemagne. « En partenariat avec Le Monde et Prisa Media [éditeur d’El País], notre objectif est de permettre aux utilisateurs de ChatGPT du monde entier de se connecter à l’actualité de façon interactive et pertinente », s’est-il félicité le 13 mars dernier lors de l’annonce des deux accords noués pour plusieurs années avec respectivement le groupe français Le Monde pour son quotidien éponyme et le groupe espagnol Prisa Media pour son quotidien El País, de même que pour son quotidien économique et financier Cinco Días et son site d’actualités El Huffpost. Trois mois auparavant, ce même Brad Lightcap annonçait un premier partenariat avec le groupe allemand Axel Springer pour son quotidien Die Welt, et son tabloïd Bild, ainsi que pour ses sites d’information Politico (édition européenne) et Business Insider (économie et finances).

ChatGPT, polyglotte et informé : merci la presse européenne
« Ce partenariat avec Axel Springer aidera à offrir aux gens de nouvelles façons d’accéder à du contenu de qualité, en temps réel, grâce à nos outils d’IA. Nous sommes profondément engagés à nous assurer que les éditeurs et les créateurs du monde entier bénéficient de la technologie avancée de l’IA et de nouveaux modèles de revenus », avait alors assuré le directeur des opérations d’OpenAI. Ces « partenariats mondiaux d’information » permettent à ChatGPT d’européaniser un peu plus ses capacités d’informer en mettant à contribution trois premiers quotidiens du Vieux Continent, de trois langues différentes (français, espagnol et allemand). Et ce, après avoir largement entraîné en anglais ses grands modèles de langage « Generative Pre-trained Transformer » (GPT, GPT-2, GPT-3 et l’actuel GPT-4, en attendant GPT-5 en cours de développement). Avant les groupes européens Le Monde, Prisa Media et Axel Springer, OpenAI avait conclu aux Etats-Unis deux partenariats signés en juillet 2023 avec respectivement Continuer la lecture

Marina Ferrari, nouvelle secrétaire d’Etat chargée du Numérique : entre souveraineté numérique et Gafam

Secrétaire d’Etat chargée du Numérique depuis le 12 février, Marina Ferrari doit défendre la « souveraineté numérique » que porte son ministre de tutelle Bruno Le Maire, ministre de l’Economie, des Finances et de la Souveraineté industrielle et numérique. Mais, « en même temps », la France ne peut se passer des Gafam.

(Le 26 février 2024, date de la publication de cet article dans le n°316 de EM@, la licorne française Mistral AI annonçait son « partenariat » avec… Microsoft

Jean-Noël Barrot, qui aura été ministre délégué chargé du Numérique à peine plus d’un an et demi (y compris jusqu’au 20 juillet 2023 en tant que ministre délégué chargé de la Transition numérique et des Télécommunications), est depuis le 8 février dernier ministre délégué chargé de l’Europe. Sa successeure Marina Ferrari (photo), secrétaire d’Etat chargée du Numérique depuis le 12 février, a saisi l’occasion – lors de leur passation de pouvoirs – pour notamment insister sur la « souveraineté numérique » : « Ce passage de relai nous permettra d’agir main dans la main, en confiance et de jouer collectif dans l’intérêt de la souveraineté numérique française et européenne. […] J’entends conduire mon action autour de deux piliers : résilience et souveraineté. […] Je m’engagerai pour accompagner la naissance d’une vraie souveraineté numérique européenne en veillant à l’application rigoureuse du DMA et du DSA. », a-t-elle déclaré ce jour-là.

Tapis rouge français pour l’IA américaine
Lors de son discours de prise de fonction à Bercy, celle qui reste aussi députée (Modem) depuis juin 2022 (après avoir été conseillère départementale de la Savoie d’où elle est originaire), a enfoncé le clou sur la « souveraineté numérique » : « Notre pays doit réussir le virage des deeptech et des greentech : c’est tout à la fois une question de souveraineté […]. Je m’impliquerai personnellement pour […] renforcer notre souveraineté et notre indépendance ». Bref, la « souveraine numérique » est plus que jamais le mot d’ordre au ministère de l’Economie, des Finances et de la Souveraineté industrielle et numérique, dénommé ainsi depuis mai 2022, Bruno Le Maire étant locataire de Bercy depuis mai 2017 (1). Artisant de la « Start-up Nation », le président de la République Emmanuel Macron impulse cette « volonté de construire la souveraineté de la France et de l’Europe dans le domaine numérique », que cela soit lors de ses prises de parole au Continuer la lecture

Boosté par le cloud et l’IA, Microsoft conteste à Apple sa première place mondiale des capitalisations boursières

Le capitalisme a ses icônes, et la seconde est Microsoft. La valorisation boursière de la firme de Redmond, que dirige Satya Nadella depuis près de dix ans, atteint – au 1er décembre 2023 – les 2.816 milliards de dollars et pourrait bientôt détrôner Apple de la première place mondiale. Merci aux nuages et à l’IA.

(Cet article est paru le lundi 4 décembre 2023 dans Edition Multimédi@. L’AG annuelle des actionnaires de Microsoft s’est déroulée comme prévu le 7 décembre)

La prochaine assemblée générale annuelle des actionnaires de Microsoft, qui se tiendra le 7 décembre et cette année en visioconférence (1), se présente sous les meilleurs auspices. L’année fiscale 2022/2023 s’est achevée le 30 juin avec un chiffre d’affaires de 211,9 milliards de dollars, en augmentation sur un an (+ 7 %). Le bénéfice net a été de 72,4 milliards de dollars, en légère diminution (- 1 %). Et les résultats du premier trimestre de l’année 2023/2024, annoncé en fanfare le 24 octobre dernier, ont encore tiré à des records historiques le cours de Bourse de Microsoft – coté depuis plus de 37 ans. A l’heure où nous bouclons ce numéro de Edition Multimédi@, vendredi 1er décembre, la capitalisation boursière du titre « MSFT » – actuelle deuxième mondiale – affiche 2.816 milliards de dollars (2) et talonne celle du titre « AAPL » d’Apple dont la première place, avec ses 2.954 milliards de dollars (3), est plus que jamais contestée. Depuis la nomination il y a près de dix ans de Satya Nadella (photo) comme directeur général (4) pour succéder à Steve Ballmer, Microsoft a ainsi vu sa capitalisation boursière multiplié par presque dix. Les actionnaires de la firme de Redmond (Etat de Washington, près de Seattle) en ont pour leur argent (voir graphique), depuis vingt ans qu’elle s’est résolue à leur distribuer des dividendes – ce qui n’était pas le cas avec son cofondateur et premier PDG Bill Gates.

Assemblée générale annuelle le 7 décembre
Après avoir mis Microsoft sur les rails du cloud en faisant d’Azure – dont il était vice-président avant de devenir directeur général du groupe (5) – sa première vache à lait (87,9 milliards de dollars de chiffre d’affaires lors du dernier exercice annuel), Satya Nadella a commencé à faire de l’IA générative le moteur de tous ses produits et services. « Avec les copilotes, nous rendons l’ère de l’IA réelle pour les gens et les entreprises du monde entier. Nous insufflons rapidement l’IA dans chaque couche de la pile technologique et pour chaque rôle et processus métier afin de générer des gains de productivité pour nos clients », a déclaré fin octobre cet Indo-américain (né à Hyderabad en Inde), qui est aussi président de Microsoft depuis près de deux ans et demi (6). « Copilotes » (copilots) est le terme qu’il emploie volontiers pour désigner les outils alimentés par l’IA destinés à être intégrés à tous les produits et services de l’éditeur du système d’exploitation Windows, des logiciels Office 365, du cloud Azure et des serveurs associés, du navigateur Edge, du moteur de recherche Bing, de la console de jeux vidéo Xbox et de son Cloud Gaming, ou encore du réseau social professionnel LinkedIn.

La Française Catherine MacGregor
Bref, Microsoft mise plus que jamais sur l’IA générative, directement issue de son partenariat à quelque 13 milliards de dollars (49 % du capital inclus) avec la société californienne OpenAI que redirige à nouveau Sam Altman depuis le 22 novembre (7), grâce aux interventions intéressées de Satya Nadella (8). Ces « copilotes » sont appelés à devenir la nouvelle interface des utilisateurs, particuliers ou entreprises. A 56 ans, le PDG de Microsoft présidera le 7 décembre une assemblée générale annuelle des actionnaires qui s’annonce la plus révolutionnaire et « intelligente » en termes technologique pour l’entreprise, laquelle fêtera son demi-siècle d’existence en avril 2025. Mais Satya Nadella devra aussi donner des gages à ses actionnaires sur la bonne utilisation de l’IA déployées tous azimuts. « Nous reconnaissons également [notre] responsabilité de veiller à ce que cette technologie[de l’IA] qui change le monde soit utilisée de façon responsable. Le travail de Microsoft sur l’IA est guidé par un ensemble de principes fondamentaux : l’équité, la fiabilité et la sécurité, la confidentialité et la sécurité, l’inclusion, la transparence et la responsabilité », ont déclaré les membres du conseil d’administration dans une lettre aux actionnaires datée du 19 octobre (9), en prévision de la prochaine assemblée générale. D’ailleurs, quatre jours avant d’évincer – le 17 novembre et à la surprise générale – son patron Sam Altman (10), l’ancien conseil d’administration d’OpenAI avait reçu une lettre de chercheurs l’avertissant que « l’IA pouvait menacer l’humanité » (11), alors que son patron (réintégré le 22 novembre) développe un projet de super-IA baptisé « Q* » (prononcez « Q-Star ») et relevant de la catégorie des surpuissantes AGI (Artificial General Intelligence). Quoi qu’il en soit, OpenAI aura plus que jamais besoin des superordinateurs de Microsoft accessibles dans le cloud pour lui apporter la puissance de calcul nécessaire.
Plus largement, la gouvernance de Microsoft joue la carte de la diversité des activités et des profils. Sur les 12 membres du conseil d’administration, la plupart candidats au renouvellement de leur mandat, 11 sont indépendants. Parmi les deux nouveaux administrateurs indépendants soumis au vote des actionnaires le 7 décembre : une Française, en la personne de Catherine MacGregor (51 ans), née Catherine Fiamma au Maroc, directrice générale de l’énergéticien français Engie, ex-GDF Suez (dans le capital duquel l’Etat français détient toujours une golden share et compte deux administrateurs). Ingénieure CentraleSupélec, elle a passé onze ans chez Schlumberger (devenu SLB). « [Catherine MacGregor] apportera à Microsoft des informations importantes et une expérience mondiale », se félicite déjà le conseil d’administration. C’est la première personnalité française qui entre au conseil d’administration du « M » de GAFAM. Mais elle n’aura pas de rôle opérationnel au sein de la firme de Redmond, dont le seul « Frenchie » à avoir atteint le plus haut niveau de direction chez Microsoft est JeanPhilippe Courtois (près de 40 ans de maison), actuel viceprésident en charge des partenariats nationaux de transformation et membre du comité exécutif. Il fut le deuxième dirigeant le mieux payé de Microsoft (12)
Les actionnaires de Microsoft auront, le 7 décembre, un tout premier bilan de la stratégie IA de Microsoft depuis l’accord financier et technologiques avec OpenAI annoncé en janvier dernier (13). Du « ChatGPT » a été injecté partout dans les produits Microsoft, y compris avec l’offre « OpenAI Service ». Avec l’IA, Satya Nadella pense pouvoir atteindre son objectif de «faire d’Azure “l’ordinateur du monde” », le chiffre d’affaires de l’activité cloud ayant dépassé les 110 milliards de dollars sur l’exercice 2022/2023 et Azure représentant plus de 50 % du total. @

Charles de Laubier

Pour la protection de leurs œuvres, les auteurs ont un droit d’opt-out, mais est-il efficace ?

Les IA génératives sont voraces et insatiables : elles ingurgitent de grandes quantités de données pour s’améliorer sans cesse. Problème : les ChatGPT, Midjourney et autres Bard utilisent des œuvres protégées sans avoir toujours l’autorisation. Pour les auteurs, l’opt-out est une solution insuffisante.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

L’utilisation de l’intelligence artificielle (IA) dans les domaines artistiques tend à révolutionner la manière dont nous analysons, créons et utilisons les œuvres cinématographiques, littéraires ou encore musicales. Si, dans un premier temps, on a pu y voir un moyen presque anecdotique de créer une œuvre à partir des souhaits d’un utilisateur ayant accès à une IA, elle inquiète désormais les artistes.

Des œuvres utilisées comme inputs
Les algorithmes et les AI peuvent être des outils très efficaces, à condition qu’ils soient bien conçus et entraînés. Ils sont par conséquent très fortement dépendants des données qui leur sont fournies. On appelle ces données d’entraînement des « inputs », utilisées par les IA génératives pour créer des « outputs ». Malgré ses promesses, l’IA représente cependant un danger pour les ayants droit, dont les œuvres sont intégrées comme données d’entraînement. A titre d’exemple, la version 3.5 de ChatGPT a été alimentée avec environ 45 téraoctets de données textuelles. On peut alors se poser la question de la protection des œuvres utilisées comme inputs : l’ayant droit peut-il s’opposer ? La législation a prévu un droit d’« opt-out », que peuvent exercer les auteurs pour s’opposer à l’utilisation de leurs œuvres par une IA. A travers le monde, l’IA est encore peu règlementée.
Aux Etats Unis, il n’existe pas encore de lois dédiées portant spécifiquement sur l’IA, mais de plus en plus de décisions font office de « guidelines ». Au sein de l’Union européenne (UE), l’utilisation croissante de l’IA, à des fins de plus en plus variées et stratégiques, a conduit à faire de son encadrement une priorité. En effet, dans le cadre de sa stratégie numérique, l’UE a mis en chantier l’ « AI Act », un projet de règlement (1) visant à encadrer « l’usage et la commercialisation des intelligences artificielles au sein de l’UE » qui a été voté le 14 juin 2023 par le Parlement européen (2). Son adoption est prévue pour fin 2023 ou début 2024, avec une mise application 18 à 24 mois après son entrée en vigueur. A travers ce texte, le principal objectif du Parlement européen est d’établir un cadre juridique uniforme permettant l’innovation via l’IA, et de garantir que les systèmes d’intelligence artificielle utilisés dans l’UE soient sécurisés, transparents, traçables, non discriminatoires et respectueux de l’environnement. Au niveau national, l’encadrement de l’IA fait également couler beaucoup d’encre comme en témoigne, en France, la proposition de loi visant à encadrer l’intelligence artificielle par le droit d’auteur (3), déposée mi-septembre 2023. Trouver un équilibre entre deux objectifs – à savoir la protection des œuvres par le droit d’auteur et la libre utilisation des données nécessaire au bon fonctionnement des IA – constitue le but que cherche à atteindre l’UE, notamment à travers sa directive « Droit d’auteur dans le marché unique numérique » (4) de 2019, où elle établit un cadre qui permet aux IA de se développer – droit de fouilles de données – tout en offrant un contrôle aux auteurs sur leurs données – droit d’opt-out. Mais ce dernier droit suffit il à assurer la protection des œuvres ?
L’article 4 de cette directive dédiée au droit d’auteur permet les reproductions et les extractions d’objets protégés accessibles de manière licite, aux fins de la fouille de textes et de données, ou TDM (5). Elle permet la fouille de textes et de données tout en recherchant « un équilibre entre deux éléments : protéger les droits, et faciliter l’exploration de textes et de données ». En effet, la directive prévoit en son article 3 les fouilles de données dans un but scientifique tandis que l’article 4 prévoit la fouille effectuée par toute autre personne, peu importe la finalité. A la différence de l’article 3, l’article 4 prévoit une exception permettant aux auteurs de s’opposer à la fouille de données prévue dans ce même article : le droit d’opt-out (6). Précisons que les données utilisées peuvent être « conservées aussi longtemps que nécessaire aux fins de la fouille de textes et de données » (7).

Plaintes contre les IA « non autorisées »
On connaît le cas de Radio France qui a interdit l’accès d’OpenAI – la société californienne à l’origine de ChatGPT – à ses contenus, suivi par d’autres médias tels que France Médias Monde ou TF1. L’écrivain américain de science-fiction et de fantasy George R.R Martin, ainsi que d’autres auteurs tels que John Grisham, ont également porté plainte contre OpenAI pour avoir utilisé leurs œuvres pour se développer. Plus récemment, entre autres cas, la Sacem a utilisé ce droit afin de conditionner l’utilisation des données de ses membres par une IA à une « autorisation préalable et à une négociation financière » (8). Quant à la transposition de la directive « Droit d’auteur » de 2019 en droit français par une ordonnance de 2021 (9), elle rend l’exercice du droit d’opt-out plus restrictif. En effet, l’article L. 122-5-3 du code de la propriété intellectuelle (CPI) réserve ce droit aux auteurs alors que la directive ouvre ce droit aux ayants droits.

L’opt-out est-il efficace pour protéger ?
La propriété littéraire et artistique peut-elle protéger contre l’utilisation des données par les IA ? Il y a tout d’abord les difficultés de mise en œuvre du droit d’opt-out. La directive « Droit d’auteur » de 2019 a été votée à une époque où le législateur ne mesurait pas encore pleinement l’importance qu’allait prendre l’IA, et le système d’opt-out semble désormais insuffisant pour protéger les auteurs car il est difficile à appliquer. Tout d’abord, il existe une insuffisance d’information relative aux moyens d’exercer ce droit. Ensuite, Internet permet une multiplication des occurrences d’un même contenu en ligne, donc exercer son droit d’opt-out, alors que l’œuvre a déjà été diffusée et relayée par des internautes, semble inefficace. De surcroît, il a été mis en place en 2019, après qu’un nombre gigantesque d’œuvres aient déjà été rendues accessibles sur de nombreuses bases de données. Se pose donc la question du sort des œuvres qui ont déjà été utilisées précédemment par autrui ou par une IA pour générer un autre élément. Le droit d’opt-out n’a-t-il d’effet que sur les utilisations futures ?
Devant la difficulté d’exercer ce droit, certains acteurs tentent de mettre en place des solutions pour pallier ce problème, notamment en assurant une meilleure transparence quant au fonctionnement de l’IA. Google, par exemple, a mis en avant « Google-Extended » pour permettre aux auteurs d’avoir un meilleur contrôle sur leur contenu et sur la manière dont il pourrait être utilisé par des IA génératives (10). Il faut aussi sécuriser les droits d’auteur dans l’ère de l’intelligence artificielle : discernement, transparence, contreparties, protections de l’humain, … Les artistes et ayants droit réclament un droit d’accès leur permettant de savoir quelles œuvres et quelles données sont utilisées dans la fouille de données. Et ce, quand bien même ils auraient consenti à l’utilisation de certaines de leurs œuvres – leur autorisation ne couvrant pas nécessairement toutes leurs œuvres ni tous les systèmes d’IA. Dans le cas où ils se seraient opposés, ce dispositif d’information leur permettrait aussi de s’assurer qu’une autorisation n’a pas été accordée indûment par des tiers. La plupart des ayants droit estiment que, dans la mesure où le fonctionnement des algorithmes d’IA implique une reproduction d’objets protégés, « l’humain doit rester prioritaire et la titularité des droits doit revenir en priorité aux humains » (11). C’est d’ailleurs dans cette logique que s’est inscrite la table ronde de la Federal Trade Commission (FTC) sur l’« économie créative et les IA génératives » (12), organisée le 4 octobre 2023 pour que le législateur américain et les différentes autorités compétentes prennent en considération, dans leur mission de régulation, le point de vue des artistes, auteurs, compositeurs, réalisateurs et de toute personne dont les œuvres pourraient être utilisées par une IA générative.
Des syndicats américains tels que SAG-AFTRA ou WGA, rassemblant des centaines de milliers d’acteurs et de professionnels des médias, étaient présents lors de cette table ronde pour défendre une utilisation de l’IA saine, qui soit bénéfique à l’ensemble de leurs membres, aux travailleurs d’autres industries et au public en général. Pour s’assurer que l’ensemble des individus de cette industrie soient justement payés pour leur travail, plusieurs syndicats n’ont pas hésité à faire une grève générale de plusieurs mois à Hollywood (13) pour s’assurer du bon équilibre entre l’utilisation des IA génératives et les intérêts des individus car « les humains ont beau essayer de créer des IA de plus en plus intelligentes, elles ne remplaceront jamais la créativité humaine ». La grève – historique – a d’ailleurs porter ses fruits dans la mesure où elle a abouti sur un accord qui « permettra de construire des carrières de façon durable ». Outre des compensations financières obtenues des studios, le SAG-AFTRA affirme qu’ils ont négocié des « provisions sans précédent pour s’assurer du consentement et de la compensation [des acteurs], afin de protéger [ses] membres de la menace de l’IA » (15). @

* Anne-Marie Pecoraro est avocate spécialisée
en droit de la propriété intellectuelle,
des médias et des technologies numériques.

ZOOM

L’IA générative : quésaco ?
ChatGPT, Dall-E, Midjourney, Bard, Claude, … On connaît des exemples d’intelligence artificielle générative qui produisent de nouvelles données à partir de celles créées par des êtres humains, que ce soit sous forme de texte, d’images ou encore de musique. L’IA générative se concentre sur la création de données, de contenu ou de productions artistiques, de façon indépendante, tandis que l’IA classique se concentre, elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA, qu’elle soit générative ou classique, repose sur l’apprentissage automatique (machine learning) et donc sur des algorithmes conçus de sorte que leur comportement évolue dans le temps en fonction des données qui leur sont fournies. L’IA générative utilise la puissance d’un modèle de langage naturel (GPT-3 et GPT-4 pour ChatGPT, par exemple). On parle d’« invite » pour une simple instruction donnée à l’IA générative en langage naturel (texte ou voix), sinon d’« ingénierie rapide » (prompt engineering, en anglais) lorsque les demandes sont plus élaborées. @

Médias sociaux : l’Unesco tiendra sa première Conférence mondiale des régulateurs en juin 2024

L’agence de l’ONU pour l’éducation, la science et la culture organisera mi-2024 sa toute première Conférence mondiale des régulateurs. Au moment où les plateformes numériques en Europe font la chasse aux « contenus illicites », l’Unesco veut des garde-fous pour la liberté d’expression.

Audrey Azoulay (photo), directrice générale de l’Unesco, l’a annoncé le 6 novembre dernier : l’agence des Nations unies pour l’éducation, la science et la culture organisera mi-2024 – en juin, selon les informations de Edition Multimédi@ – sa toute première Conférence mondiale des régulateurs, en vue de mettre en œuvre les mesures préconisées pour « mettre fin à ce fléau » qu’est « l’intensification de la désinformation et des discours de haine en ligne » sur les médias sociaux. Ce prochain rendez-vous concernera non seulement les gouvernements et les autorités de régulation, mais aussi la société civile et les plateformes numériques.

Préserver la liberté d’expression
« Il y a une exigence cardinale qui a guidé nos travaux : celle de préserver toujours la liberté d’expression et tous les autres droits humains. Contraindre ou brider la parole serait une terrible solution. Des médias et des outils d’information libres, de qualité et indépendants, constituent la meilleure réponse sur le long terme à la désinformation », a mis en garde Audrey Azoulay.
L’Unesco, qui revendique son rôle « pour la promotion et la protection de la liberté d’expression et de l’accès à l’information », a présenté à Paris – où est basé son siège social – les « Principes pour la gouvernance des plateformes numériques », détaillés dans un document d’une soixantaine de pages (1). Ils sont le fruit d’une consultation multipartite engagée en septembre 2022 et au cours de trois consultations ouvertes qui ont eu lieu respectivement entre décembre 2022 et janvier 2023, entre février et mars 2023 et entre avril et juin 2023, soit au total 1.540 contributions provenant de 134 pays et ayant généré plus de 10.000 commentaires. « Préserver la liberté d’expression et le droit d’accès à l’information, tout en luttant contre la désinformation, les discours de haine et les théories du complot, nécessite une approche multipartite », justifie l’Unesco, qui a aussi tenu compte des conclusions de sa conférence mondiale de février 2023 consacrée à la régulation des plateformes numériques (2). La protection de la liberté d’expression dans le monde est la première préoccupation de l’Unesco, alors que dans les vingt-sept Etats membres de l’Union européenne (UE) les très grandes plateformes en ligne et très grands moteurs de recherche en ligne – au nombre de dix-neuf (3) – doivent se conformer depuis le 25 août au règlement sur les services numériques qui leur impose de lutter contre les « contenus illicites » (fausses informations, discours haineux, messages à caractère terroriste, …). Selon certaines organisations, ce Digital Services Act (DSA) – applicable à toutes les plateformes numériques à partir du 17 février 2024 – présentent une menace pour la liberté d’expression des Européens (4) – notamment en cas de censure abusive, voire d’interprétation contestée de la part du commissaire au Marché intérieur, Thierry Breton (5).
Si l’Unesco ne mentionne pas dans son document les avancées de l’UE dans ce domaine, elle n’en met pas moins en garde les Etats du monde entier contre les atteintes à la liberté d’expression et aux droits humains. « Les Principes [pour la gouvernance des plateformes numériques] commencent par décrire l’environnement propice nécessaire pour sauvegarder la liberté d’expression, l’accès à l’information et d’autres droits humains, tout en garantissant un environnement ouvert, sûr et sécurisé pour les utilisateurs et les non-utilisateurs des plateformes numériques », explique l’Unesco dans son document. Sont ainsi définies les responsabilités des différentes parties prenantes, et ce n’est pas un hasard si celles-ci commencent par « les devoirs des Etats de respecter, protéger et appliquer les droits humains » :
Les Etats doivent respecter et promouvoir les droits humains, y compris le droit à la liberté d’expression et le droit d’accès à l’information. Les restrictions à la liberté d’expression ne sont admissibles que dans les conditions prévues aux articles 19 et 20 du PIDCP [Pacte international relatif aux droits civils et politiques (6), adopté par les Nations Unies en 1966 et entré en vigueur en 1976, ndlr].

Les Etats ne doivent ni censurer…
Les Etats ont des obligations positives de protéger les droits humains contre les ingérences injustifiées des acteurs privés, y compris les plateformes numériques, car ils ont la responsabilité de créer un environnement réglementaire qui facilite le respect des droits humains par les plateformes numériques et de donner des orientations aux plateformes numériques sur leurs responsabilités.
Les Etats sont tenus d’être pleinement transparents et responsables quant aux exigences qu’ils imposent aux plateformes numériques pour assurer la sécurité et la prévisibilité juridiques, qui sont des conditions préalables essentielles à l’Etat de droit. Plus précisément, les Etats doivent notamment : garantir les droits des utilisateurs des plateformes numériques à la liberté d’expression, à l’accès à l’information, à l’égalité et à la non-discrimination, et protéger les droits à la vie privée, à la protection des données, d’association et de participation publique des utilisateurs ; veiller à ce que toute restriction imposée aux plateformes respecte systématiquement le seuil élevé fixé pour les restrictions à la liberté d’expression, sur la base de l’application des Articles 19 et 20 du PIDCP.

…ni couper le réseau Internet
Les Etats doivent s’abstenir, notamment
: d’imposer des mesures qui empêchent ou perturbent l’accès général à la diffusion de l’information, en ligne et hors ligne, y compris les coupures d’Internet ; d’imposer une obligation générale de surveillance ou, pour les plateformes numériques, l’obligation générale de prendre des mesures proactives en relation avec les contenus considérés comme illégaux dans une juridiction spécifique ou avec les contenus qui peuvent être restreints de manière admissible en vertu des normes et de la législation internationales en matière de droits humains.
L’année 2024, au cours de laquelle se tiendra la première Conférence mondiale des régulateurs organisée par l’Unesco, sera d’autant plus décisive pour la régulation des plateformes numérique que 2 milliards de personnes sur la planète seront appelées à voter lors d’une cinquantaine d’élections dans plusieurs pays. Or, selon une étude réalisée l’été dernier par l’institut Ipsos pour l’agence « éducation, science et culture » de l’ONU, 87 % des personnes interrogées (sur un total de 8.000 dans 16 pays où se dérouleront une élection en 2024) craignent que la propagation de fausses informations en ligne ait un impact majeur sur les élections dans leur pays, et autant (87 % également) en appelle à une meilleure régulation des médias sociaux.
Les Facebook, YouTube, TikTok et autres Snapchat sont devenus dans de nombreux pays « la première source d’information des citoyens, en même temps que le principal vecteur de désinformation et de manipulation », relève la directrice générale de l’Unesco. La prochaine année électorale débutera avec les élections parlementaires au Bengladesh en janvier 2024, suivies par l’élection présidentielle au Sénégal en février 2024 et bien d’autres rendez-vous électoraux dans d’autres pays (El Salvador, Indonésie, Inde, Afrique du Sud, République dominicaine, Belgique, Mexique, Croatie, Autriche, Roumanie, Ghana), et se terminera avec l’élection présidentielle en Algérie en décembre 2024, précédée de l’élection présidentielle aux Etats-Unis en novembre 2024. « La régulation des réseaux sociaux constitue d’abord un enjeu démocratique. Bien sûr, la libération de la parole et de la participation démocratique par le numérique a représenté d’immenses progrès à certains égards, a expliqué Audrey Azoulay. Mais ces réseaux sociaux ont aussi accéléré et amplifié, parfois délibérément et à une échelle quasi-industrielle, la diffusion de fausses informations, voire de discours de haine et de théories complotistes – et ceux-ci tendent à se renforcer mutuellement ». Tout en appelant à la « modération » des contenus illicites sur Internet, elle appelle aussi à la « modération » de la régulation pour préserver la liberté d’expression. « Je voudrais souligner une exigence essentielle, qui a servi de boussole pour nous : la préservation de la liberté d’expression et de tous les autres droits de l’homme. Limiter ou restreindre la parole serait une fausse solution – une solution terrible, en fait – pour un problème très réel », a prévenu la directrice générale de l’Unesco, dont le second mandat s’achèvera en novembre 2025.
Les gouvernements et les autorités de régulation auront-ils la main lourde dans la chasse aux fake news ? C’est à craindre, alors que les pouvoirs publics (gouvernements et régulateurs justement) sont considérés – par le plus grand nombre de personnes interrogées dans le monde par Ipsos pour l’Unesco (29 %) – « comme les principaux responsables de l’identification et de la lutte contre la désinformation en ligne ». Et ce, devant les internautes eux-mêmes (23 %), les nouveaux médias (20 %), les médias sociaux (19 %), les organisations internationales (5 %) et les politiciens (4 %). En outre, à l’affirmation selon laquelle « les organisations internationales comme les Nations unies ou l’Unesco ont un rôle majeur à jouer dans la lutte contre la désinformation et les “fake news” », 75 % des sondés disent « Oui » (7).

La recommandation sur l’IA a deux ans
L’Unesco, dont le mandat confié par l’ONU est aussi de défendre et de promouvoir la liberté d’expression, l’indépendance et le pluralisme des médias (régulation globale des médias comme la radio ou la télévision), s’affirme de plus en plus dans la régulation d’Internet et l’éthique des nouvelles technologies. Elle a ainsi émis une recommandation sur l’éthique de l’intelligence artificielle, adoptée en novembre 2021 par les 193 Etats membres, pour fixer un cadre humaniste aux développements de cette innovation qui a depuis explosée avec les IA génératives (8). Tandis que la Convention de l’Unesco de 2005 sur la protection et la promotion de la diversité des expressions culturelles (9) intègre de plus en plus de directives opérationnelles élargies au numérique. @

Charles de Laubier