Vers une régulation « presse, médias, plateformes »

En fait. Selon nos informations, c’est le 3 octobre que seront enfin lancés les « Etats généraux de l’information » voulus par Emmanuel Macron. Les conclusions sont attendues pour « mai 2024 », a indiqué Bruno Lasserre, président du « comité de pilotage » créé le 13 juillet par l’Elysée. Il a esquissé l’ambition dans Charente Libre le 7 août.

En clair. « Aujourd’hui nous avons une régulation pour chaque type d’entreprise de l’information : la presse, les médias, les plateformes numériques. Nous avons l’ambition d’une régulation qui surplombe et relie tous ces droits particuliers. La France peut innover et inspirer la Commission européenne », a esquissé Bruno Lasserre (photo), président du comité de pilotage des Etats généraux de l’information, dans un entretien à Charente Libre le 7 août. La mission, que lui a confiée Emmanuel Macron consiste à « inspirer le législateur, les politiques publiques ». Quelle sera cette régulation « surplomb[ant]» la presse, les médias et les plateformes ? « La livraison de nos conclusions est prévue pour mai 2024 », indique le retraité du Conseil d’Etat, dont il est vice-président honoraire.

Une grande consultation publique prévue en octobre
Alors que les discussions démarrent au Parlement européen sur le projet de règlement sur « la liberté des médias » (EMFA)(1) en vue d’aboutir avant les élections des eurodéputés en juin 2024. En France, où le feuilleton du JDD « interpelle » (dixit Bruno Lasserre), les propositions de loi sur l’indépendance des médias et de leurs rédactions n’ont pas attendu les Etats généraux de l’information : après la proposition « Forteza » déposée l’an dernier par la députée dont le mandat s’est terminé en juin 2022, il y a la proposition « Assouline » déposée par le sénateur le 12 juillet et la proposition « Taillé-Polian » déposée par la députée le 19 juillet. Les Etats généraux de l’information arrivent, eux, un an et demi après le rapport – non suivi d’effet – de la commission d’enquête du Sénat sur la concentration dans les médias en France, où des milliardaires s’étaient succédés aux auditions. Le comité de pilotage de Bruno Lasserre va aussi Continuer la lecture

Sous pression de ChatGPT et frénétiquement, Google multiplie les produits d’intelligence artificielle

L’édition 2023 de la conférence des développeurs Google I/O, qui s’est tenue le 10 mai, a montré pour la première fois de l’histoire de la filiale d’Alphabet, créée il y a 25 ans, que l’IA est désormais devenue sa priorité numéro une. L’enjeu est de taille : ne pas se faire « ChatGPTéiser ».

Le 2 juin à l’assemblée générale annuelle des actionnaires d’Alphabet, la maison mère de Google, l’intelligence artificielle (IA) sera dans toutes les têtes. Ce rendez-vous entièrement virtualisé (1) devrait entériner la nouvelle stratégie de Google plus que jamais tournée vers l’IA. Le temps presse car la firme de Mountain View (Californie) ne mène plus la danse sur le Web, depuis que la start-up OpenAI a lancé fin novembre 2022 son IA générative ChatGPT, allant même jusqu’à déstabiliser le numéro un des moteurs de recherche.

Alphabet met de l’IA à tous les étages
Pour la première fois depuis sa création il y a 25 ans par Larry Page et Sergey Brin, « Google Search » se sent menacé. Audelà de sa réplique à ChatGPT avec sa propre IA générative, Bard, le groupe Alphabet dirigé par Sundar Pichai met les bouchées doubles dans l’IA. Jamais la conférence des développeurs Google I/O (2), dont c’était la 15e édition annuelle depuis son lancement en 2008 (en tenant compte de son annulation en 2020 pour cause de pandémie), n’a été autant tournée vers l’intelligence artificielle. Le système d’exploitation mobile Android, les smartphones Pixel et autres outils de l’écosystème Google sont passés au second plan (3).
L’année 2023 est une étape historique pour la filiale d’Alphabet qui a entrepris de généraliser l’IA partout où cela peut être utile. « L’IA est déjà dans de nombreux produits des millions (et dans certains cas des milliards) de personnes utilisent déjà comme Google Maps, Google Translate, Google Lens et plus encore. Et maintenant, nous apportons l’intelligence artificielle pour aider les gens à s’enflammer et à faire preuve de créativité avec Bard, à augmenter leur productivité avec les outils Workspace et à révolutionner la façon dont ils accèdent aux connaissances avec Search Generative Experience », a expliqué James Manyika (photo), vice-président chez Alphabet et Google, en charge des technologies et de la société ainsi que de Google Research et de Google Labs. L’IA s’est invitée dans la plupart des annonces faites aux développeurs « I/O », comme l’illustre un compte-rendu mis en ligne (4).
Quant au chatbot intelligent Bard, qui fut lancé dans la précipitation le 6 février dernier d’abord auprès d’happy few testeurs pour engager un bras de fer avec ChatGPT cornaqué par Microsoft (5), il est appelé à évoluer pour tenter de s’imposer. « Plus tard cette année, Data Commons – un système qui organise des données provenant de centaines de sources pour éclairer les approches des grands défis sociétaux, de la durabilité aux soins de santé, en passant par l’emploi et l’économie dans de nombreux pays – sera accessible par l’intermédiaire de Bard, ce qui le rendra encore plus utile », a aussi annoncé James Manyika. Au-delà de Bard, l’IA sera mise à contribution par Alphabet pour faire face aux changements climatiques et réduire les émissions de carbone, pour améliorer les soins de santé, y compris les soins maternels, les traitements contre le cancer et le dépistage de la tuberculose. « Nous avons récemment annoncé un nouveau grand modèle linguistique qui pourrait être un outil utile pour les cliniciens : Med-PaLM », cite en exemple Google.
L’IA va aussi de plus en plus aider les scientifiques dans de nombreux domaines, comme la physique, la science des matériaux et la santé, à l’instar du programme AlphaFold de Google DeepMind pour prédire avec précision la forme 3D de 200 millions de protéines (macronutriments essentiels au bon fonctionnement de l’organisme). L’IA va contribuer également à rendre l’information mondiale encore plus accessible à tous et permettre à chacun d’évaluer l’information en ligne et de détecter la mésinformation. « Dans les prochains mois, a indiqué James Manyika, nous allons ajouter un nouvel outil, “About this image” (6) dans Google Search, qui fournira un contexte utile, comme le moment et l’endroit où des images similaires peuvent être apparues pour la première fois et où elles ont été vues en ligne, y compris les actualités, la vérification des faits et les sites sociaux. Plus tard cette année, cet outil sera disponible dans Chrome et Google Lens ». L’IA est aussi au cœur d’Universal Translator, un nouveau service expérimental du géant du Net. Il s’agit d’un outil intelligent de doublage vidéo qui traduit la voix d’un orateur et fait correspondre ses mouvements de lèvres.

Concevoir les IA avec des garde-fous
Selon Google, Universal Translator présente un énorme potentiel pour accroître la compréhension de l’apprentissage. Mais cela présente des risques de détournement, des « tensions » comme les désigne James Manyika : « Nous avons conçu le service avec des garde-fous pour limiter l’utilisation abusive et le rendre accessible seulement aux partenaires autorisés. Nous appliquons nos principes d’IA (7) à nos produits », assure-t-il. L’IA responsable (8) suppose aussi des outils de détection (« classificateurs ») pour débusquer les deepfake (9) et les supercheries. Et ce n’est que le début d’une nouvelle ère. @

Charles de Laubier

La Chine est le premier pays à s’attaquer aux « deepfake », ces contenus hyper-truqués à l’IA

Depuis le 10 janvier 2023, en Chine, le règlement « Deep Synthesis Provisions » est entré en vigueur pour réguler voire interdire les « deepfake » créés à l’aide de l’intelligence artificielle en détournant textes, images audios et/ou vidéos. Ces créations hyperréalistes prennent de l’ampleur.

Le président ukrainien Volodymyr Zelensky a expliqué l’an dernier dans une vidéo qu’il avait capitulé face aux russes et qu’il appelait les soldats de son pays à déposer les armes (1). L’acteur américain Morgan Freeman s’est exprimé en 2021 sur la chaîne YouTube néerlandaise Diep Nep pour dire : « Je ne suis pas Morgan Freeman. Ce que vous voyez n’est pas réel » (2). Car ces vidéos et de nombreuses autres postées sur les réseaux sociaux – lorsque ce ne sont pas des textes, des images ou des podcasts – sont des « deepfake », des contenus entièrement manipulés et détournés à l’aide de l’intelligence artificielle (IA) et l’apprentissage machine (AM).

La Chine devance les USA et l’UE
Le résultat est vraisemblable et bluffant. L’année 2023 pourrait être celle de l’explosion de ces vidéos truquées hyperréalistes. Les Etats-Unis ont commencé à légiférer par endroits (Californie, New York, Virginie, Texas) contre les abus des deepfakes – nom composé de deep learning et de fake news. Le Parlement européen devrait bientôt examiner en séance publique la proposition de règlement « Artificial Intelligence Act » (3) mise sur les rails il y a vingt mois (4). Mais c’est la Chine qui vient de devancer l’Occident en faisant entrer en vigueur le 10 janvier 2023 un règlement applicable à l’ensemble de l’Empire du Milieu.
Le texte composé de 25 articles est surnommé le « Deep Synthesis Provisions » (5) et s’applique désormais à toute la filière des fournisseurs de « synthèse profonde » (deepfake). Son entrée en vigueur est l’aboutissement d’un processus qui avait commencé après un discours du président Xi Jinping (photo) devant le Politburo en octobre 2021 où il mettait en garde contre « les symptômes malsains et incontrôlés » de l’économie numérique. C’est le Cyberespace Administration of China (CAC), en cheville avec les ministères de l’Industrie et des Technologies de l’information (MIIT) et de la Sécurité publique (MPS), qui a été à la manoeuvre. Le CAC a été chargé d’élaborer ce règlement « Deep Synthesis Provisions », dont la première version a été publiée il y a un an (fin janvier 2022) à l’occasion d’une consultation publique d’un mois. La version finale a été publiée fin novembre dernier. « Les services qui offrent un dialogue intelligent, des voix synthétisées, la génération de visages, des scénarios de simulation immersive, etc., pour générer ou modifier considérablement la fonction du contenu d’information, devraient être marqués de façon significative pour éviter la confusion ou l’identification erronée du public. », explique le CAC dans un communiqué du 11 décembre (6). La Chine définit la technologie de synthèse profonde comme celle qui utilise l’apprentissage profond (deep learning), la réalité virtuelle et d’autres algorithmes synthétiques pour produire du texte, des images, de l’audio, de la vidéo, des scènes virtuelles ou en 3D, et d’autres informations réseau. Les fournisseurs de services de synthèse approfondie sont tenus de désigner les entreprises qui offrent des services, logiciels et supports techniques. La responsabilité incombe aux prestataires de services de synthèse profonde en matière de sécurité des données et de protection des informations personnelles, de transparence (notamment en établissant des lignes directrices, des critères et des processus pour reconnaître les informations fausses ou préjudiciables), et de gestion de contenu et étiquetage (étiquettes ou logos).
Les dispositions du règlement « Deep Synthesis Provisions » s’appuient sur un règlement « Online Audio and Video Information Services » (7) de 2019 qui interdit sur Internet l’utilisation de photos, d’audios et de vidéos générés par ordinateur pour produire ou diffuser des fausses nouvelles. Mais comme dans le reste du monde, il sera difficile de faire la part des choses, entre fake news et parodie. La censure chinoise ajoute une corde à son arc.
Quoi qu’il en soit, Pékin prend très au sérieux la menace des deepfakes, y compris des algorithmes (8), à l’heure où la bataille commerciale exacerbée avec Washington fait rage sur fond de guerre en Ukraine déclenchée par sa voisine et amie la Russie.

La notion de « contenus illicites » du DSA
En attendant l’adoption du règlement « Artificial Intelligence Act », l’Europe s’est dotée du Digital Services Act (DSA) qui entre en vigueur en 2023. Il prévoit notamment que les plateformes numériques « lutte[nt] contre la diffusion de contenus illicites en ligne et contre les risques, pour la société, de diffusion d’informations trompeuses » (considérant 9), la notion (vague ?) de « contenus illicites » étant mentionnée dans au moins huit articles du DSA (9) – mais sans qu’il y soit question explicitement de deepfake. Avec son « Deep Synthesis Provisions », la Chine a pris de l’avance et pourrait être suivie par d’autres pays autoritaires. @

Charles de Laubier