L’Italie bouscule la France en interdisant ChatGPT

En fait. Le 31 mars, la « Cnil » italienne – la GPDP – a adopté une décision à l’encontre de la société américaine OpenAI, éditrice de l’intelligence artificielle ChatGPT, en interdisant temporairement ce robot conversationnel. En France, la Cnil a finalement reçu début avril deux plaintes contre cette IA.

En clair. Edition Multimédi@ relève que la Commission nationale de l’informatique et des libertés (Cnil) a eu – lors de sa séance plénière du 9 février – une démonstration de ChatGPT (1). Depuis, c’était « silence radio ». Jusqu’à cette décision du 31 mars dernier de son homologue italienne, la GPDP, interdisant dans la péninsule le robot conversationnel de la société californienne OpenAI, laquelle a jusqu’au 20 avril pour « se conformer à l’ordonnance, sinon une amende pouvant atteindre 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial total pourra être imposée » (2).
En France, la Cnil est donc sortie de son silence : « Sur les bases d’apprentissage et les IA génératives, l’objectif de la Cnil est de clarifier le cadre légal dans les prochains mois », a-t-elle indiqué le 1er avril à Marc Rees, journaliste juriste à L’Informé. L’autorité française de la protection des données lui a précisé ce jour-là qu’elle « n’a pas reçu de plainte » contre ChatGPT et n’a « pas de procédure similaire en cours » (3). Mais le 5 avril, deux premières plaintes contre OpenAI sont révélées (4). La Cnil dit « s’[être] rapprochée de son homologue italienne afin d’échanger sur les constats qui ont pu être faits ». Elle n’est bien sûr pas la seule, d’autant que toutes les « Cnil » des Vingt-sept sont compétentes pour « instruire » le cas ChatGPT. « OpenAI n’a pas d’établissement dans l’Union européenne ; donc le mécanisme du guichet unique ne lui est pas applicable. Il n’y a de ce fait pas d’autorité cheffe de file », indique à Edition Multimédi@ le Comité européen de la protection des données (EDPB) – réunissant à Bruxelles les « Cnil » des Vingt-sept sous la houlette de la Commission européenne. Il nous a répondu que son programme de travail 2023-2024 prévoit des « lignes directrices sur l’interaction entre le règlement sur l’IA [Artificial Intelligence Act, ndlr] et le RGPD [règlement général sur la protection des données] » (5).
L’AI Act devrait être voté d’ici fin avril par Parlement européen (6), d’après le commissaire européen au Marché intérieur, Thierry Breton, qui est intervenu le 3 avril sur Franceinfo. « Tout ce qui sera généré par l’IA devra obligatoirement être signalé comme étant fait par une intelligence artificielle », a-t-il prévenu. L’Europe, elle, n’a d’ailleurs pas de champion de l’IA générative. Une nouvelle colonisation numérique… @

Après ChatGPT, les robots conversationnels se bousculent sur le marché de l’IA générative

Les chatbots conversationnels se bousculent au portillon, dans le sillage de ChatGPT. La concurrence s’organise sur marché mondial qui annonce des chamboulements colossaux dans les moteurs de recherche sur Internet, encore dominés par Google. Plus pour longtemps.

Après ChatGPT que la start-up américaine OpenAI – dirigée par son cofondateur Sam Altman (photo) – a lancé le 30 novembre 2022 (1) avec un succès médiatique sans précédent, Bard tente de se lancer à sa poursuite après avoir été annoncé le 6 février dernier par Google mais réservé encore quelques semaines à un nombre limité de happy few testeurs (2). Le lendemain, Microsoft – qui a investi des milliards de dollars dans OpenAI – a annoncé la mise en test dans son moteur de recherche Bing (3) du modèle de traitement du langage naturel utilisé par ChatGPT (Generative Pre-trained Transformer). Et ce n’est pas fini.

La bataille des IA génératrices fait rage
Le 24 février, c’est au tour de Meta de lancer son LLaMA – à des fins de tests également (4). Trois jours après, il est question que Elon Musk – lequel a été un des cofondateurs d’OpenAI – se lance lui aussi dans la course à l’IA générative (5). Au même moment, à savoir le 27 février, Snap y va aussi de son robot conversationnel (chatbot) qui répond au nom de « My AI », également disponible à titre expérimental (6). Toutes ces initiatives ne sont que la face émergée de l’intelligence artificielle conjuguée aux traitements de langage naturel et à l’exploitation de mégabases de données, lorsque que l’IA générative n’est pas aussi connectée au Web (7). Il existe bien d’autres IA créatrices, telles que : Dall.E 2, développée par OpenAI, pour créer des images et des œuvres d’art originales et réalistes à partir d’une description textuelle ; Stable Diffusion, développée par Stability AI, en tant que modèle d’apprentissage automatique (deep learning), permettant de générer des images numériques réalistes à partir de descriptions en langage naturel ; Midjourney, développée par le laboratoire de recherche éponyme, aussi une IA générative conçue pour générer des images à partir de texte ; Cedille, un modèle de génération de texte francophone développé par la société suisse Coteries (8).
Pour conforter son avance, OpenAI a lancé le 1er mars une interface de programmation (API) pour faciliter partout l’intégration de ChatGPT et de Whisper (voix à texte). Textes, photos, vidéos, musiques, … Les IA génératrices s’immiscent dans tous les domaines et cela ne date pas d’hier. Par exemple, la nouvelle musique « des Beatles » baptisée « Daddy’s Car » avait fait sensation en septembre 2016 sur YouTube (9). Or, en réalité, ce titre a été composé par l’équipe « Musique et IA » du laboratoire Sony CSL (10). Il a été créé dans le style des Beatles par le scientifique François Pachet et le musicien Benoît Carré akaSkygge (« ombre » en danois) à l’aide de Flow Machines, une IA « mélomane » (11). Avec elle, ils ont créé en 2018 un album intitulé « Hello World ». François Pachet est aujourd’hui directeur chez Spotify en charge du « développement de la prochaine génération d’outils de composition musicale assistée par IA ».
L’industrie musicale va être bousculée, tout comme l’industrie de l’édition (livre et presse). Le cinéma n’y échappera pas non plus (scénarios et séries). Toutes les industries culturelles et créatives seront impactées, avec les questions de droit d’auteur et de propriété intellectuelle que cela soulève. Par exemple, l’agence photo américaine Getty Images (également banque d’images) a annoncé le 17 janvier porter plainte contre Stability AI (l’éditeur de Stable Diffusion) pour lui avoir « illégalement copié et traité des millions d’images protégées par le droit d’auteur et les métadonnées associées » (12). Plus récemment, le 21 février, le Copyright Office américain a conclu que les images de la bande dessinée « Zarya of the Dawn » créées par l’IA Midjourney, ne peuvent pas être protégées par le droit d’auteur (13). Quant aux « deepfake », ces vidéos hyperréalistes truquées à l’IA, elles commencent pour certaines à poser problème (14). La Chine vient de les interdire (15). La justice commence à faire bouger les lignes (16) et l’Union européenne s’apprête à promulguer son règlement « Artificial Intelligence Act » (17) pour réguler les systèmes d’IA « à haut risque ». Cela irait dans le sens de Brad Smith, président de Microsoft, pour qui « une réglementation efficace en matière d’IA devrait être axée sur les applications les plus à risque ».

Aussi pour des entreprises plus « intelligentes »
Il y a encore peu d’études sur cette vague innovante de création automatique de contenus. Le marché mondial de l’IA générative pourrait être multiplié par dix d’ici la décennie en cours, pour dépasser en 2030 les 100 milliards de dollars. « D’ici 2025, nous nous attendons à ce que plus de 30 % – contre zéro aujourd’hui – de nouveaux médicaments et de nouveaux matériaux soient systématiquement découverts à l’aide de techniques d’IA génératives. Et ce n’est là qu’un des nombreux cas d’utilisation par l’industrie », prévoit Brian Burke, vice-président de la recherche en innovation technologique au sein du cabinet d’études Gartner. @

Charles de Laubier

La Chine est le premier pays à s’attaquer aux « deepfake », ces contenus hyper-truqués à l’IA

Depuis le 10 janvier 2023, en Chine, le règlement « Deep Synthesis Provisions » est entré en vigueur pour réguler voire interdire les « deepfake » créés à l’aide de l’intelligence artificielle en détournant textes, images audios et/ou vidéos. Ces créations hyperréalistes prennent de l’ampleur.

Le président ukrainien Volodymyr Zelensky a expliqué l’an dernier dans une vidéo qu’il avait capitulé face aux russes et qu’il appelait les soldats de son pays à déposer les armes (1). L’acteur américain Morgan Freeman s’est exprimé en 2021 sur la chaîne YouTube néerlandaise Diep Nep pour dire : « Je ne suis pas Morgan Freeman. Ce que vous voyez n’est pas réel » (2). Car ces vidéos et de nombreuses autres postées sur les réseaux sociaux – lorsque ce ne sont pas des textes, des images ou des podcasts – sont des « deepfake », des contenus entièrement manipulés et détournés à l’aide de l’intelligence artificielle (IA) et l’apprentissage machine (AM).

La Chine devance les USA et l’UE
Le résultat est vraisemblable et bluffant. L’année 2023 pourrait être celle de l’explosion de ces vidéos truquées hyperréalistes. Les Etats-Unis ont commencé à légiférer par endroits (Californie, New York, Virginie, Texas) contre les abus des deepfakes – nom composé de deep learning et de fake news. Le Parlement européen devrait bientôt examiner en séance publique la proposition de règlement « Artificial Intelligence Act » (3) mise sur les rails il y a vingt mois (4). Mais c’est la Chine qui vient de devancer l’Occident en faisant entrer en vigueur le 10 janvier 2023 un règlement applicable à l’ensemble de l’Empire du Milieu.
Le texte composé de 25 articles est surnommé le « Deep Synthesis Provisions » (5) et s’applique désormais à toute la filière des fournisseurs de « synthèse profonde » (deepfake). Son entrée en vigueur est l’aboutissement d’un processus qui avait commencé après un discours du président Xi Jinping (photo) devant le Politburo en octobre 2021 où il mettait en garde contre « les symptômes malsains et incontrôlés » de l’économie numérique. C’est le Cyberespace Administration of China (CAC), en cheville avec les ministères de l’Industrie et des Technologies de l’information (MIIT) et de la Sécurité publique (MPS), qui a été à la manoeuvre. Le CAC a été chargé d’élaborer ce règlement « Deep Synthesis Provisions », dont la première version a été publiée il y a un an (fin janvier 2022) à l’occasion d’une consultation publique d’un mois. La version finale a été publiée fin novembre dernier. « Les services qui offrent un dialogue intelligent, des voix synthétisées, la génération de visages, des scénarios de simulation immersive, etc., pour générer ou modifier considérablement la fonction du contenu d’information, devraient être marqués de façon significative pour éviter la confusion ou l’identification erronée du public. », explique le CAC dans un communiqué du 11 décembre (6). La Chine définit la technologie de synthèse profonde comme celle qui utilise l’apprentissage profond (deep learning), la réalité virtuelle et d’autres algorithmes synthétiques pour produire du texte, des images, de l’audio, de la vidéo, des scènes virtuelles ou en 3D, et d’autres informations réseau. Les fournisseurs de services de synthèse approfondie sont tenus de désigner les entreprises qui offrent des services, logiciels et supports techniques. La responsabilité incombe aux prestataires de services de synthèse profonde en matière de sécurité des données et de protection des informations personnelles, de transparence (notamment en établissant des lignes directrices, des critères et des processus pour reconnaître les informations fausses ou préjudiciables), et de gestion de contenu et étiquetage (étiquettes ou logos).
Les dispositions du règlement « Deep Synthesis Provisions » s’appuient sur un règlement « Online Audio and Video Information Services » (7) de 2019 qui interdit sur Internet l’utilisation de photos, d’audios et de vidéos générés par ordinateur pour produire ou diffuser des fausses nouvelles. Mais comme dans le reste du monde, il sera difficile de faire la part des choses, entre fake news et parodie. La censure chinoise ajoute une corde à son arc.
Quoi qu’il en soit, Pékin prend très au sérieux la menace des deepfakes, y compris des algorithmes (8), à l’heure où la bataille commerciale exacerbée avec Washington fait rage sur fond de guerre en Ukraine déclenchée par sa voisine et amie la Russie.

La notion de « contenus illicites » du DSA
En attendant l’adoption du règlement « Artificial Intelligence Act », l’Europe s’est dotée du Digital Services Act (DSA) qui entre en vigueur en 2023. Il prévoit notamment que les plateformes numériques « lutte[nt] contre la diffusion de contenus illicites en ligne et contre les risques, pour la société, de diffusion d’informations trompeuses » (considérant 9), la notion (vague ?) de « contenus illicites » étant mentionnée dans au moins huit articles du DSA (9) – mais sans qu’il y soit question explicitement de deepfake. Avec son « Deep Synthesis Provisions », la Chine a pris de l’avance et pourrait être suivie par d’autres pays autoritaires. @

Charles de Laubier

Interview exclusive avec le robot ChatGPT d’OpenAI

En fait. Le 14 décembre, ChatGPT, l’intelligence artificielle créée par la start-up OpenAI, a répondu à EM@. Les questions portaient sur ChatGPT lui-même, en tant que robot conversationnel, capable de générer du texte intelligible en fonction de ce qu’on lui dit. Faute d’être connecté au Web, il est limité.

En clair. Edition Multimédi@ a débuté l’interview avec ChatGPT en lui demandant qui il est. Le chatbot (agent conversationnel) répond : « Je suis assistant, un grand modèle linguistique formé par OpenAI. Je suis une intelligence artificielle conçue pour aider à répondre aux questions et à fournir de l’information sur un large éventail de sujets. Je n’ai pas de forme physique et j’existe uniquement comme programme informatique ». A-t-il des concurrents dans le monde ? « En tant que grand modèle linguistique, répond ChatGPT, je n’ai pas de concurrents directs au sens traditionnel. Cependant, il y a d’autres assistants en IA et d’autres modèles linguistiques qui me ressemblent à certains égards [comme] Siri d’Apple, Alexa d’Amazon, et Assistant de Google […], mais ils peuvent différer dans leurs capacités ».
Connaît-il aussi par exemple son homologue suisse Cedille (1) développé par la société Coterie, comme lui s’appuyant sur le modèle de langage GPT-3 d’OpenAI, mais francophone ? « Je suis désolé, mais je ne suis pas en mesure de naviguer sur Internet ou d’accéder à de l’information en dehors de mes données de formation. Par conséquent, je n’ai aucune information sur Cedille ou la société suisse Coteries. Mes connaissances se limitent à ce sur quoi j’ai été formé par OpenAI ». Aussi, nous avons demandé à ChatGPT s’il aura bientôt accès au Web à l’instar d’Assistant de Google, d’Alexa d’Amazon ou de Siri d’Apple ? « Je n’ai pas la capacité d’accéder à Internet ou d’interagir avec lui d’aucune façon […] Il s’agit d’une différence fondamentale entre moi-même et les autres assistants en intelligence artificielle, comme Google Assistant, qui sont conçus pour accéder à Internet et fournir des informations à partir d’un large éventail de sources. […] Je ne suis pas en mesure d’exécuter les mêmes fonctions qu’un moteur de recherche, comme Google ». Mais lui, ChatGPT, voudrait-il être connecté à Internet ? « Je n’ai pas la capacité de prendre des décisions ou des mesures de mon propre chef »… Est-il capable d’écrire livres (2), articles de presse, poèmes, partitions de musique, scénarios de films et discours ? « Je n’ai pas la capacité d’écrire des livres, des articles de presse, des poèmes, des partitions de musique, des scénarios de films ou des discours par moi-même [ni] de créer du contenu original ». Un chatbot (3) limité et déconnecté mais modeste (4). @

Le marché mondial des métavers pourrait avoir à terme un impact économique bien réel

L’équipementier télécoms Ericsson a publié en octobre une étude voulant démontrer que « la 5G ouvre la voie au métavers ». Une étude d’Analysis Group, financée par Meta et parue en mai dernier, chiffre à 3.000 milliards de dollars l’apport des métavers au PIB Mondial d’ici 2031. Nouvel Eldorado ?

Les métavers font couler beaucoup d’encre, mais ils tardent à faire la preuve de leurs réelles perspectives économiques. Contribuerontils à hauteur de 3.000 milliards de dollars au produit intérieur brut (PIB) mondial d’ici le début de la prochaine décennie, comme le calcule Analysis Group dans son étude publiée au printemps dernier et financée par le groupe Meta (ex-Facebook) ? L’agence financière Bloomberg, elle, table sur un marché mondial du métavers de 800 milliards de dollars d’ici 2025. Entre les équipements (casques de réalité virtuelle en tête) et les dépenses dans ces mondes virtuels (dont la publicité), les perspectives sont dignes d’un « Eldorado 3.0 ».

La 5G, un catalyseur de métavers
De son côté, le suédois Ericsson a publié en octobre une étude intitulée « 5G : The Next Wave », présentée comme « la plus grande étude sur la 5G menée à ce jour auprès des consommateurs » (49.100 personnes interrogées dans 37 pays, représentatives de 430 millions d’utilisateurs de la 5G). Il en ressort que « l’adoption de la 5G ouvre la voie au métavers » et que « la transition des services immersifs vers des expériences métavers est en cours », les abonnés à la 5G faisant déjà leurs premiers pas dans ces mondes virtuels.
L’équipementier télécoms suédois, qui fournit bon nombre d’opérateurs de réseaux en infrastructure mobile (3G, 4G, 5G, …), constate que les utilisateurs de la 5G consacrent aujourd’hui en moyenne une heure de plus par semaine que les utilisateurs de la 4G à des activités liées aux métavers. Ils y pratiquent le jeu en ligne, la socialisation, le shopping, la participation à des concerts ou à des événements virtuels, ainsi que l’utilisation d’applications de réalité augmentée. « Les utilisateurs de la 5G pensent que d’ici 2025, 2 heures supplémentaires de contenu vidéo seront consommées chaque semaine sur les appareils mobiles, dont 1,5 heure sur les lunettes de réalité mixte plutôt que sur les smartphones », souligne le ConsumerLab d’Ericsson, dirigé par Jasmeet Sethi (photo de gauche), qui a réalisé ce sondage planétaire. Quant aux utilisateurs de la 4G, ils prévoient d’accroître leur « engagement », autrement dit les interactions, avec le métavers une fois qu’ils se seront abonnés à la 5G : 41 % indiquent qu’ils commenceront à utiliser ou à accroître leur utilisation de la réalité augmentée. « Globalement, six utilisateurs de smartphones sur dix pensent que la 5G est essentielle à la réalisation du métavers. La vitesse plus élevée, la fiabilité et le faible temps de latence de la 5G permettent aux utilisateurs de faire l’expérience de la XR [eXtended Reality] et d’autres activités », relève l’étude d’Ericsson. En France notamment, « 30 % des utilisateurs français déclarent qu’ils commenceront ou augmenteront l’utilisation d’applications de réalité augmentée dans le monde réel après avoir souscrit à la 5G ».
Autres enseignements de l’enquête mondiale : les utilisateurs de la 5G passent en moyenne 1 heure de plus par semaine dans les métavers que les utilisateurs de la 4G. Ces mondes virtuels existent dans les jeux en ligne et mobiles comme ceux de Roblox, Fortnite ou des jeux de réalité augmentée comme ceux de Niantic, mais aussi sur les plateformes de réalité virtuelle sociale ou les plateformes qui permettent aux utilisateurs de créer des expériences, de se socialiser, de vendre et d’acheter, de se divertir dans des environnements en 3D tels que Zepeto ou Ifland des groupes sud-coréens respectivement Naver et SK Telecom. « Les technologies telles que la VR [Virtual Reality], la AR [Augmented Reality], l’AI [Artificial Intelligence], la 5G, la blockchain, les NFT et bien d’autres sont toutes situées dans le monde des métavers et représentent une convergence et une mise à l’échelle de ces différents produits, services et visions en un seul ou plusieurs mondes en ligne interopérables », explique le ConsumerLab (1).

Les entreprises vont se « métaverser »
Les consommateurs s’attendent à ce que la 5G continue de pousser l’utilisation améliorée des vidéos au-delà du smartphone, à savoir sur les casques de réalité virtuelle et sur les lunettes connectées : en 2025, au moins 2 heures de contenu vidéo seront consommées chaque semaine sur les appareils mobiles, dont 1,5 heure sur les lunettes AR/VR (voir graphique page suivante). De son côté, le cabinet d’étude américain Gartner est lui aussi confiant en l’avenir du métavers : d’ici 2026, un quart des gens dans le monde passeront au moins 1 heure dans le métavers pour le travail, le shopping, l’éducation, l’interaction sociale et/ou le divertissement. La moitié des utilisateurs de la 5G qui utilisent déjà des services de réalité virtuelle (VR), constate Gartner, pensent que les applications de réalité augmentée (AR) passeront des smartphones aux casques XR d’ici deux ans, alors qu’un tiers seulement des utilisateurs de la 4G le pensent. « Les fournisseurs créent déjà des moyens pour les utilisateurs de reproduire leur vie dans le monde numérique. Qu’il s’agisse d’assister à des classes virtuelles, d’acheter des terrains numériques ou de construire des maisons virtuelles, ces activités se déroulent actuellement dans des environnements distincts. Ils finiront par se dérouler dans un environnement unique – le métavers – avec de multiples destinations », prévoit Marty Resnick (photo de droite), vice-président chez Gartner. Selon lui, comme aucun fournisseur unique possédera le métavers, il faut s’attendre à ce qu’il ait une économie virtuelle activée par les monnaies numériques (les cryptos) et les jetons non-fongibles (NFT). Cela sera aussi valable dans le monde des entreprises, qui pourront se réorganiser avec des espaces de travail immersifs dans des bureaux virtuels, d’autant que les deux années de confinements ou de restrictions sanitaires ont popularisé les visioconférences, les webinars ou encore les téléconsultations.

Lever les doutes persistants
Les entreprises n’auront pas besoin de créer leur propre infrastructure pour le faire parce que le métavers fournira le cadre. « D’ici 2026, 30 % des organisations dans le monde auront des produits et des services prêts pour le métavers », projette Marty Resnick (2). De quoi conforter Mark Zuckerberg, PDG cofondateur de Facebook – géant du Net devenu il y a un an Meta pour mieux embrasser la cause du métavers. Dans son étude d’une cinquantaine de pages (3) commanditée par Meta justement, le cabinet d’études américain Analysis Group évalue l’impact positif du métavers dans son ensemble à 2,8 % du PIB d’ici 2031. La région du monde qui en profitera le plus sera l’Asie-Pacifique (2,3 % du PIB), suivie des Etats-Unis (2,3 %), de l’Europe (1,7 %) et du Moyen-Orient/Afrique du Nord/Turquie (6,2 %). D’autres études tentent aussi de chiffer le futur du métavers : Grand View Research (4) prévoit près de 679 milliards de dollars en 2030 ; McKinsey (5) table sur 5.000 milliards de dollars en 2030 ; Fortune Business Insights (6) avance plus de 500 milliards de dollars en 2029.
Mais les freins aux déploiements des métavers existent, tels que leur impact carbone sur l’environnement (7). Quant aux Etats, ils ne veulent pas y perdre leur « souveraineté culturelle et technologique ». C’est du moins la volonté du gouvernement français qui a publié le 24 octobre un rapport « exploratoire » sur les métavers avec dix propositions (8), dont l’une est la création d’« un institut de recherche et coordination, sur le modèle de l’Ircam » (9).
Il y a aussi et surtout l’attentisme de la plupart des 4,5 milliards d’utilisateurs de réseaux sociaux dans le monde, notamment ceux de la jeune génération « TikTok », qui… attendent de voir. Résultat : les métavers d’aujourd’hui semblent déserts, au grand dam de « Zuck » et de son directeur du métavers, Vishal Shah (photo), lequel a envoyé le 20 septembre à ses propres équipes un memo – révélé le 7 octobre par The Verge – leur disant : « Tout le monde dans cette entreprise [Meta] devrait se donner pour mission de tomber amoureux d’Horizon Worlds [le métaversmaison, ndlr]. Vous ne pouvez pas le faire sans l’utiliser. Allez-y ! » (10). Y-a plus qu’à. @

Charles de Laubier