L’année 2024 sera-t-elle plus « intelligente » que les précédentes ? Les acteurs de l’IA y travaillent

Edition Multimédi@ est partenaire média du 3e World AI Cannes Festival (WAICF), rendez-vous mondial consacré à l’intelligence artificielle et organisé du 8 au 10 février 2024 au Palais des festivals de Cannes. L’occasion de faire le point sur quelques forces en présence d’envergue mondiale.

L’intelligence artificielle, c’est désormais le foisonnement permanent sur fond de bataille des LLM (Large Language Model), ces grands modèles de langage utilisés par les agents conversationnels et les IA génératives, capables d’exploiter en temps réel des milliards voire des dizaines de milliards de paramètres. Depuis le 30 novembre 2022, date du lancement fracassant de ChatGPT (1) d’OpenAI, cornaqué par Microsoft (2), le marché mondial de l’IA ne cesse de prendre de l’ampleur. Alors que les questions sur les IA responsables (éthique, biais, droit d’auteur, droit à l’image, …) sont autant de défis à relever. Parmi les derniers prétendants aux premières places de la course à l’intelligence numérique potentiellement utilisable par des milliards d’êtres humains connectés : Mistral AI, Gemini, Anthropic et Llama, en attendant Ferret… d’Apple.

Mistral AI. La start-up française, devenue licorne (non cotée en Bourse mais valorisée près de 2 milliards d’euros), a été fondée en avril 2023 par Arthur Mensch, Guillaume Lample et Timothée Lacroix. Le 10 décembre dernier, elle a annoncé avoir levé 385 millions d’euros auprès d’investisseurs et a ouvert à l’intention des développeurs sa plateforme open source de modèles génératifs « les plus puissants » dans leur version bêta (3). Arthur Mensch, un ancien « scientist » de chez DeepMind, filiale de Google (tandis que les deux autres cofondateurs viennent de Facebook/Meta), a l’ambition de « créer un champion européen à vocation mondiale dans l’intelligence artificielle ». Son modèle d’IA, baptisé « Mixtral 8x7B », a été présenté comme étant six fois plus rapide que le langage Llama 2 70B du groupe Meta qu’il « surpasse » dans « la plupart des benchmarks ». De plus, « il égale ou surpasse GPT 3.5 [d’OpenAI] » (4).

Gemini. C’est le modèle d’IA « le plus grand et le plus performant » que Google a annoncé le 6 décembre dernier dans un post (5) cosigné par Sundar Pichai, PDG de Google et de sa maison mère Alphabet, et par Demis Hassabis, directeur général et cofondateur en 2010 de la start-up DeepMind Technologies que Google a rachetée il y a dix ans (en janvier 2014) pour quelque 628 millions de dollars. Rebaptisée Google DeepMind et filiale d’Alphabet, elle a rendu disponible la version 1.0 de Gemini (6) qui est déployé dans plusieurs produits et plateformes de la firme de Mountain View (où se trouve le QG Googleplex). L’IA générative Bard, que Google a lancée précipitamment il y aura un an le 6 février (7), profite désormais d’« une version affinée de Gemini Pro pour un raisonnement plus avancé » et il s’agit de « la plus grande mise à jour de Bard depuis son lancement ». Gemini est présenté comme un modèle multimodal (texte, images, audio et vidéo).

Anthropic. Fondée en décembre 2020 par d’anciens d’OpenAI, Dario Amodei et sa sœur Daniela Amodei, la startup Anthropic – dont ils sont respectivement directeur général et présidente – est basée à San Francisco (Californie) comme OpenAI. Ils ont été suivis par sept autres de leurs collègues d’OpenAI. Amazon avait annoncé le 25 septembre 2023 l’injection de 4 milliards de dollars dans Anthropic (8), qui avait levé 1,5 milliard de dollars dix-huit mois auparavant auprès d’investisseurs – dont 300 millions de dollars de Google qui a pris 10 % du capital et a promis à la start-up de lui apporter jusqu’à 2 milliards de dollars en plus. Anthropic, qui recourt au cloud AWS d’Amazon, a lancé en mars 2023 son IA générative appelée Claude (9) (claude.ai), dont la version 2 est disponible depuis juillet dernier. Mais avec son futur « Claude-Next », la rival d’OpenAI se positionne déjà pour se mesurer au futur ChatGPT-5 attendu cette année.

Llama. Cela fera un an, le 24 février prochain, que Meta Platforms (ex-Facebook) a lancé « LLaMA » (Large Language Model Meta AI), son grand modèle de langage en open source (10). La firme de Mark Zuckerberg a ensuite annoncé le 18 juillet dernier la version Llama 2 en partenariat avec Microsoft (pour utiliser son cloud Azure), mais en la rendant aussi disponible chez Amazon Web Services (AWS), Hugging Face et d’autres fournisseurs. « Llama 2 est gratuit pour la recherche et l’utilisation commerciale », précise Meta (11). Le géant de Menlo Park (Californie) utilise aussi son IA pour créer de nouvelles fonctions sur ses réseaux sociaux Instagram, Facebook et WhatsApp. Le 7 décembre, il a présenté « Purple Llama », une boîte à outils également en open source pour la sécurité et la confiance en matière d’IA responsable (12). Rappelons que le directeur général de l’intelligence artificielle de Meta est le Français Yann Le Cun, recruté il y a dix ans maintenant (en décembre 2013) et basé à New-York. @

Charles de Laubier

Un an après avoir lancé ChatGPT, aux airs de « Google-killer », OpenAI prépare un « smartphone-killer »

La start-up californienne OpenAI, cofondée par son actuel DG Sam Altman et devenue licorne valorisée presque 100 milliards de dollars, défraie la chronique depuis le lancement de ChatGPT il y a un an. Après avoir déstabilisé Google, elle veut lancer un petit terminal « smartphone-killer » boosté à l’IA. (Vendredi 17 novembre 2023 au soir, heure de Paris, soit peu après le bouclage du n°310 de Edition Multimédi@ faisant sa Une sur OpenAI et Sam Altman, nous apprenions le limogeage surprise de ce dernier par son conseil d’administration. Vingt-quatre heure après, OpenAI revenait sur sa décision… Après avoir hésité à rejoindre Microsoft prêt à l’embaucher, Sam Altman a finalement trouvé le 22 novembre un accord avec OpenAI – avec le soutien du bailleur de fonds Microsoft – pour finalement y retourner !) Google et Apple pourraient bien être les prochaines victimes collatérales d’OpenAI. Car la licorne à l’origine de l’IA générative ChatGPT, lancée il y a un an presque jour pour jour, accélère son offensive technologique. D’une part, elle a organisé le 6 novembre sa toute première conférence des développeurs, OpenAI DevDay, où ont notamment été lancés un « GPT-4 Turbo » et des interfaces de programmation (API) pour créer des agents conversationnels personnalisés intégrables dans des applications ou pour développer son propre « ChatGPT » autonome sans codage (1). En mettant le turbo, OpenAI veut faire une super-IA tout-en-un capable de générer par elle-même aussi bien du texte et des images, mais aussi de l’audio et de la vidéo. Le 9 novembre, un programme open source baptisé « OpenAI Data Partnerships » (2) a même été lancé pour exploiter tous azimuts des données publiques et privées afin de former encore plus largement les IA génératives. Ce qui positionne la future plateforme IA intégrée d’OpenAI comme un potentiel « Google-killer ». D’autre part, son PDG cofondateur Sam Altman (photo) avait confirmé dès fin septembre être en « discussions avancées » avec l’ancien designer de l’iPhone chez Apple, l’Américano-britannique Jony Ive, et le PDG fondateur du conglomérat Softbank, le Japonais Masayoshi Son, autour d’un projet de lancement d’un terminal à intelligence artificielle susceptible de remplacer à terme les smartphones (3). Un trio de rêve : OpenAI-Softbank-LoveFrom Parallèlement, mais sans lien a priori avec ce projet d’appareil, Sam Altman a dit le 13 novembre au Financial Time qu’il demandait à Microsoft des fonds supplémentaires, en plus des 10 milliards de dollars déjà accordés sur plusieurs années par ce dernier, afin de rendre l’IA encore plus intelligente – vers le futur ChatGPT-5 et au-delà (4). Il faudra en tout cas attendre de nombreux mois avant que ne voit le jour le terminal IA grand public rêvé par OpenAI, LoveFrom (société de design créée en 2019 par Jony Ive (5) qui a recruté d’anciens collègues d’Apple comme Marc Newson) et Softbank, dont la filiale britannique ARM pourrait produire les puces. Mais les trois entrepreneurs ont sûrement dû suspendre leur brainstorming, le temps de suivre le lancement d’un petit terminal boosté à l’IA conversationnelle et sans écran (à épingler ou à magnétiser sur un vêtement ou un sac), baptisé Ai Pin. Présenté le 9 novembre et en précommande depuis le 16 novembre aux Etats-Unis, sa disponibilité est prévue début 2024 – sans encore de date pour l’Europe. Avec son « Ai Pin », Humane montre la voie Son concepteur : la start-up californienne Humane, cofondée en 2017 par deux anciens dirigeants d’Apple (l’exdirecteur design Imran Chaudhri et l’ex-directrice logiciel Bethany Bongiorno), mari et femme dans la vie. Respectivement président et directrice générale, ils se sont entourés de dizaines d’anciens employés de la marque à la pomme spécialistes de design, d’écran ou encore de cloud – tous placés sous la houlette de Patrick Gates ancien directeur ingénierie d’Apple et actuel Chief Technology Officer (CTO) de Huname. Et parmi sa dizaine d’investisseurs, auprès desquels Humane a levé à ce jour 230 millions de dollars, il y a… Sam Altman, sans que l’on sache combien le patron d’OpenAI a mis de sa poche aux côtés de Kindred Ventures, SK Networks, LG Technology Ventures, Microsoft, Volvo Cars Tech Fund, Tiger Global ou encore Qualcomm Ventures. Et comme le monde est décidément petit : la licorne OpenAI et les start-up LoveFrom et Humane, avec lesquelles elle croit en une sorte de « smartphone-killer », sont toutes les trois basées à San Francisco, en Californie. De la taille d’une petite boîte d’allumettes, Ai Pin de Humane répond au doigt et à la voix grâce à respectivement son micro et son pavé tactile intuitif. En faisant des gestes ou en interagissant via l’écran à encre laser projeté sur sa paume, l’épingle IA peut être utilisée aisément au quotidien et lors des déplacements. Son prix – moitié moins élevé qu’un iPhone – est de 699 dollars (6) auquel s’ajoute un abonnement de 24 dollars par mois comprenant : un numéro de téléphone portable dédié au Ai Pin – grâce à une carte eSIM intégrée – et un nombre illimité de conversations, de SMS et de data, avec un stockage dans le cloud. Le 9 novembre, Humane a annoncé aussi être un opérateur mobile virtuel (MVNO) aux Etats-Unis et en partenariat exclusif avec T-Mobile US – le troisième plus grand opérateur télécoms américain, derrière AT&T et Verizon. D’après ses spécifications (7), le petit bijou de technologie de Humane prend des photos à 13 mégapixels (4.208 x 3.120 px) et des vidéos (dont la résolution n’est en revanche pas encore indiquée). Mais comment sans écran savoir si le sujet est bien cadré ? L’IA (AI-Powered Photographer) et la projection laser sur la main du photographe pourraient faire l’affaire. Côté musique, la plateforme de streaming Tidal (d’origine norvégienne et ex-plateforme musicale du rappeur Jay-Z) est accessible et optimisée à l’IA. Sam Altman ne manquera sûrement pas de s’inspirer de l’Ai Pin pour son futur « OpenAI device », qui a l’ambition d’être à l’IA ce que l’iPhone fut à l’écran tactile – ce qui pourrait être… une vraie épine dans le pied d’Apple. Le multimilliardaire Masayoshi Son, 69e fortune mondiale (8), serait prêt à investir 1 milliard de dollars – sans doute via l’un de ses deux Vision Funds (9) – dans une joint-venture avec le patron de ChatGPT (OpenAI) et le designer Jony Ive (LoveFrom), d’après le Financial Times (10). A l’instar de Humane qui a pris de l’avance avec son Ai Pin, le trio Altman-Son-Ive vise aussi à ne plus être dépendant des écrans et à accroître l’interaction entre l’homme et l’IA. Une fois l’appareil IA conçu, la licence OpenAI deviendrat-elle aussi un MVNO ? Pour peu que le « device » d’OpenAI ait lui aussi son eSIM intégrée. Il se trouve que le géant japonais Softbank de Masayoshi Son est aussi actionnaire minoritaire de T-Mobile US (3,3 % du capital après avoir fusionné Sprint avec T-Mobile US) et, en Europe, de Deutsche Telekom (4,5 %) : cela pourrait aider par la suite… « Google-killer », « Apple-killer », « smartphone-killer », … Cette nouvelle génération d’AI wearables (dispositifs portables basés sur l’intelligence artificielle) pourrait faire des ravages si le grand public décidait de se les approprier. Le moteur de recherche classique de Google, dont la toute première mise en ligne de la version bêta date d’il y a un quart de siècle, a déjà été court-circuité par les Assistant (Google), Alexa (Amazon) et autres Siri (Apple). Avec les IA génératives et la commande vocale assistée par l’IA, sa position dominante va être sérieusement contestée. Pour tenter d’assurer ses arrières la filiale d’Alphabet est prise d’agitations : non seulement Google pousse son IA générative Bard, mais a aussi investi 300 millions de dollars pour prendre 10 % du capital d’Anthropic (11), un rival d’OpenAI. Sam Altman, le futur « Steve Jobs » ? Depuis le succès planétaire de son iPhone et de son système d’exploitation iOS, lancés il y a plus de quinze ans par Steve Jobs, Apple n’a pas vraiment innové depuis avec un nouvel appareil disruptif. Comme si le PDG de la firme de Cupertino depuis fin août 2011, Tim Cook, s’était endormi sur les lauriers de Steve Jobs décédé début octobre de la même année. Les nombreux transfuges d’Apple partis chez Humane ou chez LoveFrom en disent long : la marque à la pomme ne fait plus rêver. Avec son épingle Ai Pin et son système d’exploitation Cosmos (« AIby-design »), Humane prend des airs d’« Apple-killer » voire d’« iOS-killer ». A moins que le trio Altman-Son-Ive ne donne le coup de grâce au « capitaine » Cook. @

Charles de Laubier

Le ministère de la Culture et l’Arcom (ex-CSA+ Hadopi) scrutent les usages « Google Images »

La nouvelle ministre de la Culture, Rima Abdul Malak, et l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) se penchent sur les usages de la photographie en ligne, à la lumière d’une étude présentée le 8 juin dernier. Pour relancer le projet de taxe « Google Images » ? Si l’étude de l’Arcom sur la photographie en ligne – en deux parties, l’une sur le volet économique et l’autre sur les usages des internautes – fait grand cas de Google Images, qui est « de loin le moteur de recherche le plus utilisé pour la recherche d’images », aucune mention n’est cependant faite sur l’ancien projet de redevance sur les images indexées par les Google, Yahoo, Microsoft Bing ou autres Qwant. Cette taxe « Google Images » est bien prévue par la loi « Création » du 7 juillet 2016. Mais depuis six ans, elle n’a jamais vu le jour. A la lumière de l’étude de l’Arcom, le ministère de la Culture va-t-il finalement l’instaurer ? Demander des comptes aux moteurs Pour mémoire, loi « Création » du 7 juillet 2016 prévoit en effet un « dispositif relatif aux services automatisés de référencement d’images », à la suite d’un amendement déposé par Jean-Pierre Leleux, alors sénateur, et adopté : « Cet amendement vise à instaurer un mécanisme permettant d’assurer la rémunération des auteurs d’œuvres d’art plastiques, graphiques et photographiques ou de leurs ayants droit pour les images que les moteurs de recherche et de référencement s’approprient aujourd’hui sans autorisation et mettent à la disposition du public sur Internet », était-il justifié (1). Un projet de décret avait ensuite été notifié, le 5 septembre 2016, à la Commission européenne (2). Mais c’était sans compter sur un avis négatif du Conseil d’Etat qui, en février 2017, a pointé « les risques juridiques » (3) au regard notamment d’une décision du 16 novembre 2016 de la Cour de justice de l’Union européenne (CJUE). Celle-ci estimait qu’un tel mécanisme de gestion collective obligatoire applicable aux moteurs de recherche d’images ne pouvait pas être mis en œuvre à un niveau national sans être expressément autorisé par le droit européen. L’affaire en était restée là, jusqu’à ce que la directive européenne de 2019 sur « le droit d’auteur et les droits voisins dans le marché unique numérique » ne permette ces « licences collectives » – dans son article 12 justement (4). Et depuis un an, en France, la Société des auteurs dans les arts graphiques et plastiques (ADAGP) se verrait bien – avec la Société des auteurs des arts visuels et de l’image fixe (SAIF) – être le gestionnaire de cette taxe « Google Images » (5). Cela fait maintenant un an – depuis le 7 juin 2021 – que la directive « Copyright » est censée être transposée par chacun des Vingt-sept, et la France se fait fort de l’appliquer en premier. Présentée par Raphaël Berger (photo), directeur de la création à l’Arcom et ancien directeur des études et de l’offre légale à l’Hadopi (laquelle a fusionné avec le CSA pour former l’Arcom au 1er janvier 2022), cette étude sur la photographie en ligne a été réalisée dans le cadre de sa mission « d’observation des usages en ligne et d’évaluation des mesures de protection des œuvres sur les plateformes de partage de contenus ». L’un des principaux constats est que « Google est de loin le moteur de recherche le plus utilisé pour la recherche d’images » (83 % des 15 ans et plus, voire 88 % des 50-64 ans et plus), loin devant Yahoo, Microsoft Bing ou Qwant. Leurs trois premiers avantages : le large choix de photos, la possibilité de trouver des photos libres de droit, et la possibilité de faire une recherche précise par mots-clés. En revanche, relève l’Arcom, « le fait que les photos ne soient pas toujours libres de droit constitue le principal reproche formulé à l’encontre des moteurs de recherche ». Quant aux réseaux sociaux, ils sont aussi utilisés pour rechercher des photos – Facebook (57 % des 15 ans et plus, voire 73 % des 65 ans et plus), Instagram et YouTube étant en tête des usages « photographiques ». Globalement, l’Arcom signale que « plus de la moitié [52 %] de ceux recherchant des photos en ligne ont déjà entendu parler des mesures techniques de protection (MTP) qui permettent de protéger les œuvres en empêchant la copie non autorisée ». En revanche, les métadonnées des photos sont relativement peu connues : seuls 16 % savent de quoi il s’agit (6). Entre « sites illicites » et droit d’auteur Autre enseignement : plus d’un tiers des internautes (35 %) qui recherchent des photos en ligne déclarent avoir recours à des « sites illicites » pour rechercher des photos. Mais ce qui saute aux yeux, d’après l’étude de l’Arcep, c’est la « bonnes connaissances relatives » sur le droit d’auteur (7) pour 60 % des internautes. Dommage que l’Arcom n’ait pas saisi l’occasion de cette étude pour demander aux internautes leur avis sur l’éventualité d’une taxe « Google Images » versés par les moteurs de recherche et les réseaux sociaux aux auteurs et photographes via des organismes de gestion collective des droits. @

Charles de Laubier

Deepfake : les vidéos truquées à l’intelligence artificielle sous l’œil du Parlement européen

Le création « deepfake » – consistant à manipuler des contenus vidéo, des images et/ou de l’audio – permet d’obtenir des résultats ultra-réalistes grâce à l’intelligence artificielle. Parodies ou désinformations, ces « hypertruquages » seront encadrés par le futur règlement européen AIA.

Le futur « Artificial Intelligence Act » que le Parlement européen examine actuellement en commissions aura un droit de regard sur les vidéos truquées et les contenus manipulés relevant de la pratique très en vogue du « deepfake » (1) – nom composé à partir de deep learning et de fake news. La commission « marché intérieur et protection des consommateurs » (Imco), tête de file dans le processus législatif de ce projet de règlement européen (2), a comme rapporteur l’eurodéputé italien Brando Benifei (photo). Selon nos informations, « un échange de vues avec les représentants de la Commission européenne » a eu lieu avec lui le 27 octobre dernier.

Article 1er du Artificial Intelligence Act
Prochaines réunions de la commission Imco : les 1er et 9 décembre prochains. Le projet de règlement Artificial Intelligence Act (AIA) sera à nouveau à l’ordre du jour et vient en complément des deux autres projets législatifs du numérique, les Digital Services Act (DSA) et Digital Markets Act (DMA), eux aussi en cours d’examen (lire p. 6 et 7). Il y sera aussi question de deepfake car dès l’article 1er du projet de législation sur l’intelligence artificielle, il est fait explicitement mention des « systèmes d’IA utilisés pour générer ou manipuler des images ou des contenus audio ou vidéo » qui devront être soumis à « des règles harmonisées en matière de transparence ».
Celles-ci sont précisées ensuite à l’article 52 du projet AIA : « Les utilisateurs d’un système d’IA – qui génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d’autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques (“hypertrucage”) – précisent que les contenus ont été générés ou manipulés artificiellement ». Si les deepfakes ne sont pas les seuls systèmes d’IA qui seront soumis à des obligations « en raison des risques spécifiques de manipulation qu’ils présentent » – les chatbots/robots conversationnels et les détecteurs biométriques automatisés d’émotions ou de catégorie sociale sont eux aussi dans le collimateur –, les « hypertrucages » audiovisuels occupent une place importante tant leur pratique se répand comme une traînée de poudre sur Internet, réseaux sociaux en tête. « Si un système d’IA est utilisé pour générer ou manipuler des images ou des contenus audio ou vidéo afin de produire un résultat qui ressemble sensiblement à un contenu authentique, il devrait être obligatoire de déclarer que le contenu est généré par des moyens automatisés, sauf pour certaines finalités légitimes faisant l’objet d’exceptions (domaine répressif, liberté d’expression) », précise le projet de règlement AIA dans ses motifs (3). La difficulté du Parlement européen va être d’encadrer la pratique de ces trucages vidéo ultra-réalistes sans pour autant porter atteinte à la liberté d’expression et à la liberté créative. Leurs auteurs de ces « photomontages » nouvelle génération dopés à l’IA ne seront théoriquement pas soumis à la censure ni victimes de chasse aux fausses informations, même si le projet de règlement n’évoque pas le droit à la critique, à la citation, à la caricature, à la parodie et au pastiche (relevant des exceptions au droit d’auteur). Pour autant, « [si] la ressemblance avec des personnes, des lieux ou des événements existants pourrait porter à croire qu’il s’agit de documents authentiques », les créateurs de deepfakes devront les déclarer. « Les deepfakes peuvent soulever des questions de droit d’auteur », indique à Edition Mulimédi@ Olivier Japiot, président du CSPLA (4).
Mais avant que le règlement AIA n’entre en vigueur en Europe, probablement en même temps les règlements DSA et DMA dont les adoptions par les eurodéputés sont attendues au printemps prochain durant la présidence française de l’Union européenne, les deepfakes n’en font qu’à leur tête. Le dernier Web Summit, grand-messe annuelle du numérique qui s’est déroulée début novembre à Lisbonne au Portugal, les a évoqués comme « un danger » mais aussi comme une révolution des médias et du divertissement. Des applications à portée de grand public (gratuites ou payantes) ont fait parler d’elles : Reface, Face Swap Live Lite, FaceApp, Mug Life ou encore Motionleap.

Deepfakes, effets spéciaux et copyright
Les truquages hyperréalistes sont aussi de mise sur TikTok ou Snapchat. Le studio hollywoodien cinquantenaire Lucasfilm, filiale de Disney, a même recruté en juillet dernier un YouTuber spécialiste du genre, un « deepfaker » déchaîné surnommé Shamook (5). Il commettra ses détournements vidéo au sein de la division Industrial Light and Magic (ILM) créée en 1975 pour les effets spéciaux par George Lucas, lequel aujourd’hui injecte dans ses films et séries de l’IA et du machine learning. La révolution « deepfake » n’a pas fini de singer l’audiovisuel et le droit d’auteur. @

Charles de Laubier

Pinterest a 10 ans : entre fake news et la Bourse

En fait. Le 25 février, un porte-parole de Pinterest a confirmé à l’AFP que le réseau social de partage de photos bloquait les recherches d’informations
sur les vaccins relevant de la désinformation « antivaccins ». Pours ses dix ans, Pinterest fait parler de lui – avant son entrée en Bourse prévue fin juin.