Le Monde en France, El País en Espagne, Die Welt en Allemagne : OpenAI séduit la presse au cas par cas

OpenAI a réussi à convaincre de grands titres de presse en Europe – Le Monde, El País et Die Welt – et, aux Etats-Unis, l’agence de presse AP et l’American Journalism Project pour que son IA générative ChatGPT soit plus au fait de l’actualité dans des langues différentes. Le New York Times, lui, a préféré un procès.

Le directeur des opérations d’OpenAI, Brad Lightcap (photo), n’est pas peu fier d’avoir décroché des accords pluriannuels avec les grands quotidiens européens Le Monde en France, El País en Espagne et Die Welt en Allemagne. « En partenariat avec Le Monde et Prisa Media [éditeur d’El País], notre objectif est de permettre aux utilisateurs de ChatGPT du monde entier de se connecter à l’actualité de façon interactive et pertinente », s’est-il félicité le 13 mars dernier lors de l’annonce des deux accords noués pour plusieurs années avec respectivement le groupe français Le Monde pour son quotidien éponyme et le groupe espagnol Prisa Media pour son quotidien El País, de même que pour son quotidien économique et financier Cinco Días et son site d’actualités El Huffpost. Trois mois auparavant, ce même Brad Lightcap annonçait un premier partenariat avec le groupe allemand Axel Springer pour son quotidien Die Welt, et son tabloïd Bild, ainsi que pour ses sites d’information Politico (édition européenne) et Business Insider (économie et finances).

ChatGPT, polyglotte et informé : merci la presse européenne
« Ce partenariat avec Axel Springer aidera à offrir aux gens de nouvelles façons d’accéder à du contenu de qualité, en temps réel, grâce à nos outils d’IA. Nous sommes profondément engagés à nous assurer que les éditeurs et les créateurs du monde entier bénéficient de la technologie avancée de l’IA et de nouveaux modèles de revenus », avait alors assuré le directeur des opérations d’OpenAI. Ces « partenariats mondiaux d’information » permettent à ChatGPT d’européaniser un peu plus ses capacités d’informer en mettant à contribution trois premiers quotidiens du Vieux Continent, de trois langues différentes (français, espagnol et allemand). Et ce, après avoir largement entraîné en anglais ses grands modèles de langage « Generative Pre-trained Transformer » (GPT, GPT-2, GPT-3 et l’actuel GPT-4, en attendant GPT-5 en cours de développement). Avant les groupes européens Le Monde, Prisa Media et Axel Springer, OpenAI avait conclu aux Etats-Unis deux partenariats signés en juillet 2023 avec respectivement Continuer la lecture

Un an après avoir lancé ChatGPT, aux airs de « Google-killer », OpenAI prépare un « smartphone-killer »

La start-up californienne OpenAI, cofondée par son actuel DG Sam Altman et devenue licorne valorisée presque 100 milliards de dollars, défraie la chronique depuis le lancement de ChatGPT il y a un an. Après avoir déstabilisé Google, elle veut lancer un petit terminal « smartphone-killer » boosté à l’IA.

(Vendredi 17 novembre 2023 au soir, heure de Paris, soit peu après le bouclage du n°310 de Edition Multimédi@ faisant sa Une sur OpenAI et Sam Altman, nous apprenions le limogeage surprise de ce dernier par son conseil d’administration. Vingt-quatre heure après, OpenAI revenait sur sa décision… Après avoir hésité à rejoindre Microsoft prêt à l’embaucher, Sam Altman a finalement trouvé le 22 novembre un accord avec OpenAI – avec le soutien du bailleur de fonds Microsoft – pour finalement y retourner !)

Google et Apple pourraient bien être les prochaines victimes collatérales d’OpenAI. Car la licorne à l’origine de l’IA générative ChatGPT, lancée il y a un an presque jour pour jour, accélère son offensive technologique. D’une part, elle a organisé le 6 novembre sa toute première conférence des développeurs, OpenAI DevDay, où ont notamment été lancés un « GPT-4 Turbo » et des interfaces de programmation (API) pour créer des agents conversationnels personnalisés intégrables dans des applications ou pour développer son propre « ChatGPT » autonome sans codage. En mettant le turbo, OpenAI veut faire une super-IA tout-en-un capable de générer par elle-même aussi bien du texte et des images, mais aussi de l’audio et de la vidéo. Le 9 novembre, un programme open source baptisé « OpenAI Data Partnerships » a même été lancé pour exploiter tous azimuts des données publiques et privées afin de former encore plus largement les IA génératives. Ce qui positionne la future plateforme IA intégrée d’OpenAI comme un potentiel « Google-killer ». D’autre part, son PDG cofondateur Sam Altman (photo) avait confirmé dès fin septembre être en « discussions avancées » avec l’ancien designer de l’iPhone chez Apple, l’Américano-britannique Jony Ive, et le PDG fondateur du conglomérat Softbank, le Japonais Masayoshi Son, autour d’un projet de lancement d’un terminal à intelligence artificielle susceptible de remplacer à terme les smartphones (1).

Un trio de rêve : OpenAI-Softbank-LoveFrom
Parallèlement, mais sans lien a priori avec ce projet d’appareil, Sam Altman a dit le 13 novembre au Financial Time qu’il demandait à Microsoft des fonds supplémentaires, en plus des 10 milliards de dollars déjà accordés sur plusieurs années par ce dernier, afin de rendre l’IA encore plus intelligente – vers le futur ChatGPT-5 et au-delà (2). Il faudra en tout cas attendre de nombreux mois avant que ne voit le jour le terminal IA grand public rêvé par OpenAI, LoveFrom (société de design créée en 2019 par Jony Ive qui a recruté d’anciens collègues d’Apple comme Marc Newson) et Softbank, dont la filiale britannique ARM pourrait produire les puces. Mais les trois entrepreneurs ont sûrement dû suspendre leur brainstorming, le temps de suivre le lancement d’un petit terminal boosté à l’IA conversationnelle et sans écran (à épingler ou à magnétiser sur un vêtement ou un sac), baptisé Ai Pin. Présenté le 9 novembre et en précommande depuis le 16 novembre aux Etats-Unis, sa disponibilité est prévue début 2024 – sans encore de date pour l’Europe. Son concepteur : la start-up californienne Humane, cofondée en 2017 par Continuer la lecture

Mark Zuckerberg prend de l’avance dans la création d’un métavers intelligent d’envergure mondiale

Le patron fondateur de Meta Platforms (ex-groupe Facebook) a étonné tout son monde en accordant fin septembre – au chercheur du MIT Lex Fridman situé à distance – une interview dans le métavers avec des avatars photoréalistes. A coût de milliards de dollars, il avance vers un métavers intelligent.

Meta Platforms ne parle pas explicitement de « métavers intelligent », mais ses investissements dans à la fois les mondes virtuels immersifs et l’intelligence artificielle en montrent la voie. La conférence Meta Connect des 27 et 28 septembre derniers a été un rendez-vous international axé sur « l’IA et les réalités virtuelle, mixte et augmentée » (1). Pour « repousser les limites de la réalité », Mark Zuckerberg (son avatar photoréaliste ci-contre) a payé de sa personne afin de donner vie à la « réalité mixte » – désignation qu’il préfère au terme réducteur « métavers ».

RL : 7,7 Mds de $ engloutis en six mois
L’ambition de « Zuck », surnom du PDG fondateur de Facebook, – rebaptisé Meta Platforms il y aura deux ans le 21 octobre prochain – est de « construire l’avenir de la connexion humaine ». Rien de moins. Depuis l’accueil plus que mitigé de son métavers Horizon Worlds (2) et la suppression de milliers d’emplois qui s’en est suivie, la maison mère de Facebook, Messenger, Instagram et WhatsApp reste une cash machine (3) et continue de dépenser des milliards de dollars via sa division Reality Labs (ex-FRL), laquelle réunit : réalité virtuelle (VR), réalité augmentée (AR), casques Meta Quest (4), visio-écrans Meta Portal et wearables, comme les lunettes connectées Ray-Ban du fabricant franco-italien EssilorLuxottica. Résultat : Reality Labs (RL) affiche plus de 7,7 milliards de dollars de pertes opérationnelles au 30 juin 2023, contre 5,7 milliards de dollars de pertes un an auparavant. Rien que sur l’année 2022, RL affichait une perte opérationnelle de plus de 15,8 milliards de dollars, contre 12,4 milliards de dollars de pertes l’année précédente.
Si, durant sa keynote du 27 septembre au Meta Connect, Mark Zuckerberg n’a pas prononcé le terme « metaverse », lui préférant « mixed reality », le groupe Meta Platforms, lui, n’en fait pas un tabou : « Nous faisons des investissements importants dans nos efforts de métavers, y compris dans le développement d’appareils de réalité virtuelle et augmentée, de logiciels pour les plateformes sociales, d’interfaces neuronales et d’autres technologies de base pour le métavers », indique le rapport financier semestriel du 27 juillet dernier (résultats au 30 juin). Et de prévenir que Reality Labs va continuer à creuser ses pertes opérationnelles, inscrivant ses efforts d’investissement sur le long terme. « Notre segment RL a réduit notre bénéfice d’exploitation global de 2022 d’environ 13,72 milliards de dollars, et nous nous attendons à ce que nos pertes d’exploitation RLcontinuent d’augmenter en 2023 et au-delà, prévient le même rapport. Nous nous attendons à ce que ce soit une initiative complexe, évolutive et à long terme, et notre capacité à soutenir nos efforts de métavers dépend de la génération de profits suffisants dans d’autres domaines de notre entreprise ». Meta pousse donc les feux dans les avatars, les chatbots (assistants conversationnels) et les stickers (images personnalisées) alimentés par des IA, de grands modèles de langage (LLM) et du machine learning (ML). Et l’interview accordée au chercheur du MIT Lex Fridman, situé à des kilomètres de distance mais avec leurs deux avatars très réalistes face-à-face (5), en a bluffé plus d’un.
Lors de cet échange retranscrit par le chercheur (6), Zuck a néanmoins prononcé plusieurs le mot « metaverse » : « La chose que vous pouvez faire dans le metaverse, qui est différente de ce que vous pouvez faire sur un téléphone, est de faire des choses où vous êtes physiquement ensemble et de participer à des choses ensemble. Et nous pourrions jouer à des jeux ». Et même si vous n’êtes pas disponible physiquement pour interagir via votre avatar photoréaliste, l’IA peut prendre le relais, comme l’a expliqué l’avatar de Zuck : « Si vous pouviez avoir une version avatar de vous-même dans le métavers et avec laquelle les gens peuvent interagir, vous pourriez définir ce genre de version d’IA où les gens savent qu’ils interagissent avec une IA, que ce n’est pas la version physique de vous (…). Une grande partie de la thèse derrière tout le métavers, c’est de donner aux gens la capacité de se sentir comme si vous étiez présent avec quelqu’un ».

Des chatbots et stickers animés par des IA
Le 27 septembre, la firme de Menlo Park (Californie) a annoncé le lancement – sur WhatsApp, Instagram et Messenger, bientôt sur les lunettes Ray-Ban Meta et les casques Quest 3 – de chatbots et de stickers rendus intelligents grâce à l’IA – Meta AI en version bêta. Des dizaines d’autres IA sont aussi activées, notamment celles conçues « avec des traits de personnalité uniques (…) interprétées par des figures culturelles et des personnalités influentes comme Snoop Dogg, Tom Brady, Kendall Jenner ou Naomi Osaka ». D’autres AI seront à la disposition d’entreprises, de créateurs et de développeurs, lesquels pourront utiliser l’AI Studio mis à disposition du grand public. @

Charles de Laubier

Après ChatGPT, les robots conversationnels se bousculent sur le marché de l’IA générative

Les chatbots conversationnels se bousculent au portillon, dans le sillage de ChatGPT. La concurrence s’organise sur marché mondial qui annonce des chamboulements colossaux dans les moteurs de recherche sur Internet, encore dominés par Google. Plus pour longtemps.

Après ChatGPT que la start-up américaine OpenAI – dirigée par son cofondateur Sam Altman (photo) – a lancé le 30 novembre 2022 (1) avec un succès médiatique sans précédent, Bard tente de se lancer à sa poursuite après avoir été annoncé le 6 février dernier par Google mais réservé encore quelques semaines à un nombre limité de happy few testeurs (2). Le lendemain, Microsoft – qui a investi des milliards de dollars dans OpenAI – a annoncé la mise en test dans son moteur de recherche Bing (3) du modèle de traitement du langage naturel utilisé par ChatGPT (Generative Pre-trained Transformer). Et ce n’est pas fini.

La bataille des IA génératrices fait rage
Le 24 février, c’est au tour de Meta de lancer son LLaMA – à des fins de tests également (4). Trois jours après, il est question que Elon Musk – lequel a été un des cofondateurs d’OpenAI – se lance lui aussi dans la course à l’IA générative (5). Au même moment, à savoir le 27 février, Snap y va aussi de son robot conversationnel (chatbot) qui répond au nom de « My AI », également disponible à titre expérimental (6). Toutes ces initiatives ne sont que la face émergée de l’intelligence artificielle conjuguée aux traitements de langage naturel et à l’exploitation de mégabases de données, lorsque que l’IA générative n’est pas aussi connectée au Web (7). Il existe bien d’autres IA créatrices, telles que : Dall.E 2, développée par OpenAI, pour créer des images et des œuvres d’art originales et réalistes à partir d’une description textuelle ; Stable Diffusion, développée par Stability AI, en tant que modèle d’apprentissage automatique (deep learning), permettant de générer des images numériques réalistes à partir de descriptions en langage naturel ; Midjourney, développée par le laboratoire de recherche éponyme, aussi une IA générative conçue pour générer des images à partir de texte ; Cedille, un modèle de génération de texte francophone développé par la société suisse Coteries (8).
Pour conforter son avance, OpenAI a lancé le 1er mars une interface de programmation (API) pour faciliter partout l’intégration de ChatGPT et de Whisper (voix à texte). Textes, photos, vidéos, musiques, … Les IA génératrices s’immiscent dans tous les domaines et cela ne date pas d’hier. Par exemple, la nouvelle musique « des Beatles » baptisée « Daddy’s Car » avait fait sensation en septembre 2016 sur YouTube (9). Or, en réalité, ce titre a été composé par l’équipe « Musique et IA » du laboratoire Sony CSL (10). Il a été créé dans le style des Beatles par le scientifique François Pachet et le musicien Benoît Carré akaSkygge (« ombre » en danois) à l’aide de Flow Machines, une IA « mélomane » (11). Avec elle, ils ont créé en 2018 un album intitulé « Hello World ». François Pachet est aujourd’hui directeur chez Spotify en charge du « développement de la prochaine génération d’outils de composition musicale assistée par IA ».
L’industrie musicale va être bousculée, tout comme l’industrie de l’édition (livre et presse). Le cinéma n’y échappera pas non plus (scénarios et séries). Toutes les industries culturelles et créatives seront impactées, avec les questions de droit d’auteur et de propriété intellectuelle que cela soulève. Par exemple, l’agence photo américaine Getty Images (également banque d’images) a annoncé le 17 janvier porter plainte contre Stability AI (l’éditeur de Stable Diffusion) pour lui avoir « illégalement copié et traité des millions d’images protégées par le droit d’auteur et les métadonnées associées » (12). Plus récemment, le 21 février, le Copyright Office américain a conclu que les images de la bande dessinée « Zarya of the Dawn » créées par l’IA Midjourney, ne peuvent pas être protégées par le droit d’auteur (13). Quant aux « deepfake », ces vidéos hyperréalistes truquées à l’IA, elles commencent pour certaines à poser problème (14). La Chine vient de les interdire (15). La justice commence à faire bouger les lignes (16) et l’Union européenne s’apprête à promulguer son règlement « Artificial Intelligence Act » (17) pour réguler les systèmes d’IA « à haut risque ». Cela irait dans le sens de Brad Smith, président de Microsoft, pour qui « une réglementation efficace en matière d’IA devrait être axée sur les applications les plus à risque ».

Aussi pour des entreprises plus « intelligentes »
Il y a encore peu d’études sur cette vague innovante de création automatique de contenus. Le marché mondial de l’IA générative pourrait être multiplié par dix d’ici la décennie en cours, pour dépasser en 2030 les 100 milliards de dollars. « D’ici 2025, nous nous attendons à ce que plus de 30 % – contre zéro aujourd’hui – de nouveaux médicaments et de nouveaux matériaux soient systématiquement découverts à l’aide de techniques d’IA génératives. Et ce n’est là qu’un des nombreux cas d’utilisation par l’industrie », prévoit Brian Burke, vice-président de la recherche en innovation technologique au sein du cabinet d’études Gartner. @

Charles de Laubier

Interview exclusive avec le robot ChatGPT d’OpenAI

En fait. Le 14 décembre, ChatGPT, l’intelligence artificielle créée par la start-up OpenAI, a répondu à EM@. Les questions portaient sur ChatGPT lui-même, en tant que robot conversationnel, capable de générer du texte intelligible en fonction de ce qu’on lui dit. Faute d’être connecté au Web, il est limité.

En clair. Edition Multimédi@ a débuté l’interview avec ChatGPT en lui demandant qui il est. Le chatbot (agent conversationnel) répond : « Je suis assistant, un grand modèle linguistique formé par OpenAI. Je suis une intelligence artificielle conçue pour aider à répondre aux questions et à fournir de l’information sur un large éventail de sujets. Je n’ai pas de forme physique et j’existe uniquement comme programme informatique ». A-t-il des concurrents dans le monde ? « En tant que grand modèle linguistique, répond ChatGPT, je n’ai pas de concurrents directs au sens traditionnel. Cependant, il y a d’autres assistants en IA et d’autres modèles linguistiques qui me ressemblent à certains égards [comme] Siri d’Apple, Alexa d’Amazon, et Assistant de Google […], mais ils peuvent différer dans leurs capacités ».
Connaît-il aussi par exemple son homologue suisse Cedille (1) développé par la société Coterie, comme lui s’appuyant sur le modèle de langage GPT-3 d’OpenAI, mais francophone ? « Je suis désolé, mais je ne suis pas en mesure de naviguer sur Internet ou d’accéder à de l’information en dehors de mes données de formation. Par conséquent, je n’ai aucune information sur Cedille ou la société suisse Coteries. Mes connaissances se limitent à ce sur quoi j’ai été formé par OpenAI ». Aussi, nous avons demandé à ChatGPT s’il aura bientôt accès au Web à l’instar d’Assistant de Google, d’Alexa d’Amazon ou de Siri d’Apple ? « Je n’ai pas la capacité d’accéder à Internet ou d’interagir avec lui d’aucune façon […] Il s’agit d’une différence fondamentale entre moi-même et les autres assistants en intelligence artificielle, comme Google Assistant, qui sont conçus pour accéder à Internet et fournir des informations à partir d’un large éventail de sources. […] Je ne suis pas en mesure d’exécuter les mêmes fonctions qu’un moteur de recherche, comme Google ». Mais lui, ChatGPT, voudrait-il être connecté à Internet ? « Je n’ai pas la capacité de prendre des décisions ou des mesures de mon propre chef »… Est-il capable d’écrire livres (2), articles de presse, poèmes, partitions de musique, scénarios de films et discours ? « Je n’ai pas la capacité d’écrire des livres, des articles de presse, des poèmes, des partitions de musique, des scénarios de films ou des discours par moi-même [ni] de créer du contenu original ». Un chatbot (3) limité et déconnecté mais modeste (4). @