Le grand remplacement des moteurs de recherche traditionnels par des IA génératives est… poussif

Il y a un an, l’institut d’études Gartner prévoyait d’ici 2026 une baisse de 25 % du volume des requêtes sur les moteurs de recherche traditionnels au profit des robots conversationnels IA (chabots) et autres IA génératives. Or la position dominante historique de Google reste toujours aussi forte.

La suprématie de Google (filiale d’Alphabet) sur le marché mondial des moteurs de recherche reste quasiment inchangée à fin janvier 2025 par rapport à il y a un an, et malgré la déferlante des IA génératives et autres chabots boostés à l’intelligence artificielle. D’après StatCounter, le moteur de recherche Google s’arroge encore 89,78 % de part de marché mondiale dans le search (1). L’érosion est infinitésimale comparé aux 91,47 % observés il y a un an, en janvier 2024. Les rivaux restent de petits poucets, avec Bing de Microsoft à 3,94 %, le russe Yandex à 2,74 %, Yahoo à 1,27 %, le chinois Baidu à 1,71 % et DuckDuckGo en-dessous de 1 %.

Google Search : chute de 25 % d’ici 2026 ?
Le maintien de la position dominante de Google a de quoi interpeller, alors que les IA génératives en tout genre ne cessent de défrayer la chronique et que les chat-search veulent en découdre avec le search traditionnel. Les ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Perplexity (Perplexity AI) et autres Copilot (Microsoft), sans parler de DeepSeek (société chinoise DeepSeek AI), ne semblent pas avoir entamé – même d’un iota – la suprématie de Google. L’accès google.com reçoit à lui seul plus de 83 milliards de visites chaque mois – 83,26 milliards sur décembre 2024, selon SimilarWeb. Viennent s’ajouter les accès locaux comme google.fr, (suite)

lequel génère plus de 265 millions de visites par mois – 265,4 millions sur décembre 2024. Fort de ces fréquentations massives, la maison mère Alphabet et sa filiale Google – toutes deux présidées par Sundar Pichai – n’ont pas vraiment de quoi s’inquiéter pour l’avenir de son moteur de recherche. Du moins pour l’instant.
Est-ce à dire que l’institut américain Gartner s’est emballé un trop vite il y a un an presque jour pour jour – le 19 février 2024 – lorsqu’il a prévu « une baisse de 25 % du volume des moteurs de recherche d’ici 2026, en raison des chatbots IA et autres agents virtuels » ? La guerre déclarée entre les « TradSearch » et les « AI Search » allait provoquer une chute des requêtes – d’un quart en deux ans – sur les moteurs de recherche traditionnels, Google en tête. Or pour l’instant, rien de nouveau sous le soleil du search. Le moteur de la firme de Mountain View caracole toujours en tête, écrasant encore de tout son poids ses concurrents. Il reste cependant toute l’année 2025 pour que le pronostique de Gartner se réalise, mais c’est peu probable. Son analyste et viceprésident Alan Antin (photo) avait même affirmé : « Les solutions d’IA générative (GenAI) deviennent des moteurs de réponses de substitution, remplaçant les requêtes des utilisateurs qui auparavant pouvaient être exécutées dans les moteurs de recherche traditionnels. Cela forcera les entreprises à repenser leur stratégie de canaux marketing, car les GenAI seront davantage intégrées dans tous les aspects de l’entreprise ». Les agents virtuels vont-ils vraiment remplacer à termes la recherche traditionnelle ? Gartner explique que les IA génératives – lesquelles réduisent le coût de production des contenus – auront un impact sur la stratégie des mots-clés, ou SEO (Search Engine Optimization), et sur le score du site web, via la mesure dite Domain Authority (DA) ou Domain Rating (DR). Et comme les algorithmes des moteurs de recherche valoriseront davantage la qualité du contenu pour compenser la quantité de contenu généré par l’IA, Alan Antin recommandait aux entreprises de « se concentrer sur la production de contenu unique qui soit utile aux clients et aux clients potentiels » (2). Fini le SEO, bonjour le GEO (Generative Engine Optimisation) et le LLMO (Large Langage Model Optimisation).
En attendant une (hypothétique) bascule du vieux monde des moteurs de recherche (liens à cliquer) vers le nouveau monde des moteurs de réponses (écrites avec sources), Google a encore de beaux jours devant lui. Surtout que la filiale d’Alphabet a dégainé l’an dernier Google Overviews qui revient à mettre de l’IA dans son moteur. Après les Etats-Unis dès mai 2024, cette fonctionnalité – affichant en haut des résultats la réponse écrite de l’IA générative (les liens sponsorisés ou pas étant relégués en dessous) – a été déployée à partir d’octobre 2024 dans plus de 100 pays, pas en France (3).

Les prévisions osées de Gartner
Contacté par Edition Multimédi@ à propos de cette chute des 26 % d’ici 2026, une porte-parole de Gartner nous indique que « la prédiction n’a pas été mise à jour ». Ce n’est pas la première fois que Gartner s’avance un peu trop dans ses prévisions. En décembre 2023, l’institut de Stamford (ville du Connecticut où il a son siège social) avait prédit que 50 % des utilisateurs de médias sociaux les abandonneraient d’ici 2025 ou limiteraient considérablement leurs interactions avec eux à cause d’une dégradation de la qualité (4). On constate aujourd’hui qu’il n’y a de fuite d’ampleur des consommateurs en vue, même chez X. @

Charles de Laubier

L’enjeu de la base légale et de l’information dans la conformité au RGPD des fournisseurs d’IA

Depuis peu, les fournisseurs de systèmes d’intelligence artificielle (IA) font l’objet d’une attention accrue de la part des autorités de contrôle européennes, lesquelles analysent leur conformité au règlement sur la protection des données (RGPD), de l’information des personnes à la base légale.

Par Sandra Tubert, avocate associée et Alicia Forgues, docteure en droit, Algo Avocats

Après avoir sanctionné OpenAI en décembre 2024 pour ses manquements au RGPD en lien avec son IA générative ChatGPT (1), l’autorité italienne de protection des données – la GPDP (2) – vient cette fois d’ordonner, le 30 janvier dernier (3), le blocage immédiat de l’application et du site web DeepSeek en Italie en raison de manquements présumés au RGPD. Avant d’ordonner la limitation du traitement, la GPDP avait adressé le 28 janvier une demande d’informations à DeepSeek, afin qu’elle précise les données traitées, les finalités poursuivies, leurs bases légales, le lieu de stockage, ainsi que la typologie de données utilisées pour entraîner les modèles d’IA, leurs sources et les modalités d’information des personnes (4).

Modèles d’IA, systèmes d’IA et données
D’autres « Cnil » européennes ont ouvert des enquêtes. Si le recours à l’IA n’impacte pas véritablement les réponses à apporter à certaines de ces questions, les bases légales de traitement et modalités d’information des personnes posent plus de difficultés lorsqu’il s’agit des traitements mis en œuvre dans le cadre de l’entraînement des modèles d’IA. En effet, ces derniers sont entraînés à l’aide d’un grand nombre de données, parmi lesquelles figurent parfois des données personnelles. Celles-ci se divisent en deux catégories : les données fournies directement par des personnes concernées ou les utilisateurs du système d’IA intégrant le modèle d’IA, auxquelles se rajoutent les données collectées durant l’utilisation du service (données first-party) et les données de non-utilisateurs collectées par web scraping ou grâce à la signature de contrats de licences d’utilisation de contenus (données third-party).
Lorsque le fournisseur se contente d’utiliser des données first-party pour entraîner ses modèles d’IA, le contact direct dont il dispose avec les personnes concernées par le traitement lui permet de les informer de manière classique, notamment via une politique de confidentialité – à laquelle il sera renvoyé depuis un formulaire de collecte ou un courriel – qui devra être précise et claire sur les finalités d’entraînement des modèles (notamment en distinguant l’information portant sur l’entraînement des modèles des autres traitements). A l’inverse, s’il utilise également (suite)

des données third-party, le fournisseur fait face à une difficulté, celle d’identifier un moyen approprié pour informer les personnes concernées de l’utilisation de leurs données à des fins d’entraînement des modèles d’IA. Sur ce point, la décision de sanction de 15 millions d’euros rendue en Italie par la GPDP à l’encontre d’OpenAI contient quelques enseignements. Elle y rappelle qu’elle avait, en avril 2023, ordonné à OpenAI un certain nombre de mesures pour se conformer à l’obligation d’information du RGPD. Selon la GPDP, OpenAI devait non seulement publier une mention d’information sur son site Internet explicitant clairement les finalités d’entraînement des modèles, mais aussi mettre à disposition des personnes un outil permettant d’exercer leurs droits (notamment d’opposition). Le fournisseur de ChatGPT devait également et surtout mener une campagne non promotionnelle à la radio, dans les journaux et à la télévision, dont le contenu aurait dû être validé par l’autorité. Objectif : que les utilisateurs et non-utilisateurs soient clairement sensibilisés à l’utilisation de leurs données à des fins d’entraînement des modèles d’IA et aux droits dont ils disposent, afin qu’ils puissent pleinement les exercer. Cette dernière modalité d’information demandée questionne sur les motivations entourant cette mesure (volume de personnes et de données concernées ? méconnaissance de ces traitements par le grand public en 2023 ?). En effet, cette mesure semble difficilement transposable à l’ensemble des acteurs entraînant des modèles d’IA.
En France, la Commission nationale de l’informatique et des libertés (Cnil) propose dans ses fiches IA (5) d’autres pistes pour informer les personnes. Première suggestion : s’appuyer sur le diffuseur des données (celui qui les a collectées initialement auprès des personnes) pour fournir une information complète, étant précisé que la seule mention d’une ré-exploitation par des tiers est insuffisante et qu’il convient, au contraire, d’indiquer que les données seront utilisées afin de développer un système d’IA et d’en désigner nommément le fournisseur.

Exception à l’information individuelle
Deuxième suggestion de la Cnil : rendre les informations disponibles publiquement sur un site web ou panneau d’affichage, sans procéder à une information individuelle, en s’appuyant sur l’exception prévue par le RGPD (à savoir l’information individuelle se révèlerait impossible ou exigerait des efforts disproportionnés (6)). Sur ce point, il conviendra alors de documenter le caractère disproportionné, suite à une mise en balance entre les efforts exigés – comme l’absence de coordonnées des personnes, le nombre de personnes concernées, les coûts de communication – et l’atteinte portée à la vie privée des personnes, notamment le caractère intrusif du traitement. La Cnil précise que l’information générale devra alors indiquer les sources précises utilisées pour constituer la base de données d’entraînement (ou a minima les catégories de sources lorsqu’elles sont trop nombreuses) ainsi que les moyens pour contacter le diffuseur auprès duquel les données ont été récupérées (7).

Intérêt légitime et ses limites : incertitude
Au-delà de l’information, l’entraînement des modèles d’IA questionne sur l’identification de la base légale parmi les six options inscrites dans le RGPD (8). Dans sa décision à l’encontre d’OpenAI, la GPDP a relevé un manquement sur ce point, lui reprochant une réflexion insuffisante sur le sujet, matérialisée par le fait qu’au cours de la procédure, la société a évoqué à la fois l’intérêt légitime et l’exécution du contrat comme base légale de son traitement d’entraînement des modèles d’IA. La GPDP rappelle ainsi aux fournisseurs de systèmes d’IA leur obligation d’identifier la base légale du traitement en amont de la mise en œuvre de ces traitements et de documenter leur analyse si l’intérêt légitime est retenu. Malheureusement, elle n’explore pas plus en profondeur la légitimité de fonder de tels traitements sur l’intérêt légitime ou ses limites, laissant les fournisseurs dans l’incertitude. Or, l’intérêt légitime est la base légale vers laquelle se tournent majoritairement les fournisseurs de système d’IA.
Ceci s’explique principalement par les cas restreints dans lesquels il est possible de fonder les traitements d’entraînement des modèles sur le consentement ou l’exécution du contrat. Cette dernière est souvent rapidement exclue, puisqu’une interprétation stricte en est retenue par les autorités et la CJUE et qu’elle ne peut être utilisée qu’en présence d’un contrat entre le fournisseur du système d’IA et les personnes concernées, pour des traitements objectivement indispensables à l’exécution des obligations prévues par ce contrat. Le consentement peut, quant à lui, être mobilisé par les fournisseurs utilisant des données firstparty, mais n’est pas véritablement disponible pour ceux qui entraînent leurs modèles d’IA avec des données third-party. Dès lors, le recours à l’intérêt légitime pour entraîner des modèles se généralise, même si cette démarche est critiquée, notamment par l’association Noyb (9).
Face à cette incertitude, l’autorité irlandaise (DPC) a émis une demande d’avis auprès du Comité européen de la protection des données (EDPB) en septembre 2024. La DPC souhaitait obtenir des renseignements sur la façon dont un responsable du traitement peut démontrer le bien-fondé de l’intérêt légitime en tant que base légale de traitement pour le développement de modèles d’IA (10). En réponse, l’EDPB a adopté en décembre dernier un avis (11), assez théorique (sans éclaircissements inédits), dans lequel il rappelle et présente les grandes notions et critères à prendre en compte en lien avec les trois conditions cumulatives pour documenter le fait qu’un traitement puisse être fondé sur l’intérêt légitime. L’EDPB y propose néanmoins quelques exemples de mesures souhaitables pour atténuer les risques identifiés lors de la balance des intérêts (pseudonymisation des données d’entraînement, masquage des données personnelles ou leur substitution par des données synthétiques, mise en place d’un délai entre la constitution de la base et l’entrainement des modèles pour permettre l’exercice des droits, …). Pour les données collectées par web scraping, l’EDPB propose des mesures spécifiques (exclure certaines catégories de données ou certaines sources, créer des listes d’opposition gérées par le fournisseur de systèmes d’IA, …). La DPC a salué l’avis rendu, de même que la Cnil, dont les travaux préexistants sur le sujet (qui apportent un éclairage complémentaire et plus concret) ne sont pas contredits (12). En dépit des recommandations figurant dans ces avis, les difficultés liées au recours à l’intérêt légitime dans un contexte d’entraînement des modèles d’IA sont mises en lumière par l’avertissement rendu par la GPDP, le 27 novembre 2024, à l’encontre de l’éditeur de presse Gedi (13). Celui-ci avait conclu un contrat avec OpenAI relatif à la communication d’archives de journaux pour permettre à ce dernier d’entraîner ses modèles d’IA et de mettre à disposition les contenus de presse de Gedi accompagnés d’un résumé, en temps réel, sur ChatGPT (14). En effet, bien que Gedi ait réalisé une analyse d’impact sur la protection des données, dans laquelle il indiquait fonder à la fois ses traitements et ceux d’OpenAI sur l’intérêt légitime, la GPDP a mis en lumière plusieurs difficultés liées à cette position (15).

Affaire « Gedi » : le cas des archives de presse
La première est la présence dans ces archives d’un volume important de données personnelles, notamment sensibles ou relatives à des infractions. L’autorité italienne rappelle alors que la base légale de l’intérêt légitime ne peut pas, à elle seule, légitimer le traitement de telles données sensibles et qu’il est nécessaire d’identifier, en plus, une des exceptions prévues par le RGPD (16). La seconde est relative à l’information des personnes et à leurs attentes raisonnables. La GPDP estime en effet que les personnes dont les données figurent dans ces archives de journaux ne peuvent pas s’attendre à une telle communication à OpenAI et que l’ajout prévu dans la politique de confidentialité de Gedi (non encore publié) s’adresse aux utilisateurs enregistrés de ses journaux et non aux personnes mentionnées dans les articles transmis. @

La bataille des IA génératives d’images et de vidéos s’exacerbe, avec les Etats-Unis en force

Après deux ans de bataille des IA génératives textuelles, déclenchée fin novembre 2022 par ChatGPT d’OpenAI, l’année 2025 s’annonce comme celle des IA génératives d’images et de vidéos. Edition Multimédi@ passe en revue une sélection de concurrents, tous d’origine américaine. Mais les chinois sont en embuscades.


Grok
Pays d’origine : Etats-Unis
Propriétaire : xAI (Elon Musk)
Lancement : novembre 2023
Générateur de textes et d’images
https://x.ai/grok, https://x.com/i/grok
Disponibilité : gratuit depuis le 14-12-24
Accessible en France : oui
Remarque : Grok est développé par la start-up xAI créé en juillet 2023 par le milliardaire Elon Musk (cofondateur d’OpenAI qu’il a quitté en 2018). En plus de générer du texte, Grok peut aussi faire de même en créant des images réalistes grâce à son modèle text-to-image Aurora.


Sora
Pays d’origine : Etats-Unis
Propriétaire : OpenAI (Sam Altman)
Lancement : février 2024
Générateur de vidéo ultraréalistes
https://openai.com/sora, https://sora.com
Disponibilité : payant dans ChatGPT Plus et Pro
Accessible en France : non
Remarque : Sora est un modèle de type text-to-video développé par OpenAI, déjà à l’origine de ChatGPT, lequel intègre Sora depuis début décembre 2024 via les abonnements payants ChatGPT Plus et ChatGPT Pro. Sora signifie en japonais « ciel » (potentiel illimité). (suite)


Dall-E
Pays d’origine : Etats-Unis
Propriétaire : OpenAI (Sam Altman)
Lancement : janvier 2021
Générateur d’images
https://openai.com/index/dall-e-3, https://chatgpt.com
Disponibilité : gratuit (limité) et payant (au-delà)
Accessible en France : oui
Remarque : Dall-E est le pionnier du text-to-image grand public, développé par OpenAI (ChatGPT). Sa version actuelle, Dall-E 3, est disponible depuis septembre 2023, intégrée depuis dans ChatGPT via les abonnements payants ChatGPT Plus et Enterprise.


Gen (Gen-2, Gen-3)
Pays d’origine : Etats-Unis
Propriétaire : Runway AI
Lancement : février 2023
Générateur de vidéos
https://runwayml.com, https://app.runwayml.com
Disponibilité : gratuit (limité) et payant (au-delà)
Accessible en France : oui
Remarque : La start-up newyorkaise Runway AI a été créée en 2018 par les Chiliens Cristóbal Valenzuela et Alejandro Matamala, ainsi que par le Grec Anastasis Germanidis. Ses modèles sont de type text-to-video et video-to-video, utilisés notamment par des producteurs de films.


Firefly
Pays d’origine : Etats-Unis
Propriétaire : Adobe
Lancement : mars 2023
Générateur d’images, de vidéos et d’audio
https://firefly.adobe.com
Disponibilité : gratuit (limité, sur inscription) ou payant (entreprises)
Accessible en France : oui
Remarque : Abobe, éditeur des logiciels de création Photoshop, Acrobat, Illustrator et Premiere Pro, a lancé la première version de Firefly en mars 2023. Le modèle text-to-video a été lancé en octobre 2024 en version bêtapublique limitée (sur inscription en liste d’attente).


Midjourney
Pays d’origine : Etats-Unis
Propriétaire : Midjourney
Lancement : juillet 2022
Générateur d’images
https://www.midjourney.com/explore
Disponibilité : payant (abonnements)
Accessible en France : oui
Remarque : La start-up californienne Midjourney a été créée par David Holz. La version actuelle, la V6.1, a été lancée fin juillet 2024. Le mois suivant, elle a été rendue accessible à partir du Web et non plus seulement à partir de Discord comme auparavant.

Se sont aussi jetés dans la bataille du text-to-image et du texte-to-video : le chinois ByteDance (maison mère de TikTok) avec X-Portrait 2 et MagicVideoV2 ; le chinois Faceu Technology (filiale de ByteDance) avec Jimeng AI ; le chinois Kuaishou Technology avec Kling ; le chinois Zhipu AI avec Ying ; le chinois Shengshu Technology avec Vidu ; l’américain Google (Alphabet) avec Lumiere ; son compatriote Meta avec Make-A-Video et Movie Gen ; le français Turbo Studio avec Submagic ; la britannique Synthesia avec Synthesia ; la californienne World Labs avec « GenAI 3D » (lire EM@334, p. 5).

La position dominante de Nvidia sur le marché mondial des puces IA soulève des questions « antitrust »

Le géant mondial Nvidia, fabricant américain de microprocesseurs pour l’intelligence artificielle, est non seulement le premier à alimenter la « bulle IA » mais aussi en position dominante sur ce marché colossal. Les autorités antitrust veulent agir avant qu’il ne soit trop tard pour la concurrence.

Après avoir été la première capitalisation boursière mondiale, le groupe Nvidia est redevenu la seconde à 3.314 milliards de dollars au 29 novembre 2024 (au moment où nous bouclons ce numéro de Edition Multimédi@), derrière Apple (3.551 milliards de dollars), Microsoft (3.144 milliards), Amazon (2.163 milliards) ou encore Alphabet/ Google (2.080 milliards), d’après CompaniesMarketCap (1).
C’est en juin (2) que la firme californienne de Santa Clara – où elle a son siège social depuis sa création le 5 avril 1993 par l’AméricanoTaïwanais (3) Jensen Huang (photo), son actuel PDG – est arrivée pour la première fois en tête de toutes les entreprises cotées dans le monde. Depuis le lancement par OpenAI fin novembre 2022 de l’IA générative ChatGPT qui carbure aux puces pour l’intelligence artificiel, dont Nvidia est devenu le numéro un mondial des fabricants, le cours de l’action « NVDA » a été multipliée par plus de huit. Microsoft, Google ou encore Amazon font aussi partie des nombreuses Big Tech qui se fournissent auprès de Nvidia. Samedi dernier, 23 novembre, Jensen Huang s’est vu décerner un doctorat honorifique en ingénierie (4) de l’Université des sciences et technologies de Hong Kong (Hkust). Détenteur d’environ 3 % du capital de l’entreprise Nvidia, cotée au Nasdaq à New-York depuis janvier 1999, il est devenu à 61 ans la onzième plus grande fortune mondiale, après avoir vu son patrimoine professionnel bondir de 250 % entre 2023 et 2024, à 118,2 milliards de dollars (5).

Prévision de résultats annuels records
En plus d’être devenu le plus grand fabricant de processeurs graphiques, appelés GPU (Graphics Processing Unit), qui excellent notamment pour les jeux vidéo sur ordinateur, Nvidia a aussi étendu sa position dominante dans l’intelligence artificielle qui exige également d’immenses puissances de calcul. Lors de la présentation le 20 novembre de ses résultats financiers pour son troisième trimestre qui s’est achevé fin octobre (le groupe ayant la particularité d’avoir son année fiscale décalée d’un mois par rapport à l’année calendaire), Nvidia a estimé qu’il terminera son exercice 2024/2025 (clos le 26 janvier) avec un chiffre d’affaires annuel record d’environ 128,6 milliards de dollars. Ce record correspond à un peu plus du double (+ 111,19 %) du chiffre d’affaires de l’année précédente (60,9 milliards de dollars à fin janvier 2024) et presque un quintuplement sur deux ans (26,9 milliards de dollars à fin janvier 2023). Cela dépendra de son quatrième trimestre (novembre 2024-janvier 2025) qui est attendu à « 37,5 milliards de dollars, plus ou moins 2 % », contre 35 milliards de dollars au troisième trimestre (août-octobre 2024).

Quasi-monopole de puces GPU et IA
« L’ère de l’IA est à plein régime, ce qui entraîne une évolution mondiale vers les technologies informatiques de Nvidia. La demande pour [la puce] Hopper et l’anticipation pour [sa successeure] Blackwell – en pleine production – sont incroyables », s’est félicité le 20 novembre Jensen Huang. (suite)

Sa directrice financière, Colette Kress (photo ci-contre), a tenté de rassurer sur le retard – dû à un problème d’architecture – pris dans la production de Blackwell, la prochaine génération de processeurs IA très attendue, par les acteurs des IA génératives notamment : « Nous avons effectué avec succès un changement de masque pour Blackwell, qui a amélioré les rendements de production, a-t-elle assurée le 20 novembre. Les expéditions de production de Blackwell devraient commencer au quatrième trimestre de l’exercice 2025 [c’est-à-dire d’ici janvier 2025, ndlr] et […] la demande pour Blackwell devrait dépasser l’offre pendant plusieurs trimestres au cours de l’exercice [2025/2026, ndlr] ». En attendant que tout rentre dans l’ordre, Colette Kress peut se satisfaire de la rentabilité annuelle de Nvidia qui est aussi exponentielle : le bénéfice net sera dévoilé le 26 février lors de la présentation des résultats annuels 2024/2025 (clos au 26 janvier donc), avec un bénéfice net qui devrait surpasser les 29,7 milliards de dollars de l’an dernier, eux-mêmes ayant alors fait un bond de + 581 % sur un an. Bien que son quartier général et son campus soient implantés depuis avril 1993 à Santa Clara, dans l’Etat de Californie, la Big Tech est enregistrée depuis avril 1998 dans l’Etat du Delaware, un paradis fiscal aux Etats-Unis.
Au 27 octobre 2024 (fin du troisième trimestre de l’exercice annuel en cours), la dette de Nvidia, dont les remboursements d’étalent sur plus de dix ans, est de 8,4 milliards de dollars, tandis que sa trésorerie disponible (free cash flow) a atteint 16,7 milliards de dollars, soit plus du double d’il y a un an. La firme de Santa Clara a ainsi les coudées franches pour poursuivre ses acquisitions, afin de renforcer encore sa position ultradominante sur le marché mondial des microprocesseurs graphiques pour le Gaming et l’IA – tout en développant aussi des modèles d’IA (LLM), dont Fugatto présenté le 25 novembre pour générer musiques, voix et sons (6). Rien que sur le marché mondial des cartes graphiques dotées de puces GPU, où Nvidia règne en maître depuis longtemps, sa part de marché atteint 88 % au printemps 2024 face à son rival AMD (12 %), d’après le cabinet d’études californien Jon Peddie Research (7). En dix ans, Nvidia a procédé à une dizaine d’acquisitions : Mellanox, Cumulus Networks et SwiftStack en 2020, DeepMap en 2021, Bright Computing en 2022, Deci AI, Shoreline et RunAI rien qu’en 2024 (8). C’est cette boulimie pour des start-up de l’IA et du cloud qui commence à inquiéter les autorités antitrust, en premier lieu le Département de la Justice (DoJ) aux Etats-Unis.
L’acquisition en avril dernier pour 700 millions de dollars de la société RunAI, créée en 2018 à Tel Aviv (Israël) et spécialisée dans l’optimisation de l’IA et de l’apprentissage automatique (machine learning), intéresse tout particulièrement le DoJ qui a envoyé à l’acquéreur Nvidia une « assignation à comparaître », d’après l’agence Bloomberg début septembre (9), sur des soupçons de violation des lois antitrust américaines et d’abus de position dominante. Un porteparole de Nvidia, John Rizzo, a démenti auprès de Forbes que l’entreprise était assignée à comparaître mais a assuré qu’elle était « heureuse de répondre aux questions des organismes réglementaires sur [ses] activités » (10).
D’après Bloomberg et le New York Times (11), le DoJ – en partenariat avec l’autorité de la concurrence FTC (12) – se demande si Nvidia rend plus difficile pour les acheteurs de passer à d’autres fournisseurs de puces (chips), tout en pénalisant ceux qui n’achètent pas exclusivement ses chips IA. Ce type d’entente est anti-concurrentiel. L’enquête concernerait non seulement Nvidia mais aussi Microsoft qui a investi 13 milliards de dollars dans OpenAI, et Amazon et Google qui ont investi respectivement 4 milliards de dollars et 2 milliards de dollars dans Anthropic.

L’Europe enquête aussi sur Nvidia
Nvidia avait dû renoncer en 2022 à acquérir pour 40 milliards de dollars le fabricant de semi-conducteurs britannique ARM (13), en raison d’une levée de bouclier d’autorités antitrust européennes. En France, l’Autorité de la concurrence (ADLC) a le fabricant de puces GPU dans le collimateur après une première perquisition avec « saisie inopinée » réalisée le 26 septembre 2023 dans les locaux de la filiale française de Nvidia (14). D’après l’agence Reuters le 15 juillet dernier, l’ADLC continue de mener son enquête avant l’envoi d’éventuels « griefs » sur des pratiques anticoncurrentielles, y compris dans les puces IA. Quant à la Commission européenne, elle a annoncé le 31 octobre (15) avoir ouvert une enquête sur le rachat de RunAI par Nvidia. @

Charles de Laubier

Intelligence artificielle générale (AGI) : la superintelligence pourrait arriver dès 2025

C’est la course à l’échalotte du XXIe siècle : après l’IA générative popularisée par ChatGPT lancé par OpenAI il y a deux ans (un siècle !), qui sera l’initiateur de la future superintelligence artificielle censée se mesurer à l’humain ? Cette IAG – ou AGI en anglais – arriverait dès 2025.

Elle est pour demain, ou dans dix ans. Chacun y va de ses prédictions sur l’arrivée prochaine de la « superintelligence artificielle » qui sera comparable à l’intelligence humaine. Deux ans après le lancement de l’IA générative ChatGPT par la société californienne OpenAI, mis en ligne le 30 novembre 2022 précisément (1), voici que son PDG Sam Altman (photo de gauche), prédit l’avènement de l’intelligence artificielle générale (IAG) – Artificial General Intelligence (AGI), en anglais – dès 2025. C’est du moins ce qu’il a laissé entendre le 8 novembre dans un entretien vidéo à Y Combinator (2).

Sam Altman parle d’une AGI dès 2025
A la fin de l’interview et à la question de Gary Tan, PDG de l’incubateur de start-up Y Combinator, de savoir « ce qui va arriver » l’an prochain, Sam Altman répond à brûle-pourpoint (spontanément, comme sans réfléchir) : « AGI ! … euh… excité pour ça… euh… Qu’est-ce que je suis excité… Hum…[Comme un enfant] je suis plus excité pour cela que jamais ». A force d’être enthousiaste, Sam Altman est-il devenu présomptueux ? Une IA capable de rivaliser avec ou de dépasser l’intelligence humaine verrait le jour en 2025, d’après le PDG cofondateur d’OpenAI.
C’est la première fois qu’il évoque une superintelligence à une échéance si rapprochée, alors que le 23 septembre dernier, il était moins dans l’excitation et la précipitation : « Dans les prochaines décennies, nous serons en mesure de faire des choses qui auraient semblé magiques à nos grands-parents. […] Il est possible que nous ayons une superintelligence dans quelques milliers de jours (!) ; cela peut prendre plus de temps, mais je suis sûr que nous y arriverons. […] Il y a encore beaucoup de détails à résoudre […] », affirmait Sam Altman dans un post intitulé « The Intelligence Age » (3). A raison de 365 jours par an, cela renvoie le lancement d’une superintelligence de type AGI à la fin de la décennie actuelle, pas avant. Et d’ajouter plus loin : « Plus tard, les systèmes d’IA deviendront si performants qu’ils nous aideront à améliorer la prochaine génération de systèmes et à faire des progrès scientifiques dans tous les domaines ». Dans la continuité de l’apprentissage profond (deep learning, en anglais), qui ne cessera pas de s’améliorer grâce à des ressources et des données croissantes, la prochaine étape serait donc le niveau de l’intelligence humaine, voire le dépassement. « Avec une précision étonnante, plus il y a de données et de calculs disponibles, mieux il est possible d’aider les gens à résoudre des problèmes difficiles », résume Sam Altman. Cinq jours après cet entretien, soit le 13 novembre d’après l’agence Bloomberg (4), la direction d’OpenAI réunissait ses équipes en interne pour leur annoncer que la nouvelle intelligence artificielle connue sous le nom de code « Operator » sera lancée en janvier 2025. A usage général, cet « AI agent » (agent IA en français) aura vocation à prendre la main sur l’ordinateur de l’utilisateur pour « exécuter des tâches » à sa place, « comme écrire du code ou réserver un voyage ». Ce nouvel outil sera utilisable à partir d’un navigateur web. Au-delà des IA génératives (ChatGPT, Claude, Gemini, …), la nouvelle course vers les AGI passera par ces agents IA pour ordinateur. (suite)

Anthropic a lancé le sien le 22 octobre, en version bêta en utilisant l’IA générative avancée Claude 3.5 Sonnet. « Au cours des dernières années, de nombreuses étapes importantes ont été franchies dans le développement d’une puissante IA – par exemple, la capacité d’effectuer un raisonnement logique complexe et la capacité de voir et de comprendre des images. La prochaine frontière est l’utilisation de l’ordinateur, indique Anthropic. Le fonctionnement des ordinateurs implique la capacité de voir et d’interpréter les images, en l’occurrence les images d’un écran d’ordinateur. Il faut aussi réfléchir à la façon et au moment d’effectuer des opérations précises en fonction de ce qui est affiché à l’écran » (5). Microsoft, investisseur historique dans OpenAI, a lancé le 16 septembre ses agents IA « Copilot 2e vague » (6) pour automatiser des processus dans la suite des logiciels « 365 » tels que Word, Excel, PowerPoint ou encore Teams. Google prépare aussi son agent IA, d’après The Information. Et après ?

Demis Hassabis : pas d’AGI avant 2033
Après les agents IA, les IAG (AGI) à partir de 2025 ou pas avant 2030 voire au-delà ? Experts et gourous ne sont pas tous d’accord sur l’avènement de ces superintelligences susceptibles de rivaliser avec les humains. Demis Hassabis (photo de droite), PDG cofondateur de la société britannique DeepMind rachetée en janvier 2014 par Google, ne voit pas venir d’intelligence artificielle générale avant une décennie – autrement dit pas avant 2033. C’est en tout cas ce qu’avait dit ce chercheur et entrepreneur britannique en IA l’an dernier lors de la conférence « The Future of Everything Festival » organisée par le Wall Street Journal : « L’intelligence artificielle, un système dans lequel les ordinateurs possèdent des capacités cognitives de niveau humain, pourrait être réalisable en quelques années. […] Les progrès n’ont aucune raison de ralentir ; ils vont s’accélérer et l’on parviendra à une AGI dans seulement dix ans », a expliqué Demis Hassabis (7). Pour que les intelligences artificielles générales puissent être au niveau de l’intelligence humaine, cela suppose de grandes capacités informatiques et quantité de données pour leur apprentissage (machine learning), tant en raisonnement et en tâches cognitives qu’en prises de décision.

Superintelligence, superordinateur ?
Les Big Tech, les Gafam et les hyperscalers américains du cloud tels qu’Amazon Web Services (AWS), Microsoft Azure ou Google Cloud vont-ils préempter le futur marché mondial des superintelligences ? Les besoins en puissances de calculs sont si gigantesques que les solutions alternatives pourraient passer par des superordinateurs en réseaux. C’est par exemple ce que propose la société suisse SingularityNet, fondée par Ben Goertzel (photo ci-contre) avec comme « mission de créer une AGI décentralisée, démocratique, inclusive et bénéfique [qui] n’est pas dépendante d’une entité centrale ». Cette future AGI sera « ouverte à tous » dans le monde, en s’appuyant sur la blockchain. Ce chercheur-entrepreneur américain en IA (8), d’origine brésilienne (il est né en 1966 à Rio de Janeiro), est aussi le fondateur d’OpenCog, un projet open source d’architecture cognitive intégrative qui vise à créer une superintelligence capable de penser et d’apprendre de manière autonome, comme un être humain (9).
Dans le but de démocratiser l’IA, Ben Goertzel a lancé le 13 novembre un fonds de plus de 1 million de dollars pour subventionner – via Deep-Funding (10) – des développeurs capables de « faire progresser l’AGI bienveillante au bénéfice de l’humanité ». Projets de R&D, étudiants, chercheurs ou encore ingénieurs peuvent participer à ce challenge en utilisant le framework logiciel open source OpenCog Hyperon disponible pour « réaliser le rêve de l’AGI » (11).
Les candidats ont jusqu’au 1er décembre pour soumettre leurs propositions (cette date limite pourra être prolongée). « Une fois la subvention accordée, les bénéficiaires auront entre trois et neuf mois pour mener à bien leurs activités de recherche et développement, selon l’ampleur et la complexité du projet », précise dans son appel (12) Ben Goertzel, qui dirige en outre l’Artificial Superintelligence Alliance (ASI Alliance). Cette association a été créée par Fetch.ai, SingularityNet et Ocean Protocol pour développer une AGI open source. Ben Goertzel est un optimiste de l’IA et ne craint pas les avantages des futures superintelligences. Alors que Sam Altman, le patron d’OpenAI, est passé par des crises d’angoisses avant de tenir depuis peu un discours plus positif : « Ce ne sera pas une histoire entièrement positive, mais les avantages sont si énormes que nous devons à nous-mêmes et à l’avenir de trouver comment naviguer dans les risques qui se présentent à nous, a-til écrit le 23 septembre dans son billet “The Intelligence Age” déjà mentionné. Par exemple, nous prévoyons que cette technologie peut entraîner un changement important sur les marchés du travail (bon et mauvais) dans les années à venir, mais la plupart des emplois changeront plus lentement que ne le pensent la plupart des gens, et je n’ai pas peur que nous manquions de choses à faire. […] Et si nous pouvions faire un saut de cent ans dans le futur, la prospérité autour de nous serait tout aussi inimaginable ».
Le PDG d’OpenAI ne fait donc plus dans le catastrophisme, comme lorsque le 17 mai 2023 devant le Sénat américain il avait fait part de sa peur de voir une superintelligence provoquer de « graves dommages au monde ». Il avait alors été cosignataire, avec Bill Gates, Dario Amodei (Anthropic) et d’autres, d’une courte déclaration mise en ligne le 30 mai 2023 : « La réduction du risque d’extinction [de l’humanité, ndlr] dû à l’IA devrait être une priorité mondiale, aux côtés d’autres risques sociétaux tels que les pandémies et la guerre nucléaire » (13). Les craintes se le disputant à la psychose, Elon Musk – pourtant réputé libertarien téméraire – fut parmi les milliers de cosignataires de la « Pause Giant AI Experiments » (14) publiée le 22 mars 2023. Ils appelaient « tous les laboratoires d’IA à suspendre immédiatement pendant au moins six mois la formation des systèmes d’IA plus puissants que GPT-4 ». En vain : OpenAI a lancé GPT-4o en mai dernier (15), où « o » veut dire « omni » car capable de traiter des entrées multimodales (texte, image, audio, l’image et vidéo) et GPT-5 alias Orion verra le jour en décembre 2024 ou début 2025.

L’AGI dira-t-elle « Je pense, donc je suis » ?
Actuellement testé sous le nom de projet « Orion », GPT5 devrait avoir une multimodalité plus puissante en s’appuyant sur une taille de modèle d’IA (grand modèle de langage ou LLM) encore plus grande. Successivement désigné sous les noms de code « Q* » puis « Strawberry », ce nouveau modèle d’OpenAI s’appelle depuis septembre « OpenAI o1 » et est capable de raisonner en temps réel et de résoudre des problèmes complexes comme un humain (16). Il est la pierre angulaire d’Orion/GPT-5 et probablement de la prochain AGI susceptible de « penser » comme un humain. @

Charles de Laubier