L’IA générative s’invite dans la production de films et séries, secouant la création dans le 7e Art

Le 78e Festival de Cannes se déroule du 13 au 24 mai 2025, avec la 2e édition de la « Compétition immersive » qui célèbre les œuvres de réalité virtuelle ou réalisées – tendance oblige – avec l’intelligence artificielle. Ce sont surtout les IA génératives qui s’apprêtent à révolutionner le 7e Art.

Le calme avant la tempête ? Le monde du cinéma n’échappera pas au tsunami de l’intelligence artificielle. Le Festival de Cannes, qui tient sa 78e édition sur la Croisette durant presque deux semaines (13-24 mai 2025), commence à prendre en compte les films réalisés en tout ou partie par des IA génératives. L’événement international du 7e Art, organisé chaque année par l’Association française du festival international du film (AFFIF), dont Thierry Frémaux (photo) est le délégué général depuis 18 ans, inclut la « Compétition immersive » pour la seconde année consécutive.

Trucages, effets spéciaux, IA : continuité ?
Cette année, 16 œuvres immersives venant de neuf pays sont présentées en sélection, dont 9 en compétition et 2 hors compétition. « Ensemble, ces seize propositions offrent une vision d’ensemble d’un langage en pleine mutation – allant de la réalité virtuelle à la réalité mixte, en passant par le mapping vidéo et l’intelligence artificielle. Conçues pour être vécues plutôt que regardées, ces œuvres nous plongent dans des mondes imaginaires où espace, narration et émotion s’entrelacent », a indiqué le Festival de Cannes le 30 avril dernier, à l’occasion des présentations de la sélection et du jury, lequel remettra « le Prix de la meilleure œuvre immersive » lors de la cérémonie de clôture de la compétition immersive prévue le 22 mai prochain (1).
Parmi les œuvres présentées, il y a « Beyond the Vivid Unknown », de John Fitzgerald et Godfrey Reggio, un film qui se distingue par son utilisation notable de l’IA générative. « L’œuvre utilise l’apprentissage automatique génératif et la vision par ordinateur en temps réel pour suivre et répondre à la présence du spectateur. Au fur et à mesure que les participants se déplacent dans l’espace, l’installation passe de paysages intacts à l’essor de l’humanité et au chaos de notre avenir proche, reflétant l’enchevêtrement de l’humanité avec la technologie et impliquant le spectateur dans le récit », expliquent les producteurs américains. Cette œuvre (suite) réimagine ainsi avec l’IA le film-documentaire emblématique de Reggio de 1982, « Koyaanisqatsi », faisant à la fois l’éloge et la critique de la technologie. « “Beyond The Vivid Unknown” marque le moment où la technologie cesse de refléter le monde et commence à le réécrire par l’action collective » (2), est-il expliqué. Il s’agit apparemment de la seule œuvre créée avec de l’IA qui s’est invitée au Festival de Cannes. Parmi les sociétés de production qui ont participé à sa réalisation, il y a notamment Onassis ONX (ex-ONX Studio, pour « Onassis eXtended realities ») que la Fondation Onassis – créée il y a 50 ans par le milliardaire Aristote Onassis, ancien armateur grec – définit comme « une plateforme mondiale pour l’art des nouveaux médias et la culture numérique, où les idées créatives s’entremêlent avec des technologies innovantes, ouvrant la voie à des expériences immersives ». Ce programme mondial soutient ainsi « la créativité dans des domaines tels que l’intelligence artificielle (IA), la réalité virtuelle (RV), l’informatique spatiale et les médias numériques » (3).
Au nom du Festival de Cannes, Thierry Frémaux – qui est par ailleurs directeur de l’Institut Lumière de Lyon – considère que l’IA s’inscrit seulement dans la continuité technologique des trucages et des effets spéciaux utilisés de longue date par le 7e Art. « On peut utiliser l’intelligence artificielle dans le cinéma, à condition que cela soit au service de la poésie. A condition que cela soit au service de la qualité artistique du film. Ça fait bien longtemps que les films sont truffés de trucages numériques, truffés d’effets spéciaux, y compris des films tout à fait réalistes », avait-il confié au média vidéo Brut le 19 mars dernier (4). Trois jours avant, dans La Tribune Dimanche du 16 mars, à la question « Le cinéma doit-il craindre alors l’intelligence artificielle ? », Thierry Frémaux répondait en ces termes : « Non, parce que le cinéma, qui soit dit en passant utilise l’IA depuis des années [vraiment ?, ndlr], ne s’y résumera jamais. Pas plus que ChatGPT ne saura faire surgir “A la recherche du temps perdu”, l’IA ne va pas inventer le monde d’Ozu ou celui de Jacques Demy. Il faut des créateurs. Mais l’intelligence artificielle n’est pas uniquement un épate-gogos : s’il faut être prévenu de ses dangers, elle peut se montrer précieuse » (5).

L’IA s’incruste au Marché du Film
Parallèlement au Festival de Cannes, se tient la 56e édition du Marché du Film, du 13 au 21 mai, où il sera aussi question d’intelligence artificielle parmi les quelques 15.000 participants attendus (4.000 films et projets sont présentés par 140 pays). Par exemple, le 19 mai, une conférence sur le thème « De nouvelles opportunités pour les films de science-fiction à l’ère de l’IA » est présentée par Dreamina AI (plateforme créée par CapCut de ByteDance), en association avec Winston Baker, société spécialisée dans la curation de contenu pour l’industrie du divertissement. Autre exemple de conférence abordant l’IA dans le cinéma : le 20 mai, sur le thème « Immersive Spotlights, Beyond the Vivid Unknown : l’IA en tant que collaboratrice, miroir et créatrice de mythes ». Les participants, dont Matt Tierney, producteur et conseiller en IA/Musique chez OnAi Technologies, partent du principe que « l’IA n’est plus seulement un outil, c’est un collaborateur, un environnement, une force qui remodèle la perception et la production : de “Beyond The Vivid Unknown” aux systèmes d’IA générative d’aujourd’hui, nous explorons comment la créativité change lorsque les machines apprennent, imaginent et agissent à nos côtés ».

Les scénaristes sur la sellette
Le 18 mai, il est aussi question d’IA dans le cadre de Cannes Next, une plateforme dédiée à l’innovation et à l’avenir du divertissement, intégrée au Marché du Film du Festival de Cannes, et sur le thème de « Réinventer la production : naviguer dans les innovations en matière d’IA, les entreprises commerciales émergentes et le paysage juridique ». Présentée par l’International Screen Institute, cette conférence considère que « l’innovation basée sur l’IA redéfinit l’avenir de la production audiovisuelle ». Enfin, le 16 mai, s’est tenue un table-ronde sur le thème de « L’objectif créatif : l’évolution du rôle de GenAI dans le cinéma à travers les continents et les festivals », en présence notamment de Matthieu Lorrain, responsable de la création Google DeepMind, et de Max Wiedemann, responsable de l’IA chez Mediawan.
Ainsi, l’IA générative s’impose de plus en plus dans la création cinématographique et audiovisuelle. Elle n’a pas attendu le tapis rouge de la Croisette pour contribuer à la réalisation de films et séries. C’est cas du film « Next Stop Paris », produit par TCLtv+ Studios et sorti à l’été 2024, une comédie romantique entièrement générée par intelligence artificielle, utilisant notamment Stable Diffusion, de la startup Stability AI, pour la création des images et l’amélioration de leur fluidité. En 2023, il y a eu « The Frost », un courtmétrage de science-fiction réalisé par Waymark et sorti en 2023. Ce film de 12 minutes a été entièrement généré grâce à des outils d’IA, notamment Dall·E 2 d’OpenAI pour la création des images et Creative Reality Studio de la start-up israélienne D-ID pour animer les visages et les mouvements des personnages (6). L’IA dans le 7e Art peut susciter et suscitera des réactions épidermiques comme ce fut le cas l’an dernier pour le film « The Last Screenwriter », réalisé par Peter Luisi. Une vive controverse avait éclaté sous prétexte que son scénario avait été entièrement écrit par ChatGPT, ce qui a provoqué des débats sur l’impact de l’IA dans l’industrie cinématographique. La première mondiale, qui avait été programmée le 23 juin 2024 au Prince Charles Cinema de Londres, a dû être annulée après une vague de protestations du public, qui s’inquiétait de l’utilisation de l’IA à la place d’un scénariste humain. Le film a finalement été rendu accessible gratuitement en ligne (7) le 5 juillet suivant, accompagné d’une documentation expliquant son processus de création. Citons encore le film « Uncanny Valley », dont la sortie est prévue en 2026. Il est réalisé par Natasha Lyonne, qui utilise l’IA Marey – développée par Moonvalley – pour générer des visuels et des éléments narratifs. Contrairement à d’autres modèles d’IA, Marey a été entraîné uniquement sur du contenu sous licence, ce qui garantit une approche plus éthique de la production.
De nombreuses autres créations à l’aide de l’IA ont été remarquées telles que le film coréen « One More Pumpkin » qui a été presque entièrement réalisé avec l’IA pour des scènes, des sons ou encore des personnages. Il a remporté des Prix au Festival du Film AI de Dubaï 2024. Pour l’été prochain, il faudra être attentif à la sortie prévue du film « The Woman with Red Hair », produit par Staircase Studios AI, fondé par Pouya Shahbazian. Réalisé par Brett Stuart, avec un scénario écrit par Michael Schatz, ce long-métrage combine l’IA générative avec le talent de professionnels du cinéma pour produire des films à moindre coût. Et avant que ne se lance ChatGPT fin novembre 2022, sortait quelques mois plus tôt le film futuriste « Salt » (8), réalisé par Fabian Stelzer à partir d’IA génératives telles que Dall-E 2, Stable Diffusion et Midjourney.
En France, fin mars, a été lancé The Media Company, un studio de production cinéma européen qui veut « réinventer la création et la production de films à l’ère de l’IA ». En sont associés le producteur français Didier Lupfer (ex-directeur général adjoint du groupe Canal+ et ex-président de StudioCanal), Edouard Boccon-Gibod (ex-secrétaire général d’EuropaCorp) et Tariq Krim (entrepreneur, ex-PDG fondateur de Netvibes). Ils ambitionnent d’« intégrer l’IA dans toutes les étapes de la production » (9). Plus récemment, le 2 mai, le producteur-distributeur français Zed a lancé la série documentaire « Knut, le Viking Empereur », réalisée par Fabrice Buysschaert avec l’IA.

Vers une charte éthique sur l’IA
« L’intelligence artificielle n’est pas une affaire de science-fiction. C’est un levier de transformation très concret pour écrire plus vite, produire plus intelligemment, anticiper mieux », a assuré pour sa part fin avril Alexia Laroche Joubert (photo ci-dessus), directrice générale de Banijay France (10), qui utilise Genario, « une IA pensée par un scénariste et pour les auteurs » (11). L’IA a permis par exemple de simuler un yacht dans « Deal or No Deal Island » ou de créer le trouble dans « Deep Fake Love ». Banijay indique collaborer par ailleurs avec la Human Technology Foundation afin d’approfondir les réflexions éthiques et de se doter d’« une charte pour encadrer nos usages avec exigence et responsabilité ». @

Charles de Laubier

Perplexity AI veut se donner les moyens d’être le futur « Google » à l’ère de l’intelligence artificielle

Start-up cofondée en août 2022 par l’Indo-américain Aravind Srinivas, le Biélorusse Denis Yarats et les Américains Andy Konwinski et Johnny Ho, Perplexity AI monte en charge avec l’ambition de mettre un terme au quasi-monopole de Google dans la recherche sur le Web, grâce à son agent IA combiné à un moteur de réponse.

« Perplexity n’est pas un chabot. C’est un outil », avertit sur son site web (1) la licorne californienne Perplexity AI – qui n’est pas encore cotée en Bourse mais qui est, en moins de trois ans d’existence, déjà valorisée près de 10 milliards de dollars… pour l’instant. Son « outil » n’est autre qu’un agent conversationnel basé sur l’intelligence artificielle combiné avec un moteur de réponse. L’outil « AI-native search » de Perplexity est à la start-up Perplexity AI ce que le moteur de recherche Google est au géant du Net devenu monopolistique. Le premier rêve de détrôner le second, coûte que coûte.
Depuis qu’ils ont cofondé en août 2022 leur entreprise à San Francisco (Californie), Aravind Srinivas (photo), Denis Yarats, Andy Konwinski et Johnny Ho ont levé à ce jour environ 675 millions de dollars. Il y a un an, la start-up devenait une licorne à la faveur d’une quatrième levée de fonds – en avril 2024 (auprès notamment de Jeff Bezos et de Nvidia) – portant sa valorisation à un peu plus de 1 milliard de dollars. Deux autres tours de table – en juin (auprès de Softbank) et la dernière en date en novembre 2024 (auprès de Nvidia entre autres) – ont fait exploser sa valorisation à respectivement 3 milliards puis 9 milliards de dollars. Et encore, cela ne tient pas compte d’un investissement non divulgué du fonds Samsung Next en mai 2024 (voir tableau page suivante).

Accord avec Motorola, et bientôt Samsung ?
Sur sa lancée, Perplexity AI discute actuellement avec des investisseurs d’une nouvelle levées de fonds qui, d’après Bloomberg, se situerait entre 500 millions de dollars et 1 milliard de dollars, ce qui pourrait doubler sa valorisation, à 18 milliards de dollars (2). L’Indo-américain Aravind Srinivas (directeur général), le Biélorusse Denis Yarats (directeur technique) et les Américains Andy Konwinski (président) et Johnny Ho (directeur de la stratégie) sont décidé à mettre les bouchées doubles pour s’attaquer à la position dominante de la filiale d’Alphabet. C’est du côté du numéro un mondial (3) des smartphones – Samsung Electronics, déjà investisseur depuis un an dans Perplexity AI – que se trouve la clé de ses ambitions face à Google, tout en rivalisant avec le nouvel entrant de la première heure, OpenAI et son « ChatGPT Search » (4) lancé fin octobre 2024. Des négociations sont en cours avec le fabricant sud-coréen des Galaxy, fonctionnant tous – ironie de l’histoire – sur (suite)

le système d’exploitation le plus répandu au monde dans les smartphones, Android de… Google.

Préinstallé sur des millions de smartphones
Par ailleurs, Perplexity AI vient de conclure un accord mondial avec un autre fabricant de téléphones mobiles, de moindre envergure celui-là, Motorola, filiale du chinois Lenovo depuis 2014. « Perplexity sera préinstallé sur des millions de smartphones dans le monde [dont les modèles pliables Razr, ndlr], offrant aux utilisateurs de Motorola un accès direct à notre moteur de réponse et à notre assistant », a annoncé le 27 avril (5) la licorne. Mais c’est avec Samsung que le petit rival de Google pourrait devenir grand, le sudcoréen détenant en 2024 une part de marché mondiale des smartphones de 18,1 %, d’après IDC – contre seulement 3,7 % pour Motorola.
Préinstaller Perplexity sur les millions de Galaxy vendus chaque année (223,5 millions d’unités vendues l’an dernier) lui offrirait une véritable rampe de lancement. « Les termes pourraient inclure l’offre de Perplexity comme une option d’assistant IA par défaut ou en préchargeant l’application Android au démarrage sur les téléphones. Samsung pourrait également promouvoir fortement l’assistant comme une option dans le Galaxy Store, où les utilisateurs téléchargent des applications », ont indiqué à Bloomberg le 17 avril des personnes au fait des discussions (6). Ni Perplexity ni Samsung n’ont souhaité commenter ces informations. Des sources de l’agence de presse new-yorkaise ont en outre indiqué que, après le premier investissement via son Next il y a un an, « Samsung envisage de faire un autre investissement dans Perplexity dans un proche avenir » et dans le cadre du nouveau tour de table financier que la licorne de San Francisco tente de constituer pour lever jusqu’à 1 milliard de dollars. Si les négociations entre Perplexity AI et Samsung aboutissaient, Google pourrait se sentir doublé, lui qui a noué dès janvier 2024 un partenariat d’envergure avec le fabricant mondial des smartphones. Ainsi, Gemini Pro et Imagen 2 de Google DeepMind – respectivement le modèle IA multimodal et l’IA générative d’images – sont accessibles sur des millions de Galaxy. Et lors du procès antitrust en cours aux Etats-Unis contre Google accusé de « monopole illégal », procès où Perplexity a d’ailleurs été appelé à donner son avis (7)), des témoignages recueillis montrent que la filiale d’Alphabet paie chaque mois à Samsung « une énorme somme d’argent » pour préinstaller son application IA, Gemini, sur les appareils Samsung.
Perplexity AI n’est pas le seul à essayer de trouver avec Samsung un accord mondial pour concurrencer Google dans la « Galaxy » Samsung : Microsoft, OpenAI et Meta, dont la messagerie WhatsApp accueille Perplexity depuis le 26 avril (8), ont eux aussi approché le fabricant sud-coréen, pour tenter d’être aux premières loges. « Perplexity AI est dirigé par une équipe fondatrice de quatre personnes aux compétences diverses mais complémentaires. Aravind Srinivas, le PDG, apporte une riche expertise en IA acquise chez OpenAI, mettant en évidence un leadership fort et une vision stratégique pour l’entreprise [Denis Yarats, lui, fut chercheur en AI durant six ans chez Facebook, ndlr]. Leur expérience collective couvre l’IA, le développement commercial, l’ingénierie et les technologies perturbatrices, ce qui les positionne bien pour relever les défis du développement d’un moteur de recherche de nouvelle génération », expliquait admiratif Samsung Next il y a un an (9).

Perplexity, candidat au rachat de TikTok US
En mars dernier, Aravind Srinivas a indiqué sur LinkedIn (10) que la licorne a franchi la barre des 100 millions de dollars de chiffre d’affaires annuel. Les quatre cofondateurs ont en outre créé la surprise en se portant candidat au rachat de la filiale américaine de TikTok, que les Etats-Unis pressent la maison mère chinoise ByteDance de céder. « La combinaison du moteur de réponse de Perplexity avec la vaste vidéothèque de TikTok nous permettrait de créer la meilleure expérience de recherche au monde », a assuré le 21 mars la start-up qui propose de « reconstruire l’algorithme de TikTok sans créer de monopole » (11). Donald Trump a donné à ByteDance jusqu’au 19 juin comme nouvelle date limite de vente de TikTok US. La licorne a face à lui d’autres candidats au rachat : Microsoft, Oracle, Frank McCourt ou encore MrBeast. @

Charles de Laubier

Sam Altman prévoit avec prudence de mettre en Bourse OpenAI, qui fêtera ses 10 ans fin 2025

La licorne OpenAI, cofondée par Sam Altman, Elon Musk et d’autres, achèvera sa première décennie d’existence en décembre 2025. La prochaine grande étape de la société éditrice de ChatGPT, que Edition Multimédi@ a questionné à ce sujet, sera son introduction en Bourse, envisagée avec prudence.

« OpenAI a annoncé en décembre 2024 son intention d’adopter le statut de Public Benefit Corporation (PBC), dans le Delaware, une structure juridique qui permet de concilier objectifs lucratifs et missions d’intérêt général. Cette évolution pourrait faciliter une future entrée en Bourse, bien qu’aucun calendrier précis n’ait été communiqué », a répondu ChatGPT à Edition Multimédi@ sur la future cotation de la célèbre licorne. D’après le chatbotmaison, son PDG Sam Altman (photo) envisage « avec prudence » cette IPO (1), « conscient des enjeux éthiques, juridiques et financiers liés à une entreprise développant une IA puissante ».

La Bourse et la vie : modèle hybride
OpenAI poursuit sa transition vers une structure commerciale. Initialement fondée en décembre 2015 comme organisation à but non lucratif, elle a adopté en 2019 un modèle hybride qui combine une entité à but lucratif (OpenAI LP) supervisée par une fondation mère à but non lucratif (OpenAI Inc.). La prochaine introduction en Bourse devrait permettre à la partie lucrative de lever suffisamment de capitaux pour répondre à la forte demande croissante d’investissement en développements et infrastructures pour l’intelligence artificielle. La « start-up-labo » a fait savoir fin mars qu’elle lèverait – avec l’aide de Softbank (2) – jusqu’à 40 milliards de dollars lors d’un nouveau tour de table, valorisant (une fois bouclé) la société à 300 milliards de dollars.
Cette levée de fonds, en cours, sera quatre fois supérieure aux 10 milliards de dollars initiaux réunis à partir de 2019, notamment auprès de Microsoft, qui augmenta par la suite sa mise (3). La licorne californienne a besoin (suite)

de financer son objectif de construire une AGI (Artificial General Intelligence) qu’elle définit comme « un système hautement autonome qui surpasse les humains dans le travail le plus économiquement valorisant ». D’après ChatGPT, des analyses envisagent une capitalisation boursière d’OpenAI pouvant dépasser les 400 milliards de dollars, dépassant IBM ou Tencent ! Et ce, tout en conservant une gouvernance éthique. Le 16 avril dernier, les membres de sa nouvelle « commission à but non lucratif » ont été dévoilés, pour guider OpenAI dans ses projets sociétaux. Daniel Zingale (photo ci-dessus) préside cette commission, aux côtés de la dirigeante syndicale reconnue et militante des droits civiques Dolores Huerta (4), et de trois autres conseillers : Monica Lozano, Robert Ross et Jack Oliver. « Les conseillers recevront des enseignements et commentaires de la communauté sur la façon dont la philanthropie d’OpenAI peut résoudre des problèmes systémiques à long terme, tout en tenant compte à la fois des promesses et des risques de l’IA », a précisé OpenAI (5). Les conclusions de la commission sont attendues dans les 90 jours, soit d’ici le 14 juillet. « Le conseil d’administration tiendra compte de ces idées pour faire évoluer l’organisation à but non lucratif OpenAI bien avant la fin de 2025 », a assuré début avril le PDG Sam Altman (6).
Conciliant recherche de profit et intérêt général, les deux entités d’OpenAI (OpenAI LP et OpenAI Inc.) vont être au cours de cette année 2025 chapeauté par une « holding » enregistrée dans l’Etat américain fiscalement avantageux du Delaware, sous le statut de Public Benefit Corporation (PBC), conformément à ce qu’OpenAI avait annoncé en décembre 2024. « Nous avons un organisme à but non lucratif et un à but lucratif aujourd’hui, et nous continuerons d’avoir les deux, le succès de l’organisme à but lucratif permettant à l’organisme à but non lucratif d’être bien financé, mieux soutenu et dans une position plus forte pour la mission », précise la licorne de l’IA à l’origine de ChatGPT lancé en novembre 2022. « Aujourd’hui, plus de 300 millions de personnes l’utilisent chaque semaine pour la productivité, l’apprentissage et plus encore, la plupart d’entre eux gratuitement », a indiqué l’entreprise qui va donc transformer sa partie lucrative en une PBC.

Statut PBC, « pour lever les capitaux nécessaires »
« [Ce statut PBC] exige que l’entreprise équilibre les intérêts des actionnaires, les intérêts des parties prenantes et l’intérêt public dans sa prise de décision. Cela nous permettra de lever les capitaux nécessaires avec des conditions conventionnelles comme d’autres dans ce domaine », a assuré OpenAI, qui ambitionne d’être « l’un des organismes sans but lucratif les mieux dotés de l’histoire » (7). L’entité à but non lucratif détiendra des actions de la future société PBC, qui chapeautera aussi l’entité faisant des profits. En creux, l’éditeur de ChatGPT, de Dall-E ou encore de Sora prépare le terrain pour ouvrir son capital au public. Reste à connaître le calendrier d’introduction en Bourse. @

Charles de Laubier

L’explosion des centres de données en Europe pose de sérieux problèmes environnementaux

Les centres de données explosent, atteignant près de 10.000 installations dans le monde. La France n’échappe pas à cette demande de data centers pour y faire tourner les intelligences artificielles et les services de cloud. Ces fermes informatiques présentent un risque réel pour l’environnement.

Ils s’appellent Amazon Data Services (AWS), Equinix, OVHcloud, Data4, Telehouse, Digital Realty, Atos, Scaleway, ou encore Microsoft Azure. Ce sont les opérateurs de centres de données, dont le marché français – à l’instar de ce qui se passe dans le monde – explose pour répondre à la forte demande de l’intelligence artificielle et des services de cloud. « On entend par centres de données les installations accueillant des équipements de stockage de données numériques », définit officiellement le code des postes et des communications électroniques (CPCE). Et « on entend par opérateur de centre de données toute personne assurant la mise à la disposition des tiers d’infrastructures et d’équipements hébergés dans des centres de données » (1).

L’Europe va tripler ses centres de données
Cette course frénétique aux data centers engagée partout dans le monde correspond à un marché total dont le chiffre d’affaires est estimé à 452,5 milliards de dollars en 2025, avec une croissance annuelle moyenne de 8,3 % prévue jusqu’en 2029, ce qui devrait générer 624 milliards de dollars cette année-là, d’après une étude de Brightlio (2). Et selon Statista, la France pèserait actuellement 2,7 % de ce marché mondial (3). Des entreprises pratiquant l’informatique en nuage (dans le cloud) aux éditeurs d’IA génératives (ChatGPT, Gemini, Mistral, …), en passant par les producteurs de contenus audiovisuels, la clientèle se bouscule aux portillons.
Se pratique soit la colocation lorsque plusieurs clients installent et gèrent dans des centres de données leur(s) propre(s) réseau(x), serveurs, équipements et services de stockage, soit le co-hébergement lorsque plusieurs clients ont accès à un ou plusieurs réseaux, serveurs et équipements de stockage fournis en tant que service par l’opérateur de centres de données. Et la montée en charge promet (suite)

d’être exponentielle : lors du « Sommet pour l’action sur l’IA », en février dernier à Paris, le président de la République Emmanuel Macron a mis sur la table 109 milliards d’euros pour l’IA en France sur cinq ans, avec à la clé de nouveaux data centers à construire sur 35 sites identifiés dans l’Hexagone, lequel compte déjà 300 centres de données d’après le Conseil économique social et environnemental (Cese). Le lendemain de cette annonce, l’Arcep présidée par Laure de La Raudière (photo de droite), publiait – bien à-propos – un livret intitulé, comme pour interpeller le chef de l’Etat, « Y a-t-il une IA pour sauver la planète ? », issu du « Tribunal pour les générations futures » (4). Au niveau européenne cette fois, la Commission européenne a mis les bouchées doubles dans le cadre des 200 milliards d’euros prévus pour l’IA (5), en détaillant le 9 avril son « AI Continent Action Plan ». Objectif : « Au moins tripler la capacité des centres de données de l’UE au cours des cinq à sept prochaines années, en privilégiant les centres de données hautement durables ».
Pour y parvenir, la vice-présidente européenne en charge de la souveraineté technologique, Henna Virkkunen (photo de gauche), a annoncé qu’elle proposera « une loi sur le développement de l’informatique en nuage et de l’IA ». Côté infrastructures, la Commission européenne veut à la fois renforcer un réseau d’« usines d’IA » (AI Factories) au-delà des 13 existantes dotées de supercalculateurs européens, et mettre en place des « gigafactories d’IA » (AI Gigafactories) équipées chacune d’environ 100.000 puces d’IA, soit quatre fois plus que les usines d’IA actuelles. Cela comprend donc pour Bruxelles « des centres de données massifs pour former et développer des modèles d’IA complexes à une échelle sans précédent ». Un appel à manifestation d’intérêt pour les consortiums intéressés a été publié dans la foulée.
Les investissements privés dans les gigafactories seront en outre stimulés par le biais d’InvestAI, qui mobilisera 20 milliards d’euros d’investissements pour un maximum de cinq gigafactories d’IA dans l’Union européenne (6). Ces investissements massifs dans les centres de données dans les Vingt-sept va immanquablement accroître l’impact du numérique sur l’environnement.

Des quantités de térawatt-heures (TWh)
Est considéré comme « gros centre des données » celui dont la puissance maximale admissible en équipements informatiques est supérieure à 500 kilowatts (kW), c’est-à-dire au niveau maximal de puissance que l’installation électrique alimentant toutes les salles informatiques du data center peut fournir en instantané aux équipements informatiques hébergés dans chacune de ses salles. Mis bout-à-bout, les centres données d’un pays comme la France consomment par an des quantités de térawattheures (TWh). C’est là qu’entre la notion d’« efficacité énergétique » d’un centre de données, laquelle est généralement mesurée par l’indicateur du Power Usage Effectiveness (PUE). Il est calculé comme le rapport entre sa consommation électrique totale et la consommation électrique de ses équipements informatiques (7). Plus la valeur du PUE d’un centre de données est proche de 1, plus il est considéré comme performant d’un point de vue énergétique.

Electricité et eau court-circuitent la planète
En France, constate l’enquête annuelle de l’Arcep « Pour un numérique soutenable », publié le 17 avril (8), « la consommation électrique totale des centres de données augmentant moins vite (+ 8 % en 2023) que la consommation électrique des équipements informatiques (+ 12 %), le PUE moyen des centres de données s’améliore légèrement en 2023 (1,46 en 2023 contre 1,51 en 2022) ». Mais des disparités demeurent selon l’ancienneté du data center : s’il a été mis en service au cours des dix dernières années, il a de grande chance d’être plus efficaces énergétiquement en moyenne que celui mis en service antérieurement : « Le PUE moyen s’élève à 1,34 pour les centres de données mis en exploitation entre 2013 et 2022 (soit un peu plus d’un tiers des centres de données étudiés), tandis qu’il s’élève en moyenne à 1,54 pour ceux mis en exploitation il y a plus de dix ans (avant 2013) », relève l’étude de l’Arcep.
La consommation électrique du centre de données prend en compte l’ensemble de ses consommations, celles des équipements informatiques (capacité maximale admissible à délivrer une quantité d’énergie par unité de temps aux équipements informatiques), mais également celles des systèmes de refroidissement, de l’éclairage des bureaux, du chauffage, etc (consommation électrique). Au-delà de l’électricité, il y a l’eau. Une fois mis en service, les équipements informatiques des centres de données génèrent de la chaleur, ce qui nécessite leur refroidissement pour éviter qu’ils ne fondent ou ne grillent. Or ces solutions de refroidissement sont plus ou moins énergivores elles-aussi et ont un impact sur la ressource en eau. La quantité d’eau prélevée pour refroidir les centres de données dépend en outre des conditions météorologiques, alors les ressources en eau s’amenuisent durant les périodes de forte chaleur, là où les centres de données ont justement le plus besoin d’eau pour être refroidis. Ce sont ainsi des centaines de milliers de mètres-cubes d’eau, pour l’essentiel potable, qui sont utilisés sur une année. Outre son utilité de « liquide de refroidissement », l’eau sert aussi pour le traitement de l’air en tant qu’humidificateur, ainsi que pour le rechargement des circuits fermés, le nettoyage et l’arrosage des équipements techniques, sans parler des sanitaires pour le personnel ou les restaurants d’entreprise.
Rien qu’en France, les émissions de gaz à effet de serre (GES) émis ensemble par les acteurs du numérique que sont les fabricants de terminaux, les opérateurs télécoms et les opérateurs de centres de données dépassent largement le million de tonnes de CO2. Dans son enquête annuelle, l’Arcep a non seulement interrogé vingt-et-un opérateurs de centres de données, mais aussi quatre opérateurs télécoms (Orange, Bouygues Telecom, Free et SFR), vingt-trois fabricants de terminaux (smartphones, tablettes, ordinateurs portables, écrans d’ordinateur et téléviseurs) et quatre équipementiers de réseaux mobiles. Il en ressort qu’en 2023 le volume de GES rejeté par ces quatre catégories d’acteurs du numérique s’est élevé à 954.000 tonnes équivalent CO2, soit l’empreinte carbone annuelle de près de 102.000 personnes en France cette année-là. « Ces émissions progressent légèrement, d’environ 1 % par an depuis 2021, dans un contexte de baisse des émissions globales de gaz à effet de serre en France (- 5,8 % en 2023) », souligne l’Arcep. Il ne serait pas surprenant que les prochaines enquêtes annuelles portant sur 2024 et 2025 montrent des centres de données beaucoup plus énergivores. @

Charles de Laubier

Le grand remplacement des moteurs de recherche traditionnels par des IA génératives est… poussif

Il y a un an, l’institut d’études Gartner prévoyait d’ici 2026 une baisse de 25 % du volume des requêtes sur les moteurs de recherche traditionnels au profit des robots conversationnels IA (chabots) et autres IA génératives. Or la position dominante historique de Google reste toujours aussi forte.

La suprématie de Google (filiale d’Alphabet) sur le marché mondial des moteurs de recherche reste quasiment inchangée à fin janvier 2025 par rapport à il y a un an, et malgré la déferlante des IA génératives et autres chabots boostés à l’intelligence artificielle. D’après StatCounter, le moteur de recherche Google s’arroge encore 89,78 % de part de marché mondiale dans le search (1). L’érosion est infinitésimale comparé aux 91,47 % observés il y a un an, en janvier 2024. Les rivaux restent de petits poucets, avec Bing de Microsoft à 3,94 %, le russe Yandex à 2,74 %, Yahoo à 1,27 %, le chinois Baidu à 1,71 % et DuckDuckGo en-dessous de 1 %.

Google Search : chute de 25 % d’ici 2026 ?
Le maintien de la position dominante de Google a de quoi interpeller, alors que les IA génératives en tout genre ne cessent de défrayer la chronique et que les chat-search veulent en découdre avec le search traditionnel. Les ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Perplexity (Perplexity AI) et autres Copilot (Microsoft), sans parler de DeepSeek (société chinoise DeepSeek AI), ne semblent pas avoir entamé – même d’un iota – la suprématie de Google. L’accès google.com reçoit à lui seul plus de 83 milliards de visites chaque mois – 83,26 milliards sur décembre 2024, selon SimilarWeb. Viennent s’ajouter les accès locaux comme google.fr, (suite)

lequel génère plus de 265 millions de visites par mois – 265,4 millions sur décembre 2024. Fort de ces fréquentations massives, la maison mère Alphabet et sa filiale Google – toutes deux présidées par Sundar Pichai – n’ont pas vraiment de quoi s’inquiéter pour l’avenir de son moteur de recherche. Du moins pour l’instant.
Est-ce à dire que l’institut américain Gartner s’est emballé un trop vite il y a un an presque jour pour jour – le 19 février 2024 – lorsqu’il a prévu « une baisse de 25 % du volume des moteurs de recherche d’ici 2026, en raison des chatbots IA et autres agents virtuels » ? La guerre déclarée entre les « TradSearch » et les « AI Search » allait provoquer une chute des requêtes – d’un quart en deux ans – sur les moteurs de recherche traditionnels, Google en tête. Or pour l’instant, rien de nouveau sous le soleil du search. Le moteur de la firme de Mountain View caracole toujours en tête, écrasant encore de tout son poids ses concurrents. Il reste cependant toute l’année 2025 pour que le pronostique de Gartner se réalise, mais c’est peu probable. Son analyste et viceprésident Alan Antin (photo) avait même affirmé : « Les solutions d’IA générative (GenAI) deviennent des moteurs de réponses de substitution, remplaçant les requêtes des utilisateurs qui auparavant pouvaient être exécutées dans les moteurs de recherche traditionnels. Cela forcera les entreprises à repenser leur stratégie de canaux marketing, car les GenAI seront davantage intégrées dans tous les aspects de l’entreprise ». Les agents virtuels vont-ils vraiment remplacer à termes la recherche traditionnelle ? Gartner explique que les IA génératives – lesquelles réduisent le coût de production des contenus – auront un impact sur la stratégie des mots-clés, ou SEO (Search Engine Optimization), et sur le score du site web, via la mesure dite Domain Authority (DA) ou Domain Rating (DR). Et comme les algorithmes des moteurs de recherche valoriseront davantage la qualité du contenu pour compenser la quantité de contenu généré par l’IA, Alan Antin recommandait aux entreprises de « se concentrer sur la production de contenu unique qui soit utile aux clients et aux clients potentiels » (2). Fini le SEO, bonjour le GEO (Generative Engine Optimisation) et le LLMO (Large Langage Model Optimisation).
En attendant une (hypothétique) bascule du vieux monde des moteurs de recherche (liens à cliquer) vers le nouveau monde des moteurs de réponses (écrites avec sources), Google a encore de beaux jours devant lui. Surtout que la filiale d’Alphabet a dégainé l’an dernier Google Overviews qui revient à mettre de l’IA dans son moteur. Après les Etats-Unis dès mai 2024, cette fonctionnalité – affichant en haut des résultats la réponse écrite de l’IA générative (les liens sponsorisés ou pas étant relégués en dessous) – a été déployée à partir d’octobre 2024 dans plus de 100 pays, pas en France (3).

Les prévisions osées de Gartner
Contacté par Edition Multimédi@ à propos de cette chute des 26 % d’ici 2026, une porte-parole de Gartner nous indique que « la prédiction n’a pas été mise à jour ». Ce n’est pas la première fois que Gartner s’avance un peu trop dans ses prévisions. En décembre 2023, l’institut de Stamford (ville du Connecticut où il a son siège social) avait prédit que 50 % des utilisateurs de médias sociaux les abandonneraient d’ici 2025 ou limiteraient considérablement leurs interactions avec eux à cause d’une dégradation de la qualité (4). On constate aujourd’hui qu’il n’y a de fuite d’ampleur des consommateurs en vue, même chez X. @

Charles de Laubier