Révolution du jeu vidéo : l’IA le crée en temps réel

En fait. Le 4 avril, Microsoft a mis en ligne une version du jeu vidéo « Quake 2 », dont le contenu est généré en temps réel par son modèle d’intelligence artificielle Muse, en fonction de l’évolution du joueur. Ce n’est pas le premier à s’engager dans cette révolution de la production « IA » de jeux vidéo.

En clair. Attention, chamboulement en vue dans le développement des jeux vidéo. L’IA générative de jeux vidéo en temps réel va déferler dans cette industrie du 10e Art. C’est notamment ce que promettent chacun de leur côté Microsoft, avec une version évolutive de « Quark 2 », et la start-up californienne Decart, avec son jeu « Oasis » aussi généré dynamiquement. Leur point commun réside dans le fait que c’est le modèle d’intelligence artificielle utilisé qui crée le contenu du jeu, en temps réel, en fonction des actions et des avancées du joueur dans le gameplay. L’utilisateur influence directement la création par l’IA des environnements vidéoludiques du jeu, lequel évolue en fonction de ses choix, offrant ainsi au gamer une expérience immersive et personnalisée hors du commun.
Dans une longue interview très remarquée et enregistrée le 19 février dernier (1), le PDG de Microsoft, Satya Nadella, a annoncé que sa console de jeux vidéo Xbox « all[ait] bientôt avoir un catalogue de jeu qui utiliseront ces modèles [d’IA comme Muse, ndlr] ». Le coup d’envoi a été donné le 7 avril par la firme de Redmond (Californie) avec la mise en ligne pour PC d’une version « IA » du jeu vidéo de tir à la première personne (FPS), lequel avait été développé (suite)
historiquement et publié en 1997 par la société de développement ID Software, rachetée en 2021 par Microsoft via l’achat de ZeniMax Media. Grâce au modèle d’IA générative Muse et le modèle Wham (World and Human Action Model), tous deux développés par Microsoft Research et hébergé par Copilot Labs (2), « Quark 2 » voit son gameplay, ses niveaux et ses histoires « développés » en temps réel par l’IA, en s’adaptant aux actions du joueur. « Whamm [version optimisée de Wham, ndlr] est capable de générer des images à plus de 10 images par seconde, ce qui permet une génération vidéo en temps réel. En revanche, Wham-1.6B [1,6 milliard de paramètres, ndlr] peut générer environ une image par seconde », explique Microsoft Research dans son blog (3).
Quant à la start-up Decart, elle propose une version « IA » gratuite du jeu de construction Minecraft, propriété de Microsoft via Mojang, grâce à son modèle Oasis (4) expérimental présenté dès octobre 2024. Google DeepMind a aussi présenté en août 2024 ses ambitions dans ce domaine avec son projet GameNGen (5), qui peu exécuter le jeu de tir « Doom » à plus de 20 images par seconde. @

Les livres générés par de l’IA bousculent les maisons d’édition traditionnelles du monde entier

Alors que le Syndicat national de l’édition (SNE) – qui regroupe les majors françaises du livre parmi plus de 700 membres – organise le 42e Festival du Livre de Paris (12-13 avril), les IA génératives s’invitent parmi les « auteurs » avec des ouvrages dont elles ont écrit tout ou partie. Disruptif.

Pendant que l’industrie du livre fait son festival à Paris, l’intelligence artificielle vient jouer les trouble-fête en s’immisçant de plus en plus dans le monde de l’édition. Une nouvelle génération d’éditeurs, férus de technologies, s’apprêtent à disrupter la production de livres en accélérant leur mise sur le marché grâce notamment à l’IA générative pour raccourcir le temps de l’écriture et les éditer le plus rapidement possible auprès des lecteurs.

L’IA édite un livre en quelques jours
« Le monde de l’édition a peu changé depuis l’époque de Gutenberg et appelle à la transformation », prévient la startup américaine Spines (ex-BooxAI), cofondée en 2021 par l’Israélien Yehuda Niv (photo de gauche). Spines est une plateforme d’édition basée sur l’intelligence artificielle, qui propose aux auteurs « un moyen facile de publier, distribuer et commercialiser leurs livres, le tout en un seul endroit, en seulement 8 jours, du manuscrit à un titre publié, y compris la relecture, le formatage, la conception de la couverture, la distribution et le marketing sur tous les principaux canaux et plateformes ». Une semaine ! Là où les maisons traditionnelles mettent des mois avant de publier un livre. Yehuda Niv, PDG de la startup basée en Floride (1), et ses équipes veulent « réinventer le futur de l’édition ». « Nous voulons publier jusqu’à 8.000 livres en 2025. L’objectif est d’aider 1 million d’auteurs à publier leurs livres », avait déclaré Yehuda Niv, en novembre dernier à The Bookseller (2).
La plateforme Spines revendique (au 11 avril 2025) plus de (suite)
2.800 auteurs édités. « Il vous suffit de télécharger votre manuscrit et, en quelques jours, de le voir se transformer en un chef-d’œuvre publié et apprécié par les lecteurs du monde entier. Notre IA est comme un éditeur vigilant, scannant méticuleusement votre manuscrit à la recherche de tout problème de grammaire ou de zones qui bénéficieraient d’une amélioration », promet-elle aux auteurs. C’est de l’auto-édition à compte d’auteur boostée à l’IA, moyennant 1.200 à 5.000 dollars, les droits d’auteur lui revenant intégralement. Au Texas cette fois, les jumeaux Mikkelsen – Christian (photo de droite), PDG, et Rasmus, directeur technique, cofondateurs en 2018 de la société d’auto-édition Publishing.com – ont lancé en août 2024 Publishing.ai, leur plateforme logicielle conçue pour « rationaliser le processus d’édition de livres en exploitant l’intelligence artificielle éthique de pointe pour permettre aux auteurs, éditeurs et créateurs de contenu de produire des livres de haute qualité plus rapidement, plus facilement et plus économiquement que jamais » (3). L’IA va prémâcher en quelques minutes le travail de l’auteur, en lui suggérant les idées de livres les plus vendues, avec analyse du lectorat potentiel. Et en quelques heures, un « Manuscript Assistant » va lui produire un brouillon de 30.000 mots, construit selon ses spécifications et prêt pour des touches personnelles. L’IA permet en outre la personnalisation du style d’écriture et du ton en fonction de ce que souhaite l’auteur. Son manuscrit, unique, est alors prêt à être édité ! « Nos outils sont conçus pour améliorer votre créativité, pas la remplacer », assure Rasmus Mikkelsen. Et selon les jumeaux, avec Publishing.ai, « il n’est pas nécessaire d’embaucher de coûteux écrivains fantômes [ghostwriters, ou « nègres » selon la regrettable expression remplacée par « prête-plume », ndlr] »… De leur côté, Microsoft et ByteDance (maison mère de TikTok) sont en embuscades avec leur nouvelle maison d’édition, respectivement 8080 Books et 8th Note Press.
En France, la « maison d’auto-édition et agence littéraire » Libranova, cofondée en 2014 par Charlotte Allibert (photo ci-contre) et Laure Prételat, « suppose que ce sont plusieurs milliers d’ouvrages qui ont été rédigés par l’IA et publiés en France, notamment via la plateforme Amazon Kindle Direct Publishing ». Le géant du e-commerce autorise chaque compte KDP à publier jusqu’à trois publications par jour (4), afin de limiter l’édition massive facilitée par l’IA, « ce qui implique qu’un compte peut [tout de même, ndlr] générer environ 1.095 titres par an », relèvent-elles.

« Human Authored » et « Création Humaine »
Il y a un an, Libranova s’est associé au label payant « Création Humaine » (5), lancé en 2023 par Nicolas et Cécile Gorse, pour certifier que le contenu n’a pas été généré par une IA (6). Aux Etats-Unis, en janvier 2025, la Authors Guild a lancé dans le même esprit la certification « Human Authored » (7) pour « préserver l’authenticité de la littérature », ayant constaté que « les livres générés par l’IA inondent les marchés en ligne et ressemblent de plus en plus à des livres d’auteurs humains ». Les maisons d’édition risquent d’en perdre leur latin. @

Charles de Laubier

Micro-ciblage en Europe : état des lieux, sept ans après le scandale « Cambridge Analytica »

Depuis le scandale « Cambridge Analytica » il y a sept ans, dont Facebook est à l’origine et qui a bouleversé notre perception du numérique, l’Union européenne s’est constituée un arsenal réglementaire unique au monde, encadrant le micro-ciblage et la transparence des publicités politiques.

Par Jade Griffaton, avocate counsel, Milestone Avocats

En 2018, le monde découvrait avec stupeur que Facebook avait permis la collecte illégale de données personnelles de plus de 87 millions d’utilisateurs par la société britannique Cambridge Analytica (1). Ces données, minutieusement exploitées entre 2014 et 2015, avaient servi à influencer les électeurs lors de scrutins majeurs, notamment la présidentielle américaine de 2016 et le référendum sur le Brexit de la même année. Ce scandale retentissant a brutalement mis en lumière les dangers considérables que représente le micro-ciblage politique pour l’intégrité des processus démocratiques.

Techniques de persuasion psychologique
Sept ans après cette affaire aux répercussions mondiales, l’Europe a considérablement renforcé son arsenal juridique concernant l’encadrement des publicités politiques et la protection des citoyens contre ces pratiques particulièrement invasives. Le micro-ciblage constitue une méthode de publicité numérique sophistiquée qui exploite méthodiquement les données personnelles pour identifier avec précision les intérêts, les préoccupations et les vulnérabilités d’individus ou de groupes spécifiques. Cette identification minutieuse poursuit un objectif précis : influencer délibérément leurs comportements et leurs opinions politiques par des messages personnalisés.
Contrairement au profilage publicitaire classique, le microciblage politique présente des caractéristiques particulièrement préoccupantes pour nos démocraties. Il transcende la simple identification des personnes en croisant de multiples sources de données pour en déduire des informations particulièrement sensibles telles que les opinions politiques latentes, les convictions religieuses ou l’orientation sexuelle des individus. Cette technique permet (suite)

également la diffusion simultanée de messages parfaitement contradictoires à différents groupes d’électeurs sans que ceux-ci en aient conscience, créant ainsi des espaces informationnels fragmentés et hermétiques. Les stratégies contemporaines de micro-ciblage s’appuient par ailleurs sur des techniques de persuasion psychologique avancées, adaptées avec une minutie inquiétante à chaque profil d’électeur identifié par les algorithmes. Il a été démontré que, selon son degré de sophistication, le micro-ciblage politique peut engendrer plusieurs effets profondément délétères sur le processus démocratique européen. Il renforce significativement la polarisation politique en enfermant méthodiquement les citoyens dans des bulles informationnelles, lesquelles confortent exclusivement leurs opinions préexistantes et limitent drastiquement leur exposition à des points de vue divergents ou contradictoires. Cette technique influence considérablement le comportement électoral, particulièrement auprès des segments les plus vulnérables comme les indécis ou les primovotants, naturellement plus sensibles à ces formes de persuasion personnalisée. Le micro-ciblage contribue également à dégrader substantiellement la qualité du débat démocratique en fragmentant l’espace public en une multitude de sphères de communication isolées, où les citoyens ne partagent plus un socle commun d’informations nécessaire au dialogue civique. Par ailleurs, il amplifie méthodiquement la diffusion de fausses informations en les adaptant spécifiquement aux biais cognitifs de chaque segment d’électeurs, maximisant ainsi leur impact persuasif sans considération pour la vérité factuelle.
Cette capacité inédite à manipuler l’opinion de manière invisible et personnalisée représente actuellement un risque majeur pour l’intégrité des processus démocratiques européens, d’autant plus inquiétant qu’il opère largement sous le radar des régulations traditionnelles des campagnes électorales. Face à ces défis sans précédent, l’Union européenne (UE) a progressivement développé un cadre réglementaire particulièrement ambitieux combinant plusieurs instruments juridiques complémentaires.
Le RGPD, fondement de la régulation sur la collecte des données (2). Entré en vigueur en 2018, le règlement général sur la protection des données (RGPD) constitue indéniablement la pierre angulaire de la protection contre le micro-ciblage abusif.

Les opinions politiques : données sensibles
Le RGPD impose systématiquement l’obtention d’un consentement libre, spécifique, éclairé et univoque des utilisateurs avant toute collecte et utilisation de leurs données personnelles. Il exige également la limitation stricte de la collecte aux données rigoureusement nécessaires, conformément au principe de minimisation qui vise explicitement à réduire l’empreinte numérique des citoyens européens. Ce règlement accorde aux individus des droits substantiellement renforcés, notamment en matière d’accès complet, de rectification immédiate, d’effacement définitif et d’opposition justifiée au traitement de leurs données. Une protection particulièrement renforcée est accordée aux données catégorisées comme sensibles, parmi lesquelles figurent expressément les opinions politiques des individus. En cas de violation avérée de ces principes fondamentaux, le règlement prévoit des amendes dissuasives pouvant atteindre l’impressionnant montant de quatre pour cent du chiffre d’affaires mondial des organisations contrevenantes.

Des directives et des règlements renforcés
La directive « ePrivacy 1 » (3), et son évolution nécessaire vers « ePrivacy 2 ». Datant de 2002, la directive « ePrivacy 1 » encadre précisément les communications électroniques et les diverses techniques de traçage en ligne. Elle établit une régulation particulièrement stricte de l’utilisation des cookies et autres « mouchards » numériques, exigeant systématiquement un consentement explicite préalable à leur déploiement pour tout suivi publicitaire. La directive renforce considérablement la protection de la confidentialité des communications électroniques, élément essentiel pour prévenir efficacement la collecte non autorisée d’informations susceptibles d’alimenter les algorithmes de micro-ciblage politique. Sa révision actuellement en cours, vers la directive « ePrivacy 2 » (4) vise à renforcer substantiellement ces dispositions face à l’évolution très rapide des technologies de suivi comportemental.
Le Digital Services Act (5) et le Digital Markets Act (6), pour la régulation des plateformes. Adoptés conjointement en 2022, ces règlements complémentaires, DSA et DMA, constituent une avancée particulièrement significative dans la régulation des plateformes numériques dominantes. Ils instaurent des obligations de transparence sans précédent concernant les systèmes algorithmiques de recommandation et les mécanismes publicitaires, permettant aux utilisateurs de comprendre précisément pourquoi et comment certains contenus leur sont spécifiquement présentés. Ces textes novateurs interdisent formellement toute forme de ciblage publicitaire basé sur des données catégorisées comme sensibles, classification dans laquelle s’inscrivent naturellement les opinions politiques des citoyens européens. Des obligations substantiellement renforcées s’appliquent désormais aux très grandes plateformes en ligne, qui doivent impérativement procéder à des audits réguliers et approfondis des risques systémiques liés à leurs services, incluant spécifiquement et explicitement ceux susceptibles d’affecter négativement les processus électoraux et la qualité du débat démocratique européen.
Le règlement « Transparence des publicités politiques » (7), une innovation mondiale. Ce règlement sur « la transparence et le ciblage de la publicité à caractère politique » est une législation pionnière adoptée en 2023 – et applicable à partir du 10 octobre 2025 – vise spécifiquement et exclusivement à encadrer rigoureusement la publicité politique en ligne. Elle instaure une interdiction formelle et sans ambiguïté d’utiliser des techniques de micro-ciblage basées sur des données sensibles dans tout contexte politique ou électoral. Ce règlement impose aux plateformes numériques la création méticuleuse de bibliothèques publiques exhaustives répertoriant l’intégralité des publicités politiques diffusées, assurant ainsi une transparence démocratique sans précédent. Un étiquetage particulièrement clair et visible des publicités politiques devient désormais obligatoire, systématiquement accompagné d’informations détaillées sur l’identité précise du commanditaire et les montants exactement investis dans chaque campagne. Des restrictions significatives et contraignantes sont imposées quant à l’utilisation des données personnelles à des fins de ciblage politique, et une protection spécifiquement renforcée s’applique durant les périodes électorales particulièrement sensibles.
Malgré ces avancées législatives remarquables, plusieurs défis substantiels demeurent, malgré des sanctions exemplaires infligées à plusieurs acteurs majeurs comme Google et Meta. Des pratiques manipulatoires particulièrement sophistiquées, telles que les interfaces délibérément trompeuses comme les « dark patterns » ou les algorithmiques de ciblage complexes, sont régulièrement et systématiquement employés pour obtenir subrepticement un consentement vicié des utilisateurs, qui ne mesurent généralement pas pleinement la portée réelle de leur acceptation apparemment anodine. Autre défi persistant : la circulation internationale des données utilisées pour le microciblage politique. L’invalidation retentissante en 2020 du Privacy Shield (8), cadre qui régulait précédemment les transferts de données entre l’UE et les Etats-Unis, a mis en lumière les risques considérables et sous-estimés associés aux transferts internationaux d’informations personnelles à caractère politique. Le nouveau cadre transatlantique de protection des données, laborieusement adopté en 2023 (9), tente d’apporter une solution juridique viable, mais sa solidité réelle face aux exigences strictes de la jurisprudence européenne reste encore largement à démontrer dans la pratique.

Evolutions technologiques imprévisibles
L’approche réglementaire européenne équilibrée, combinant protection rigoureuse des données personnelles et préservation de l’intégrité démocratique, constitue aujourd’hui une référence mondiale incontestable en la matière. Toutefois, l’évolution technologique rapide et imprévisible – notamment avec les IA génératives – ouvre continuellement de nouvelles possibilités de manipulation politique difficiles à anticiper pour le législateur européen. La sensibilisation des citoyens européens demeure par ailleurs insuffisante, limitant significativement leur capacité à exercer pleinement leurs droits légitimes face aux technologies de persuasion. @

Impacts environnementaux : le numérique aggrave

En fait. Le 10 février, l’Arcep a publié sur son site le livret « Y a-t-il une IA pour sauver la planète ? », issu du « Tribunal pour les générations futures » organisé le 7. Le 6, une tribune dans Le Monde alertait sur « le désastre écologique » qu’accélère l’IA. Le 4, Green IT a remesuré l’impact du numérique.

En clair. Pendant que le président de la République était le maître de cérémonie du « Sommet pour l’action sur l’IA » qu’il organisait au Grand-Palais à Paris du 6 au 11 février (dont les deux derniers jours en rencontres diplomatiques), pas moins de neuf institutions publiques et universitaires – dont l’Arcep et l’Ademe (1) – chapeautaient, elles, un « Tribunal pour les générations futures » sur les enjeux numériques et environnementaux. A l’initiative de l’éditeur Usbek & Rica, cette conférence « procès » (dixit ses organisateurs) s’est tenue le 7 février à La Sorbonne à Paris pour juger de la question « Y a-t-il une IA pour sauver la planète ? ».
Ainsi, d’un côté, il y avait les annonces à très gros budget faites le 9 février par Emmanuel Macron : 109 milliards d’euros pour l’IA en France sur cinq ans, avec de nouveaux data centers à construire sur 35 sites identifiés, alors que l’Hexagone compte déjà 300 centres de données d’après le Conseil économique social et environnemental (Cese). A ces 109 milliards français pour l’IA sont venus s’ajouter (suite)

les 200 milliards d’euros pour l’IA en Europe annoncés au Sommet de « Macron » le 11 février par la présidente de la Commission européenne, Ursula von der Leyen (2). Des investissements colossaux qui ne manqueront pas d’aggraver l’impact environnemental du numérique boosté à l’intelligence artificielle. Et, de l’autre, il y avait le « jury » de cette « juridiction particulière » (dixit) qui a fait le « procès » de cette course française et européenne à l’IA au regard de l’environnement et du changement climatique. Rien qu’en France, d’après une nouvelle étude de l’Arcep et de l’Ademe publiée en janvier (3), les émissions de gaz à effet de serre du numérique pourraient augmenter de 45 % à l’horizon 2030 et tripler d’ici à 2050, alors même que le numérique représentait déjà 4,4 % de l’empreinte carbone de la France en 2022. Où est l’Accord de Paris ?
« Que ce soit pour entraîner ses modèles, alimenter les data centers et les cartes graphiques de calculs ou générer des prompts, l’IA générative se révèle particulièrement vorace en énergie, parfois très carbonée, en métaux rares et en eau », a pointé le tribunal dans son livret (4). Dans son nouveau rapport 2025 (5), l’association GreenIT démontre de son côté que « si le numérique était un pays, il émettrait autant de gaz à effet de serre que le 2 fois le Canada ou 5,5 fois la France ». @

Le grand remplacement des moteurs de recherche traditionnels par des IA génératives est… poussif

Il y a un an, l’institut d’études Gartner prévoyait d’ici 2026 une baisse de 25 % du volume des requêtes sur les moteurs de recherche traditionnels au profit des robots conversationnels IA (chabots) et autres IA génératives. Or la position dominante historique de Google reste toujours aussi forte.

La suprématie de Google (filiale d’Alphabet) sur le marché mondial des moteurs de recherche reste quasiment inchangée à fin janvier 2025 par rapport à il y a un an, et malgré la déferlante des IA génératives et autres chabots boostés à l’intelligence artificielle. D’après StatCounter, le moteur de recherche Google s’arroge encore 89,78 % de part de marché mondiale dans le search (1). L’érosion est infinitésimale comparé aux 91,47 % observés il y a un an, en janvier 2024. Les rivaux restent de petits poucets, avec Bing de Microsoft à 3,94 %, le russe Yandex à 2,74 %, Yahoo à 1,27 %, le chinois Baidu à 1,71 % et DuckDuckGo en-dessous de 1 %.

Google Search : chute de 25 % d’ici 2026 ?
Le maintien de la position dominante de Google a de quoi interpeller, alors que les IA génératives en tout genre ne cessent de défrayer la chronique et que les chat-search veulent en découdre avec le search traditionnel. Les ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Perplexity (Perplexity AI) et autres Copilot (Microsoft), sans parler de DeepSeek (société chinoise DeepSeek AI), ne semblent pas avoir entamé – même d’un iota – la suprématie de Google. L’accès google.com reçoit à lui seul plus de 83 milliards de visites chaque mois – 83,26 milliards sur décembre 2024, selon SimilarWeb. Viennent s’ajouter les accès locaux comme google.fr, (suite)

lequel génère plus de 265 millions de visites par mois – 265,4 millions sur décembre 2024. Fort de ces fréquentations massives, la maison mère Alphabet et sa filiale Google – toutes deux présidées par Sundar Pichai – n’ont pas vraiment de quoi s’inquiéter pour l’avenir de son moteur de recherche. Du moins pour l’instant.
Est-ce à dire que l’institut américain Gartner s’est emballé un trop vite il y a un an presque jour pour jour – le 19 février 2024 – lorsqu’il a prévu « une baisse de 25 % du volume des moteurs de recherche d’ici 2026, en raison des chatbots IA et autres agents virtuels » ? La guerre déclarée entre les « TradSearch » et les « AI Search » allait provoquer une chute des requêtes – d’un quart en deux ans – sur les moteurs de recherche traditionnels, Google en tête. Or pour l’instant, rien de nouveau sous le soleil du search. Le moteur de la firme de Mountain View caracole toujours en tête, écrasant encore de tout son poids ses concurrents. Il reste cependant toute l’année 2025 pour que le pronostique de Gartner se réalise, mais c’est peu probable. Son analyste et viceprésident Alan Antin (photo) avait même affirmé : « Les solutions d’IA générative (GenAI) deviennent des moteurs de réponses de substitution, remplaçant les requêtes des utilisateurs qui auparavant pouvaient être exécutées dans les moteurs de recherche traditionnels. Cela forcera les entreprises à repenser leur stratégie de canaux marketing, car les GenAI seront davantage intégrées dans tous les aspects de l’entreprise ». Les agents virtuels vont-ils vraiment remplacer à termes la recherche traditionnelle ? Gartner explique que les IA génératives – lesquelles réduisent le coût de production des contenus – auront un impact sur la stratégie des mots-clés, ou SEO (Search Engine Optimization), et sur le score du site web, via la mesure dite Domain Authority (DA) ou Domain Rating (DR). Et comme les algorithmes des moteurs de recherche valoriseront davantage la qualité du contenu pour compenser la quantité de contenu généré par l’IA, Alan Antin recommandait aux entreprises de « se concentrer sur la production de contenu unique qui soit utile aux clients et aux clients potentiels » (2). Fini le SEO, bonjour le GEO (Generative Engine Optimisation) et le LLMO (Large Langage Model Optimisation).
En attendant une (hypothétique) bascule du vieux monde des moteurs de recherche (liens à cliquer) vers le nouveau monde des moteurs de réponses (écrites avec sources), Google a encore de beaux jours devant lui. Surtout que la filiale d’Alphabet a dégainé l’an dernier Google Overviews qui revient à mettre de l’IA dans son moteur. Après les Etats-Unis dès mai 2024, cette fonctionnalité – affichant en haut des résultats la réponse écrite de l’IA générative (les liens sponsorisés ou pas étant relégués en dessous) – a été déployée à partir d’octobre 2024 dans plus de 100 pays, pas en France (3).

Les prévisions osées de Gartner
Contacté par Edition Multimédi@ à propos de cette chute des 26 % d’ici 2026, une porte-parole de Gartner nous indique que « la prédiction n’a pas été mise à jour ». Ce n’est pas la première fois que Gartner s’avance un peu trop dans ses prévisions. En décembre 2023, l’institut de Stamford (ville du Connecticut où il a son siège social) avait prédit que 50 % des utilisateurs de médias sociaux les abandonneraient d’ici 2025 ou limiteraient considérablement leurs interactions avec eux à cause d’une dégradation de la qualité (4). On constate aujourd’hui qu’il n’y a de fuite d’ampleur des consommateurs en vue, même chez X. @

Charles de Laubier