L’approche du jeux vidéo par Emmanuel Macron, président de la République, est « Brut » de fonderie

Le « en même temps » du chef de l’Etat a encore frappé. Cette fois, il a fait sortir de ses gonds l’industrie du jeu vidéo en faisant le lien entre violence et jeux vidéo, interviewé par le média Brut. Depuis, il a tenté de la rassurer sur sa « mission jeu vidéo » confiée notamment à des psychiatres.

La « mission jeu vidéo » présidentielle a été officiellement lancée le 21 février par les ministres Radida Dati (Culture, jusquà sa démission le 25 février) et Anne Le Hénanff (IA et numérique). Le chef de l’Etat, lui, avait chargé deux de ses conseillers, Matthieu Landon (économie) et Claire Vernet-Garnier (industrie, innovation et numérique) de recevoir le 12 février à l’Elysée le délégué général du Syndicat des éditeurs de logiciels de loisir (Sell), Nicolas Vignolles (photo de gauche). L’ordre du jour était : « La prochaine mission “jeu vidéo” annoncée par le président [Emmanuel Macron] et plus globalement renouer le fil du dialogue de manière positive », a relaté ce dernier dans un post sur LinkedIn.

Experts et psychiatres à la rescousse
« Renouer le fil du dialogue »… Cette entrevue à la présidence de la République consistait pour l’Elysée à « rassurer » l’industrie française du jeu vidéo après les propos d’Emmanuel Macron, qui, dans une interview au média vidéo Brut, a – « une nouvelle fois » – associé violence et jeu vidéo. « Quand vous passez cinq-six heures par jour à tuer des gens, à être dans cette logique-là de prédation, c’est clair qu’à un moment donné ça conditionne des jeunes. Et donc, quand ils se retrouvent dehors, quand ils se retrouvent en classe, lorsqu’ils ont à un moment la rage contre quelque chose ou une situation, ça va les désinhiber complètement et parfois leur faire commettre le pire », a affirmé le 5 février le président de la République devant la caméra de Brut qui l’interviewait en exclusivité.
Rien que sur les jeux vidéo, il a passé près de six minutes à mettre en cause les « jeux vidéo violents ». Edition Multimédi@ publie l’intégralité du verbatim qui leur est consacré (voir encadré ci-dessous). Emmanuel Macron s’est dit décidé à (suite) prendre des mesures nationales : « On va confier à des experts et aussi au Conseil national du numérique et de l’IA [le CIANum, Conseil de l’intelligence artificielle et du numérique, ndlr] pour essayer de mesurer scientifiquement l’effet que cela a. […] Il faut que l’on puisse après guider les parents et dire s’il faut une interdiction ou pas. Rendez-vous en mai-juin [les conclusions seront remises en mai, ndlr], et le débat doit être citoyen aussi. […] Il ne faut rien exclure », a-t-il prévenu. Le sang de la filière française du jeu vidéo n’a fait qu’un tour en entendant les a priori du locataire de l’Elysée. C’est justement au « Château » que les deux conseillers du président de la République ont reçu Nicolas Vignolles, également directeur de la Paris Games Week (PGW), lequel reste néanmoins sur ses gardes : « Nous sommes rassurés sur un point majeur : la mission qui sera lancée ne vise pas à fragiliser le jeu vidéo et sera attentive dans sa composition comme dans ses conclusions (qui ne sont pas écrites) à tenir compte de la réalité des usages, des mécaniques de jeu et à bien mesurer les impacts business pour la filière. Nous resterons vigilants », a-t-il débriefé dans son post publié après cette réunion élyséenne (1). En outre, le délégué général du Sell s’est dit prêt à « améliorer [les] outils » de protection des mineurs tels que le système européen d’évaluation Pegi (Pan European Game Information), créé il y a plus de 20 ans par la fédération Video Games Europe (ex-ISFE), dont le Sell est membre (2). « Il nous faut des messages positifs au plus haut sommet de l’Etat […] La mission présidentielle fera l’objet d’un suivi très attentif de la part du Sell », a-t-il assuré. Des psychiatres sont pressentis pour faire partie des experts missionnés par le chef de l’Etat.
En outre, Nicolas Vignolles n’ait pas manqué, dans un précédent post le 6 février (3), en réaction à l’interview présidentielle, de relever qu’Emmanuel Macron était en quelque sorte un récidiviste : « Le chef de l’Etat associe une fois de plus violence et jeu vidéo, alors même qu’il avait concédé une erreur en septembre 2023. […] On ne peut pas se féliciter des succès du jeu vidéo français le matin, décorer le secteur le midi, pour mieux le dénigrer le soir ».

Macron, un récidiviste du jeu vidéo
En effet, Macron avait déjà associé violence et jeu vidéo avant… de faire son mea culpa : « J’ai fait bondir les gamers, avait écrit sur X en septembre 2023 le chef de l’Etat. J’ai pourtant toujours considéré que les jeux vidéo sont une chance pour la France, pour notre jeunesse et son avenir, pour nos emplois et notre économie. Je veux être (plus) clair. J’ai exprimé mes préoccupations fin juin [2023, ndlr] car les codes du jeu vidéo avaient été utilisés par des délinquants pour banaliser la violence sur les réseaux sociaux. C’est cette violence que je condamne, pas les jeux vidéo » (4). Cette fois encore, en février 2026, Emmanuel Macron a dû temporiser et rassurer à la suite de ses propos jugés à l’emporte-pièce. Le Syndicat national du jeu vidéo (SNJV), présidé par Lévan Sardjevéladzé (photo de droite), a aussi répondu à Emmanuel Macron en rappelant que « les études scientifiques existent, et que le consensus scientifique est aujourd’hui extrêmement clair : aucune corrélation n’existe entre jeu vidéo et violence ». Et d’ajouter quelque peu courroucé par « une si grande méconnaissance de notre industrie » : « Les raccourcis ne peuvent plus être acceptés en 2026. Mettre en cause notre filière d’une telle façon est un signal préoccupant envoyé à l’ensemble des entreprises et des professionnels de notre secteur » (5). De son côté, l’Agence française pour le jeu vidéo (AFJV) « n’attend rien de particulier de la mission vidéo » mais son directeur général Emmanuel Forsans « regardera les résultats avec intérêt ». L’« analyse scientifique des effets (tant positifs que négatifs) et risques potentiels des jeux vidéo » (dixit Bercy) pourrait aboutir à des mesures de « protection des mineurs » et de meilleure « information des consommateurs ». Voire à des interdictions. @

Charles de Laubier

Verbatim

Jeux vidéo violents : « Peut-être qu’il faudra interdire. Il ne faut rien exclure » (Macron)
Edition Multimédi@ publie l’intégralité des presque 6 minutes que le président de la République Emmanuel Macron a consacrées aux jeux vidéo, sur Brut le 5 février 2026, durant lesquelles le chef de l’Etat « tire à boulets rouges » sur le 10e Art :

« Les enfants, les adolescents, sont beaucoup plus exposés à de la violence dans des vidéos qu’ils vont voir sur les réseaux sociaux ou dans les jeux vidéo qu’ils vont faire. […] La première chose lorsque l’on a des enfants en bas âge, où l’on passe sa journée dans des jeux vidéo à tuer, que cela soit des méchants ou autres, on ne conditionne pas son enfant de la meilleure des manières. […] On ne peut pas être dans une société où l’Etat ou l’école fait tout. L’éducation à proprement parler, ce sont les familles. Donc là, il y a un rôle des parents. Il y a des enfants trop jeunes, trop fragiles, qui ne peuvent pas être trop vite en interaction avec ces jeux vidéo. […]
Il y a un vrai sujet sur les jeux vidéo. Il faut sensibiliser les parents et les jeunes en disant : passer des heures devant des jeux vidéo, en série, à s’habituer à de la violence, ça vous conditionne, ça ne vous fait pas de bien : ça c’est vrai. Et donc pour ça, j’ai souhaité lancer un travail que l’on va confier à des experts. Sur les jeux vidéo, on va confier à des experts et aussi au conseil national du numérique et de l’IA [le CIANum, Conseil de l’intelligence artificielle et du numérique, ndlr] pour essayer de mesurer scientifiquement l’effet que cela a. J’attends qu’il y ait un consensus scientifique. […] La famille devrait dire à des jeunes que lorsque l’on passe des heures dans un jeu vidéo où on descend tout le monde, dont Fortnite [jeu de survie et de tir à la troisième personne édité par Epic Games, ndlr]… Cool, c’est pas ça la vie ! [De tels jeux vidéo] déréalisent le rapport à la violence et ça vous conditionne. Moi, je suis pour que les familles jouent leur rôle. Maintenant, avant de prendre une mesure nationale, je veux que la science m’éclaire. Donc, on va lancer ce travail qui va être sur deux mois. Pour voir s’il y a un consensus pour dire si c’est mauvais en tout, lesquels sont mauvais, pourquoi, et dire ce qu’il faut faire. Il faut que l’on puisse après guider les parents et dire s’il faut une interdiction ou pas.
Rendez-vous en mai-juin [conclusions en mai, ndlr], et le débat doit être citoyen aussi. […] Si scientifiquement, on voit que l’impact [des jeux vidéo est] très mauvais sur les jeunes et les ados, on est légitimes à se poser la question. Et c’est une bonne question. Mais le bon sens et ce que l’on constate doivent déjà nous dire : c’est mauvais pour vos enfants de leur laisser passer des heures et des heures devant des jeux vidéo violents, qui conditionnent à la violence.
Parce que je suis toujours mal à l’aise quand on met tout dans le même sac : il y a des jeunes qui jouent aux jeux vidéo mais qui ne passent pas leurs jours et leurs nuits ; il y a des jeux vidéo qui ne sont pas violents, où on peut interagir ou en jouant en réseau, où on va développer des compétences ; il y a des jeux vidéo qui, d’un point de vue éducatif, sont bons. Il est clair que l’on a des jeux vidéo violents qui conditionnent à la violence, qui créent une excitation, une dépendance. On a des jeunes et des ados qui vont passer des heures et des heures, qui vont parfois ne pas dormir, donc on a des troubles du sommeil et autres. Ça, je dis déjà aux familles : votre rôle, c’est de faire attention à vos enfants et vos ados ; ne les laissez pas passer autant de temps. Et maintenant, on va objectiver la question avec des gens indépendants, des scientifiques, qui vont nous dire la réalité des choses, quel impact ça a sur les enfants, et peut-être qu’il faudra interdire. Il ne faut rien exclure. Car ce qui m’importe est de protéger nos enfants et nos ados. Et moi, je ne peux pas me satisfaire d’une société dans laquelle il y a une violence qui se libère. […] Il ne faut pas faire d’amalgame : les jeux vidéo, ce n’est pas mauvais en soi, mais c’est comme pour tout. Les jeux vidéo, si vous ne le faites pas trop longtemps par jour, ni pas trop tard pour ne pas vous empêcher de dormir, et si c’est plutôt des jeux vidéo non-violents.
[Si on joue à Fifa, jeux vidéo de football édité par Electronic Arts, ndlr], ça ne va pas développer votre volonté de revanche, à vous conduire à banaliser le fait de tuer. Quand vous passez cinq-six heures par jour à tuer des gens, à être dans cette logique-là de prédation, c’est clair qu’à un moment donné ça conditionne des jeunes. Et donc, quand ils se retrouvent dehors, quand ils se retrouvent en classe, lorsqu’ils ont à un moment la rage contre quelque chose ou une situation, ça va les désinhiber complètement et parfois leur faire commettre le pire ». @

L’Omnibus numérique controversé de la Commission européenne bute sur les données personnelles

Le Digital Omnibus veut « réviser » des textes européens, dont le RGPD et l’EUDPR, afin de les rendre plus innovation-compatibles. Mais la remise en question de la notion de données à caractère personnel provoque une levée de boucliers des « Cnil » européennes et des défenseurs de la vie privée.

L’avis conjoint du Comité européen de la protection des données (CEPD/EDPB), qui regroupe les « Cnil » européennes, et de son Contrôleur européen de la protection des données (CEPD/EDPS) était très attendu sur la proposition d’Omnibus numérique que la Commission européenne a présentée le 19 novembre 2025. Celle-ci vise à simplifier le cadre réglementaire numérique des Vingt-sept, à réduire la charge administrative et à renforcer la compétitivité des entreprises européennes. L’avis conjoint, lui, a été publié le 11 février 2026 et il n’est pas tendre avec certaines modifications proposées car elles « suscitent d’importantes préoccupations ».

Notion de données personnelles menacée
Le comité EDPB et le contrôleur EDPS « invitent instamment les colégislateurs » (le Parlement européen et le Conseil de l’Union européenne) à ne pas adopter les modifications proposées – par la Commission européenne – à la définition des données à caractère personnel, « étant donné qu’elles vont bien au-delà d’une modification ciblée ou technique du RGPD », le règlement général sur la protection des données. L’EDPB et l’EDPS estiment en outre que ces modifications concernant la définition des données à caractère personnel « ne reflètent pas exactement et vont clairement au-delà de la jurisprudence » de la Cour de justice de l’Union européenne (CJUE), et elles « aboutiraient à une réduction significative de la notion de données à caractère personnel ».
Les « Cnil » européennes et l’autorité de supervision distincte considèrent ensemble que « la Commission européenne ne devrait pas être chargée de décider, par un acte d’exécution, ce qui n’est plus des données à caractère personnel après la pseudonymisation, étant donné qu’elle a une incidence directe sur le champ d’application du droit de l’Union en matière de protection des données ». Et la présidente du comité EDPB, Anu Talus (photo de gauche), d’insister (suite) : « Nous demandons instamment aux colégislateurs de ne pas adopter les modifications proposées dans la définition des données à caractère personnel, car elles risquent d’affaiblir considérablement la protection des données individuelles ». Et le président du contrôleur EDPS, Wojciech Wiewiórowski (photo de droite), d’abonder : « Nous devons veiller à ce que toute modification du RGPD et du RPDUE [règlement 23 octobre 2018 pour la protection des données à caractère personnel dans l’Union européenne et leur libre circulation] clarifie réellement les obligations et apporte une sécurité juridique tout en maintenant la confiance et un niveau élevé de protection des droits et libertés individuels ».
La proposition « Digital Omnibus » ajouterait un nouveau paragraphe à l’article 4 du RGPD (1) et à l’article 3 de l’EUDPR (2) pour redéfinir les données personnelles de la façon suivante : « Les informations relatives à une personne physique ne sont pas nécessairement des données personnelles pour toute autre personne ou entité, simplement parce qu’une autre entité peut identifier cette personne physique. Les informations ne sont pas personnelles pour une entité donnée lorsque cette entité ne peut pas identifier la personne physique à laquelle les informations se rapportent, en tenant compte des moyens raisonnablement susceptibles d’être utilisés par cette entité. Ces informations ne deviennent pas personnelles pour cette entité simplement parce qu’un destinataire ultérieur potentiel dispose de moyens raisonnablement susceptibles d’être utilisés pour identifier la personne physique à laquelle les informations se rapportent » (3).Cette modification proposée par la Commission européenne veut « codifier » les interprétations de la CJUE, notamment en ce qui concerne la pseudonymisation des données personnelles, en se référant notamment à l’arrêt « EDPS contre SRB » (4) rendu le 4 septembre 2025. C’est là que le bât blesse aux yeux du comité et du contrôleur de la protection des données : « Les modifications proposées introduisent des changements significatifs dans cette définition qui vont au-delà de l’objectif déclaré d’introduire des amendements “ciblés” ou “techniques” au RGPD et à l’EUDPR. […] Modifier la définition des données personnelles aurait un impact direct sur [leur] champ d’application matériel ».

Respecter jurisprudence et droits fondamentaux
Dans leur avis conjoint d’une cinquantaine de pages (5), l’EDPB et l’EDPS tiennent à rappeler que « la définition des données à caractère personnel est au cœur même de la législation de l’UE en matière de protection des données, notamment l’article 8 de la Charte des droits fondamentaux (6) et l’article 16 du traité sur le fonctionnement de l’UE (7) ». Autrement dit, la Commission européenne doit non seulement respecter la jurisprudence de la CJUE mais aussi se conformer aux textes fondamentaux. L’arrêt « EDPS contre SRB », qui a notamment confirmé la jurisprudence précédente telle que celle issue de l’arrêt « GVA contre Scania » (8) du 9 novembre 2023, a rappelé que « des données impersonnelles peuvent devenir de nature personnelle lorsqu’elles sont mises à la disposition d’un destinataire (tout destinataire) avec des moyens raisonnablement susceptibles d’être utilisés pour identifier un sujet de données ».

Digital Omnibus, risque d’insécurité juridique
La CJUE a confirmé que « dans de tels cas, ces données sont des données à caractère personnel tant pour le destinataire que, indirectement, pour l’entité qui met les données à la disposition de ce dernier ». Et les « Cnil » européennes, avec leur contrôleur des données personnelles, d’enfoncer le clou : « Les modifications proposées auraient pour effet de restreindre considérablement la notion de données à caractère personnel, ce qui porterait atteinte au droit fondamental à la protection des données. De plus, la modification proposée pourrait inciter les responsables du traitement à rechercher des failles dans le régime de protection des données et à tenter de contourner l’application du RGPD ou de l’EUDPR. La proposition néglige en outre des éléments clés du concept de données à caractère personnel au titre du considérant 26 du RGPD, tels que le concept de “singularisation” [singling out dans le texte, ndlr] ».
Il est donc reproché à la Commission européenne de créer de la confusion et d’accroître l’insécurité juridique, d’autant que la définition des données à caractère personnel contenue dans le RGPD est mentionnée ou alignée sur d’autres actes juridiques importants de l’UE, tels que la directive « Police-Justice » (9) du 27 avril 2016. « Modifier la définition des données à caractère personnel dans le RGPD pourrait donc avoir des répercussions imprévues sur d’autres actes juridiques et porter atteinte à la cohérence globale du cadre juridique de l’UE », sans parler « des risques de fragmentation avec d’autres cadres juridiques internationaux – comme en particulier la Convention 108 du Conseil de l’Europe (10) – ou avec des lois nationales dans les pays tiers qui jusqu’à présent sont largement alignées ou équivalentes à la définition actuelle dans le cadre du RGPD ». Pour toutes ces raisons, le comité EDPB et le contrôleur EDPS « invitent instamment les colégislateurs à ne pas adopter les modifications proposées de la définition des données à caractère personnel ». Par ailleurs, l’avis conjoint des gendarmes des données rappelle que l’EDPB est en train de préparer des orientations actualisées sur la pseudonymisation et d’élaborer un nouvel ensemble de lignes directrices sur l’anonymisation, qui tiendront compte, entre autres, de l’arrêt « EDPS contre SRB ». A ce propos, les « Cnil » européennes et leur contrôleur se disent « préoccupés par le fait que la proposition permettrait de préciser davantage – au moyen d’un acte d’exécution – les moyens et critères qui déterminent si les données résultant de la pseudonymisation ne constituent plus des données à caractère personnel pour certaines entités ». En effet, la Commission européenne serait habilitée à adopter de tels « actes d’exécution » (11), qui s’appliqueraient également au traitement des données à caractère personnel dans le cadre de l’EUDPR.
Cette modification compléterait la modification proposée à la définition de données personnelles. « La délimitation de ce qui constitue (et de ce qui ne constitue pas) des données à caractère personnel affecte directement le champ d’application du droit de l’UE en matière de protection des données. Un acte d’exécution tel que proposé pourrait de facto affecter le champ d’application matériel de la législation européenne sur la protection des données, redéfinissant effectivement le champ d’application du moment et du destinataire des informations considérées comme des données personnelles », mettent en garde l’EDPB et l’EDPS, lesquels considèrent que « les incidences pratiques de la mise en œuvre des “moyens et critères” énoncés dans les actes d’exécution restent floues et entraînent des difficultés de conformité ». Pour toutes ces raisons encore, l’EDPB et l’EDPS suggèrent donc de « supprimer » la proposition d’acte d’exécution.
L’organisation autrichienne de protection de la vie privée Noyb (nom issu du slogan « None Of Your Business ») s’est aussitôt félicitée de cet avis conjoint : « Les autorités indépendantes ont identifié les changements clés pour ce qu’ils sont : ni “changements techniques” ni “simplification”, mais des limitations du droit à la protection des données pour les résidents de l’UE », a déclaré (12) son dirigeant Max Schrems (photo ci-dessus).

Data et IA : Noyb (Max Schrems) déçu
En outre, du côté de l’entraînement des IA fondé sur « un intérêt légitime » (également traité dans l’avis conjoint du 11 février 2026), Noyb regrette que les « Cnil » européennes et leur contrôleur des données personnelles « ne clarifient pas la question », notamment sur l’utilisation des données à caractère personnel. « De nombreuses autres questions clés concernant l’utilisation des données à caractère personnel dans la formation à l’IA ne seraient pas résolues par la proposition ». @

Charles de Laubier

Hypertrucages vidéo au réalisme confondant générés par l’IA, les deepfakes se banalisent

Rien ne les arrêtera. Les hypertrucages vidéo et audio déferlent sur le Web et les applications mobiles, comme jamais. Fléau pour les uns, divertissement pour les autres, le phénomène pousse la créativité à son paroxysme. C’est aussi un marché mondial prometteur de plusieurs milliards d’euros.

(Le 23 février 2026, soit une semaine après la publication de cet article, 61 « Cnil » du monde entier ont cosigné une déclaration pour s’inquiéter des deepfakes)

Les deepfakes, que l’intelligence artificielle rend de plus en plus spectaculaires et incroyables, se propagent à la vitesse grand-V sur les réseaux sociaux, les applications mobiles ou encore par e-mail. Ces hypertrucages vidéo plus vrais que nature – mais aussi ceux uniquement audio (1) – en mettent plein la vue. Or, au-delà des abus, polémiques, désinformations et autres cyberattaques qu’ils peuvent provoquer, les deepfakes constituent un marché mondial protéiforme en pleine croissance de plusieurs milliards d’euros.

La barre des 10 milliards de $ en 2026
« Le marché mondial des technologies deepfake était évalué à 9,19 milliards de dollars en 2025, et devrait passer de 11,18 milliards en 2026 à 51,42 milliards d’ici 2034, affichant un taux de croissance annuel moyen de 21 % durant cette période », avance le cabinet d’études indien Fortune Business Insights dans ses prévisions mises à jour en janvier 2026. Cette évaluation porte uniquement sur les logiciels et services que peuvent acheter des clients de plus en plus nombreux, tels que sociétés de médias et de divertissement, publicitaires, organisations gouvernementales, partis politiques, cybercommerçants, etc. « Le segment “logiciel” détenait la plus grande part de marché des technologies deepfake, avec (suite) une part de 68,7 %, tandis que le segment “création” de deepfakes représente 37,92 % de part de marché », estime l’étude (2).
L’un des segments de ce marché mondial en plein boom réside dans les outils de détection des deepfakes, afin de prévenir l’utilisation abusive de ces images générées par IA. « La période électorale actuelle a entraîné une augmentation du contenu deepfake à travers le monde. La demande de solutions pour détecter ce “média synthétique” devrait augmenter et influencer positivement le marché de la technologie deepfake. De plus, comme le marché dépend fortement de la technologie IA, les avancées du marché de l’IA générative devraient favoriser la croissance du marché mondial des deepfakes », prédit la société Fortune Business Insights, fondée et dirigée par Rahul Bhandari (photo). Et encore, cette barre des 10 milliards de dollars susceptible d’être franchie durant cette année 2026 ne prend pas encore en compte tous les revenus induits par les deepfakes tels que ceux de la publicité en ligne, du marketing d’influence, des sociétés de conseil de la production audiovisuelle et cinématographique, ni de la fraude et cybercriminalité. Techniquement, le deepfake repose sur des algorithmes avancés d’apprentissage automatique (machine learning), principalement par des réseaux antagonistes génératifs (GAN, pour Generative Adversarial Network) utilisant deux réseaux de neurones, afin de générer des images et des vidéos réalistes. Grâce à un entraînement itérative, ces réseaux neuronaux apprennent à produire des résultats de plus en plus réalistes, ce qui fait que les deepfakes sont pratiquement indifférenciables des vidéos ou audios authentiques. L’utilisation de ces hypertrucages de synthèse améliore en outre les expériences de réalité augmentée (AR) et de réalité virtuelle (VR), où mondes numériques et mondes réels se mêlent dans des environnements digitaux immersifs, comme dans le jeu vidéo, la formation et même la thérapie.
La croissance annuelle à deux chiffres des deepfakes pourrait même augmenter sur ce marché mondial à la fois tiré par les usages créatifs et par la lutte contre les abus, d’autant que la régulation – visant à imposer la transparence sur ces créations IA par la « preuve d’authenticité » (watermarking, signatures numérique, labels IA, …) – va y contribuer. Dans une étude intitulée « Connected Consumer » et publiée en novembre 2024, le cabinet d’audit et de conseil américain Deloitte avait estimé que « le marché mondial de la détection des deepfakes – tel qu’il est mis en œuvre par les géants de la technologie, des médias et des réseaux sociaux – croîtra de 42 % par an, passant de 5,5 milliards de dollars en 2023 à 15,7 milliards de dollars en 2026 ». Toujours selon Deloitte il y a un peu plus d’un an, « le marché de la détection de deepfake pourrait suivre une trajectoire similaire à celle de la cybersécurité » (3).

CP2A à Washington et Code à Bruxelles
Deloitte a rejoint la Coalition pour la provenance et l’authenticité du contenu (C2PA, Coalition for Content Provenance and Authenticity), laquelle, depuis sa création en 2021 à Washington par Adobe, ARM, BBC, Intel, Microsoft et Truepic (rejoints au comité directeur par Google, Meta, OpenAI et Publicis), a vocation a lutter contre les deepfakes trompeurs grâce à des « normes techniques ouvertes et mondiale pour certifier la source et l’histoire (ou la provenance) du contenu numérique » (4). A Bruxelles, cette fois, la Commission européenne espère publier en mai ou juin 2026 un « Code de pratique sur le marquage et l’étiquetage des contenus générés par IA » (5). Mais le projet divise. @

Charles de Laubier

« Pour accélérer l’avenir de l’humanité » (Musk), xAI rejoint SpaceX : transparence boursière en vue

Depuis le rachat de Twitter en 2022 par Musk pour 44 milliards de dollars, la société – devenue X Corp sans oiseau bleu – a été retirée de la cote. Après l’opacité totale pour cette entreprise dévalorisé d’environ 60 %, la mise en Bourse de sa maison mère xAI marquera le retour à la transparence.

Presqu’un an après que la société xAI fondée par Elon Musk (photo) est devenue la maison mère de X (ex-Twitter) (1), celui-ci a annoncé le 2 février 2026 qu’elle allait « rejoin[dre] SpaceX pour accélérer l’avenir de l’humanité » : « [la société de fusées et de satellites] SpaceX a acquis xAI pour former le moteur d’innovation le plus ambitieux et verticalement intégré sur Terre (et en dehors), avec l’IA, les fusées, l’Internet spatial, les communications directes vers les appareils mobiles et la principale plateforme mondiale d’information en temps réel et de liberté d’expression » (2).

X (ex-Twitter) mis sur l’orbite de xAI
Jusqu’à maintenant, le constructeur de voitures électriques Tesla est la seule entreprise cotée – depuis près de 15 ans – que dirige Elon Musk, en tant que PDG. La société Twitter était bien en Bourse lorsque l’homme d’affaires multimilliardaire l’a rachetée en octobre 2022 pour 44 milliards de dollars, lors d’une OPA jugée hostile au nom de la « liberté d’expression » (3), mais il a décidé de la retirer aussitôt du New York Stock Exchange (Nyse) où l’action TWTR était cotée depuis novembre 2013. La finalisation de l’acquisition a été actée le 27 octobre 2022 et Twitter disparaissait de la Bourse une douzaine de jours après, tandis qu’Elon Musk (suite) tweete le 4 novembre 2022 : « Twitter a connu une chute massive de ses revenus [publicitaires, ndlr], à cause de groupes d’activistes qui font pression sur les annonceurs, même si rien n’a changé avec la modération du contenu et que nous avons tout fait tout ce que nous pouvions pour les apaiser. Vraiment dégueulasse ! Ils essaient de détruire la liberté d’expression en Amérique » (4).
En retirant Twitter de la Bourse, l’entreprise de microblogging redevenue privée évite alors une chute de son titre et n’a depuis lors plus de comptes à rendre à l’autorité des marchés financiers américain (la SEC), ni à publier ses comptes trimestriels et annuels, ni encore à déclarer le nombre de ses utilisateurs actifs qui sont alors 237,8 millions quotidiennement au 30 juin 2022 – en hausse de 16,6 % en un an (5). Ses motivations pour privatiser Twitter sont en fait à l’époque triples : • Avoir un contrôle total : en privatisant l’entreprise, Musk évite les pressions des actionnaires publics, des rapports trimestriels et des obligations réglementaires liées à une cotation en Bourse. • Promouvoir la liberté d’expression : Musk a déclaré que Twitter n’atteignait pas son potentiel en tant que « place publique numérique » pour des débats libres, et qu’il voulait réduire la modération excessive qu’il percevait comme une entrave à la liberté d’expression. • Corriger des dysfonctionnements : il a critiqué l’interférence passée de Twitter dans les élections, la censure influencée par des gouvernements ou des activistes, et la perte de revenus due à des pressions extérieures, notamment sur les annonceurs publicitaires.
Elon Musk le sait : le retour de X (ex-Twitter) en Bourse – quand bien même cela se fera via l’introduction prochaine de sa désormais maison mère SpaceX – va lui faire perdre « l’indépendance » qu’il avait acquises en privatisant Twitter il y a un peu plus de trois ans. Cette perspective explique sans doute pourquoi Elon Musk ne s’est toujours pas exprimé lui-même sur la prochaine IPO, depuis son « Comme d’habitude, Eric a raison » tweeté le 11 décembre 2025 (6) en réponse à un article de Ars Technica où le journaliste Eric Berger a eu la confirmation auprès de l’équipe d’Elon Musk d’une introduction prochaine de Space X, laquelle interviendra en 2026. Et ce, « après des années de résistance » de son PDG fondateur.
Avec ce revirement, l’homme le plus riche du monde cède au principe de réalité financière : « Une grande partie de la course à l’IA se résume à amasser et déployer des ressources qui fonctionnent plus rapidement que vos concurrents. Un grand trésor de guerre résultant d’une introduction en Bourse aidera grandement sa cause et désavantagera tous les autres concurrents. C’est le moment où une introduction en Bourse est soudainement entrée en jeu après avoir été improbable pendant si longtemps », a déclaré à Ars Technica (7) Abhi Tripathi, qui a passé dix ans chez SpaceX.

Vers une valorisation à 1.500 Mds de $
Le 2 février 2026, Elon Musk justifie la fusion-absorption de xAI par SpaceX en regardant le ciel : « A long terme, l’IA basée sur l’espace est évidemment la seule façon de se développer ». Mais il ne dit mot sur la future introduction en Bourse de sa firme SpaceX, laquelle cherche à lever 50 milliards de dollars pour une valorisation d’environ 1 500 milliards de dollars (8), la plus importante de l’histoire depuis l’entrée en bourse de Saudi Aramco en 2019. @

Charles de Laubier

Meta Platforms accélère dans l’intelligence artificielle et ambitionne d’être l’Apple-killer, quoi qu’il en coûte

La firme Meta est entrée dans sa 5e année depuis son changement de nom pour coller aux métavers. L’échec cuisant a valu à la division Reality Labs de cumuler 77 milliards de dollars de pertes depuis 2021. Mais l’ex-groupe Facebook avec Instagram et WhatsApp reste une cash machine. Et mise sur l’IA contre Apple.

Meta Platforms (ex-groupe Facebook), maison mère de Instagram, WhatsApp, Oculus et aussi éditrice des services Messenger et Threads, a franchi pour son exercice 2025 – dont les résultats ont été présentés le 28 janvier – la barre des 200 milliards de dollars de chiffre d’affaires. Lors de ses précisions pour l’année 2025, établie fin octobre (lors de la présentation des résultats du troisième trimestre), la directrice financière du groupe, Susan Li (photo de gauche) n’avait pas exclu de parvenir à dépasser cette barre symbolique.
Avec un peu plus de 200,9 milliards de dollars encaissés l’an dernier, cela représente un bond de 22,1 % sur an. Le groupe cofondé en 2004 et dirigé par Mark Zuckerberg continue d’être une cash machine très rentable, avec plus de 60,4 milliards de dollars de bénéfice net, bien qu’en léger recul de – 3 % par rapport à l’exercice précédent. Mais le revers de la médaille est que Meta est aussi un cash burner – une machine à brûler de la trésorerie. Et c’est Reality Labs qui est le gouffre financier de la firme de Menlo Park (Californie), cette activité accusant à elle seule une perte opérationnelle de près de 20 milliards de dollars (19,2) en 2025, aggravée de – 8,2 % en un an.

RL, jusqu’à 88 milliards de $ perdus depuis 2019
« Zuck » a payé très cher sa précipitation dans le métavers, non seulement en rebaptisant son entreprise Facebook en « Meta », mais surtout – selon les calculs de Edition Multimédi@ – en y injectant depuis 2021 près de 77 milliards de dollars. Puits sans fond, l’entité Reality Labs (RL, ex-Facebook Reality Labs), que dirige depuis 2017 Andrew Bosworth (photo de droite) en tant que directeur de la technologie (CTO) de Meta Platforms depuis 2022, cumule même – toujours selon notre pointage – une perte opérationnelle de plus de 88 milliards de dollars depuis l’année 2019 pré-covid. RL regroupe les activités de réalité virtuelle (VR), de réalité augmentée (AR) et de métavers. Ainsi, Mark Zuckerberg a misé très gros sur tout ce qui n’était pas publicitaire numérique ni réseau social, à savoir les casques VR Quest et Quest Pro (ex-Oculus), le métavers Horizon (XR) et tous ses déclinaisons (Worlds, OS, Workrooms, …), les lunettes connectées Ray Ban Meta en partenariat avec le fabricant franco-italien EssilorLuxottica.

Arrêt des solutions métavers aux entreprises
Alors que Meta Platforms est en train de licencier environ 10 % des effectifs de Reality Labs, soit un millier et demi d’emplois sur un total de 15.000 employés « RL », Susan Li a indiqué le 28 janvier que (suite) sur l’ensemble de l’année 2026 en cours « les pertes opérationnelles de Reality Labs rest[eraient] similaires aux niveaux de 2025 » – soit à nouveau un déficit opérationnel d’environ 20 milliards de dollars. Et toutes activités confondues, Meta s’attend cette année à dépenser au total « entre 162 et 169 milliards de dollars » dans des infrastructures (centres de données, cloud, techniciens, …) et les activités de Meta Superintelligence Labs (laboratoire IA créé en juin 2025). Meta prend ses distances avec les métavers et essaie d’y voir plus clair avec ses lunettes IA, lesquelles sont devenues « la priorité » depuis l’an dernier (1) et plus encore en 2026, en raison d’une plus forte demande pour ces prothèses oculaires connectées que pour les mondes virtuels en manque d’avatars et de débouchés commerciaux. Depuis son lancement en 2023, la gamme des lunettes intelligentes Ray-Ban Meta – venue après le Ray-Ban Stories lancées en 2021 – s’est vendue à plus de 2 millions d’exemplaires.
Mais Meta veut voir aussi plus loin que le bout de son nez : sur les traces des pionniers des assistants portatifs dopés à l’IA que sont Humane avec AI Pin et Rabbit avec R1, Mark Zuckerberg (photo ci-contre) s’apprête aussi à se lancer dès cette année sur le marché naissant du « post-smartphone » (2) avec des appareils légers intelligents (épingles IA, écouteurs IA, microphones IA et autres AI wearables). Le designer d’Apple depuis près de 20 ans (conception d’« interfaces humaine »), Alan Dye, vient d’être débauché par Meta. Une réponse à OpenAI qui, à partir de 2023, s’est attaché les services d’une autre pointure d’Apple, Jony Ive (designer de l’iPhone) pour concevoir lui aussi un « smartphone-killer » (3).
Résultat : l’horizon de Meta a changé de ligne. D’autant que « Zuck » verrait bien Meta comme le nouvel « Apple ». Conséquence de cette offensive dans les « AI devices » : Horizon Workrooms va être désactivé et les services Meta Horizon aux entreprises ne seront plus commercialisés. C’est « à partir du 16 février 2026 » que sera supprimé le métavers Horizon Workrooms, conçu comme un espace virtuel pour la collaboration dans le monde du travail. « A partir de cette date, vous ne pourrez plus accéder à Workrooms, et toutes les données associées à Workrooms seront supprimées », prévient Meta (4). Puis c’est « à compter du 20 février 2026 » que ne seront plus vendus aux entreprises les services gérés Meta Horizon et les identifiants des casques VR Meta Quest. « La clientèle pourra toujours accéder aux services gérés Meta Horizon pour Meta Quest 3 et 3S jusqu’au 4 janvier 2030 », précise cependant Meta (5). Les utilisateurs de casques VR, eux, sont invités à « essayer plusieurs applications du Meta Horizon Store telles que Arthur, Microsoft Teams immersif et Zoom Workplace » pour se réunir et collaborer. Et pour continuer à interagir avec ses amis, sa famille et sa communauté, il y a les univers de Meta Horizon Worlds (6). Le métavers n’est donc pas abandonné, mais ses développements moins dispendieux seront orientés plus vers les smartphones que sur les casques VR. Andrew Bosworth, qui a accordé plusieurs interviews à Davos lors du Forum économique mondial (WEF) de janvier, a déclaré que Meta allait « redoubler d’efforts pour apporter les meilleures expériences Horizon et les meilleurs outils de création d’IA sur le mobile ». Les mondes totalement immersifs, vers lesquels « Zuck » s’était précipité beaucoup trop vite, ne sont plus le Graal recherché.
Place donc aux dispositifs portables intelligents. « Meta prototype toutes sortes d’idées folles que vous pouvez imaginer. Il y a plein de gens qui jouent avec tous les formats. Vous avez des pendentifs, des stylos, des épingles et des poignets. Vous pouvez supposer sans risque que nous jouons avec tout cela. En interne, nous avons une très bonne équipe », a notamment confié Andrew Bosworth le 21 janvier au média indien Moneycontrol (7). Le CTO (8) de Meta à la tête de Reality Labs et de Meta Superintelligence Labs (MSL) prévoit que les dispositifs d’IA finiront par donner aux consommateurs « une ouïe, une vision, une cognition et une mémoire surhumaines », à tel point que s’ils les enlèvent, ils se sentiront désavantagés, tout comme quelqu’un qui a besoin de lunettes de correction est pénalisé par rapport à d’autres personnes qui n’en ont pas besoin. A Davos, Andrew Bosworth n’a pas démenti que la nouvelle équipe de MSL travaillait sur un modèle d’IA texte appelé Avocado, dont le lancement serait prévu pour ce premier trimestre 2026, ni sur un modèle axé sur l’image et la vidéo appelé Mango. Quoi qu’il en soit, il s’attend à ce que 2026 et 2027 soient deux années « plus affirmées » pour l’IA grand public.

Trop accro à la publicité, bientôt des abonnements
Reste que le chiffre d’affaires de la division Reality Labs atteint « seulement » 2,2 milliards de dollars sur l’année 2025, soit une petite hausse de 2,8 % sur un an. Alors qu’elle est le principal foyer de pertes de la firme de Menlo Park, cette entité ne génère que 1 % du chiffre d’affaires global du groupe. La publicité en ligne sur Facebook, Instagram, Messenger, WhatsApp et autres services – logée dans l’agrégat Family of Apps (FoA) – constitue encore l’essentiel des revenus du groupe : FoA a généré près de 198,7 milliards de dollars de chiffre d’affaires en 2025, soit 98,9 % des recettes globales. Le conglomérat Meta a indiqué au média américain TechCrunch le 26 janvier qu’il allait bientôt proposer des abonnements payants sur Instagram, Facebook et WhatsApp, donnant accès à des fonctionnalités IA et vidéo exclusives via aussi son nouveau réseau social Vibes lancé l’an dernier. @

Charles de Laubier