DeepSeek fête ses un an et pourrait profiter de la Fête des Lanternes pour lancer sa V4

Le « ChatGPT » chinois DeepSeek, qui avait secoué les IA américaines après son lancement low cost et frugale il y a un an, va lancer la version 4 de son modèle d’IA open source. L’Empire du Milieu et l’Occident sont ses terrains de jeu. Son fondateur Liang Wenfeng fait frémir Sam Altman (OpenAI).

En Chine, avec ou sans intelligence artificielle, le Nouvel An lunaire donnant le coup d’envoi de la Fête du Printemps se célèbre – cette année 2026 – du 17 février au 3 mars, le dernier jour des festivités étant la Fête des Lanternes, connue aussi pour ses boulettes de riz gluantes (tuanyuan). Pour marquer les un an de son IA générative DeepSeek, dont la « R1 » avait été lancée massivement et mondialement le 20 janvier 2025 (1), la société éditrice Hangzhou DeepSeek AI (2), fondée par son PDG Liang Wenfeng (photo), pourrait dégainer son modèle V4 d’ici au 3 mars.

Les « sino-AI » se sont multipliées
Les administrations « Trump I », « Biden » et « Trump II » ont eu beau restreindre les exportations de puces IA américaines les plus avancées, dont les GPU (3) de Nvidia, cela n’a pas empêché des rivaux chinois des ChatGPT d’OpenAI, Gemini de Google et autres Claude d’Anthropic de relever le défi des IA génératives entraînées sur de grands modèles de langage (LLM) performants. Un an après le lancement de la première version de DeepSeek par la société de Hangzhou (capitale de la province du Zhejiang, dans l’Est de la Chine), les « sino-AI » se sont multipliées pour conquérir le monde : Qwen d’Alibaba, Doubao de ByteDance, Hunyuan de Tencent, Ernie de Baidu, M de MiniMax, Kimi de Moonshot AI, Spark d’Iflytek, Ziyue de Netease Youdao, DM0 de Dexmal, ou encore GLM de Zhipu AI.
Publiée en janvier 2026, une étude de l’organisation américaine à but non lucratif Research and Development (Rand) – émancipée de l’US Air Force depuis 1948 mais toujours financé en grande partie par le gouvernement fédéral américain – constate que (suite) « les modèles chinois coûtent entre un sixième et un quart du prix des rivaux américains ». Mais cette étude pro-américaine (4) fait l’impasse sur la sobriété énergétique des IA chinoises qui ont un avantage sur leurs concurrents américains énergivores. De plus, DeepSeek s’est d’emblée démarqué de ses rivaux américains en étant open source. Bien qu’il ne soit pas le seul à être libre (5), son IA low cost et low energy – du moins jusqu’alors dans sa version V3.2 – est en pole position dans les catégories de raisonnement avancé, d’efficacité/coût, de mathématiques/coding et d’adoption massive sur des plateformes d’hébergement et de téléchargement telles que Hugging Face (6), Ollama ou GitHub. DeepSeek surpasse parfois GPT-5 ou Gemini 3.0 Pro sur des tâches spécifiques. Cette ouverture du chinois attire développeurs et entreprises, favorisant l’adoption rapide de DeepSeek, y compris en France (7). « La part de marché mondiale des LLM chinois est passée de [moins de] 3 % à [plus de] 13 % en deux mois [entre décembre 2024 et février 2025, ndlr], principalement portée par DeepSeek, alors même que le trafic des sites web des LLM américains a continué d’augmenter régulièrement durant cette période », relève l’étude de Rand. La ville de Hangzhou, où se situe aussi le siège mondial du géant chinois Alibaba, n’a rien à envier à la Silicon Valley et est devenu une plaque tournante de l’IA mondiale. Avec sa V4 – entraînée malgré l’embargo sur des puces IA Nvidia, d’après Reuters le 24 février (8) –, DeepSeek entend ne pas se faire distancer au niveau mondial. D’autant que s’endormir sur ses lauriers serait laisser la part belle aux autres LLM ouverts dits « open-weight » (« poids du modèle » téléchargeable) que sont, par exemple, les modèles Llama de Meta, populaire chez les développeurs, Gemma de Google ou encore Large, Ministral, Devstral et Magistral du français Mistral AI.
La société Hangzhou DeepSeek AI, privée et principalement financée par le fonds High-Flyer Quant (fonds spéculatifs, ou hedge fund, piloté par l’IA) appartenant à Liang Wenfeng, se concentre pour l’instant sur la recherche fondamentale (R&D), plutôt que sur la réalisation d’un chiffre d’affaires : non divulgué, celui-ci ne dépasserait pas les 50 millions de dollars en 2025 selon les spéculations (9). Reste à savoir aussi combien de temps le PDG de DeepSeek résistera aux sirènes de la Bourse.

Liang Wenfeng s’apprête à sortir une AGI
Dans une rare interview, accordée à 36Kr (le « TechCrunch » chinois) en juillet 2024 (10), soit trois après la sortie de la V2 de DeepSeek et six mois avant le lancement mondial de sa R1 bien plus puissante, Liang Wenfeng a dévoilé ses ambitions : « La chose la plus importante est de faire partie de cette vague mondiale d’innovation. […] Les API et l’IA devraient être abordables et accessibles à tous. […] Mais notre l’objectif est l’AGI [Artificial General Intelligence, capable de surpasser les humains, ndlr]. Cela peut être dans deux ans, cinq ans ou dix ans […] OpenAI n’est pas une entité toute-puissante qui peut toujours être en première ligne ». DeepSeek s’inscrit dans le temps long. @

Charles de Laubier

Hypertrucages vidéo au réalisme confondant générés par l’IA, les deepfakes se banalisent

Rien ne les arrêtera. Les hypertrucages vidéo et audio déferlent sur le Web et les applications mobiles, comme jamais. Fléau pour les uns, divertissement pour les autres, le phénomène pousse la créativité à son paroxysme. C’est aussi un marché mondial prometteur de plusieurs milliards d’euros.

(Le 23 février 2026, soit une semaine après la publication de cet article, 61 « Cnil » du monde entier ont cosigné une déclaration pour s’inquiéter des deepfakes)

Les deepfakes, que l’intelligence artificielle rend de plus en plus spectaculaires et incroyables, se propagent à la vitesse grand-V sur les réseaux sociaux, les applications mobiles ou encore par e-mail. Ces hypertrucages vidéo plus vrais que nature – mais aussi ceux uniquement audio (1) – en mettent plein la vue. Or, au-delà des abus, polémiques, désinformations et autres cyberattaques qu’ils peuvent provoquer, les deepfakes constituent un marché mondial protéiforme en pleine croissance de plusieurs milliards d’euros.

La barre des 10 milliards de $ en 2026
« Le marché mondial des technologies deepfake était évalué à 9,19 milliards de dollars en 2025, et devrait passer de 11,18 milliards en 2026 à 51,42 milliards d’ici 2034, affichant un taux de croissance annuel moyen de 21 % durant cette période », avance le cabinet d’études indien Fortune Business Insights dans ses prévisions mises à jour en janvier 2026. Cette évaluation porte uniquement sur les logiciels et services que peuvent acheter des clients de plus en plus nombreux, tels que sociétés de médias et de divertissement, publicitaires, organisations gouvernementales, partis politiques, cybercommerçants, etc. « Le segment “logiciel” détenait la plus grande part de marché des technologies deepfake, avec (suite) une part de 68,7 %, tandis que le segment “création” de deepfakes représente 37,92 % de part de marché », estime l’étude (2).
L’un des segments de ce marché mondial en plein boom réside dans les outils de détection des deepfakes, afin de prévenir l’utilisation abusive de ces images générées par IA. « La période électorale actuelle a entraîné une augmentation du contenu deepfake à travers le monde. La demande de solutions pour détecter ce “média synthétique” devrait augmenter et influencer positivement le marché de la technologie deepfake. De plus, comme le marché dépend fortement de la technologie IA, les avancées du marché de l’IA générative devraient favoriser la croissance du marché mondial des deepfakes », prédit la société Fortune Business Insights, fondée et dirigée par Rahul Bhandari (photo). Et encore, cette barre des 10 milliards de dollars susceptible d’être franchie durant cette année 2026 ne prend pas encore en compte tous les revenus induits par les deepfakes tels que ceux de la publicité en ligne, du marketing d’influence, des sociétés de conseil de la production audiovisuelle et cinématographique, ni de la fraude et cybercriminalité. Techniquement, le deepfake repose sur des algorithmes avancés d’apprentissage automatique (machine learning), principalement par des réseaux antagonistes génératifs (GAN, pour Generative Adversarial Network) utilisant deux réseaux de neurones, afin de générer des images et des vidéos réalistes. Grâce à un entraînement itérative, ces réseaux neuronaux apprennent à produire des résultats de plus en plus réalistes, ce qui fait que les deepfakes sont pratiquement indifférenciables des vidéos ou audios authentiques. L’utilisation de ces hypertrucages de synthèse améliore en outre les expériences de réalité augmentée (AR) et de réalité virtuelle (VR), où mondes numériques et mondes réels se mêlent dans des environnements digitaux immersifs, comme dans le jeu vidéo, la formation et même la thérapie.
La croissance annuelle à deux chiffres des deepfakes pourrait même augmenter sur ce marché mondial à la fois tiré par les usages créatifs et par la lutte contre les abus, d’autant que la régulation – visant à imposer la transparence sur ces créations IA par la « preuve d’authenticité » (watermarking, signatures numérique, labels IA, …) – va y contribuer. Dans une étude intitulée « Connected Consumer » et publiée en novembre 2024, le cabinet d’audit et de conseil américain Deloitte avait estimé que « le marché mondial de la détection des deepfakes – tel qu’il est mis en œuvre par les géants de la technologie, des médias et des réseaux sociaux – croîtra de 42 % par an, passant de 5,5 milliards de dollars en 2023 à 15,7 milliards de dollars en 2026 ». Toujours selon Deloitte il y a un peu plus d’un an, « le marché de la détection de deepfake pourrait suivre une trajectoire similaire à celle de la cybersécurité » (3).

CP2A à Washington et Code à Bruxelles
Deloitte a rejoint la Coalition pour la provenance et l’authenticité du contenu (C2PA, Coalition for Content Provenance and Authenticity), laquelle, depuis sa création en 2021 à Washington par Adobe, ARM, BBC, Intel, Microsoft et Truepic (rejoints au comité directeur par Google, Meta, OpenAI et Publicis), a vocation a lutter contre les deepfakes trompeurs grâce à des « normes techniques ouvertes et mondiale pour certifier la source et l’histoire (ou la provenance) du contenu numérique » (4). A Bruxelles, cette fois, la Commission européenne espère publier en mai ou juin 2026 un « Code de pratique sur le marquage et l’étiquetage des contenus générés par IA » (5). Mais le projet divise. @

Charles de Laubier

« Physical AI » : pourquoi Nvidia ne lancera pas son propre robot humanoïde nouvelle génération

Au CES 2026 de Las Vegas, Nvidia a donné un coup d’accélérateur à sa conquête des « cerveaux » de robots humanoïdes. Cette diversification, au-delà des centres de données et des IA génératives, devrait conforter sa place de première capitalisation boursière mondiale.

« Le prochain voyage, la prochaine ère pour les systèmes robotiques, ce sera les robots, et ces robots viendront dans toutes sortes de tailles différentes », a lancé Jensen Huang (photo), le PDG fondateur de Nvidia, lors de son intervention ultramédiatisée au CES 2026 de Las Vegas, le 5 janvier, où ont évolué sur scène à ses côtés de petits robots humanoïdes dignes de la saga Star Wars (R2-D2, C-3PO, …), ainsi que le robot infirmier Nurabot développé par le taïwanais Foxconn avec Nvidia et Kawasaki. Agibot du chinois Zhiyuan Robotics et Chenille du sud-coréen LG Electronics étaient aussi de la partie (1).

Boston Dynamics, Neura, Franka, Humanoid, …
« Et voilà donc le prochain chapitre. Nous parlerons beaucoup plus de robotique à l’avenir, mais ce n’est pas seulement des robots au final. […] Et l’une des industries les plus importantes au monde qui sera révolutionnée par l’IA physique et la physique de l’IA est celle qui nous a tous fondés », a prédit l’Américano-Taïwanais Jensen Huang, lors de sa keynote aux allures de one-man-show.
Le patron emblématique des puces IA a cité de nombreux clients partenaires de Nvidia tels que : l’américain Boston Dynamics (détenu depuis 2021 par le sud-coréen Hyundai Motor Group), qui a sorti son robot humanoïde Atlas de son laboratoire pour lancer sa version commerciale durant ce CES 2026 (2) ; l’allemand Neura Robotics, qui a lancé aussi à Las Vegas sa nouvelle génération de robots humanoïdes 4NE (3) ; le britannique Humanoid, qui a annoncé au CES son premier robot humanoïde baptisé « HMND-01 Alpha » (4), roulant et bipède, intégrant « dans sa pile technologique » (technology stack) les technologies Nvidia que sont (suite) Jetson Thor, Isaac Sim et Isaac Lab. La société centenaire américaine Caterpillar (fondée en 1925), fabricants de machines de construction et de vêtements de travail, n’a pas annoncé d’ouvrier humanoïde au CES 2026, mais un partenariat élargi avec Nvidia pour apporter l’IA sur les chantiers (5). Pas de robot humanoïde non plus chez l’entreprise allemande Franka Robotics (ex-Franka Emika, détenu par Agile Robots depuis 2023, s’appuyant également sur les solutions IA de Nvidia, mais de la robotique manipulatrice comme avec les deux bras de FR3 Duo (plateforme bimanuale) dont les tâches sont alimentées par « GR00T N1.6 », le modèle d’IA physique (Physical AI) de Nvidia (6). C’est autant de clients d’envergure, dont les partenariats stratégiques expliquent pourquoi Nvidia ne prendra pas le risque de se lancer luimême dans la fabrication de robots humanoïdes, comme Tesla avec Optimus. « N’est-ce pas incroyable ? C’est comme ça que tu as appris à être un robot. Tu as tout fait à l’intérieur d’Omniverse. Et le simulateur de robots s’appelle Isaac, Isaac Sim et Isaac Lab », s’est enthousiasmé Jensen Huang. La firme de Santa Clara (Californie) s’est fait un nom en devenant le numéro mondial des processeurs graphiques (GPU) et des puces IA pour les centres de données ; elle compte s’imposer maintenant dans la robotique industrielle mais aussi dans les robots humanoïdes grâce à ses « piles » matérielles, logicielles et IA intégrées. Cela passe par sa plateforme Omniverse (7), offrant des bibliothèques et des microservices pour développer des jumeaux numériques industriels et des applications de simulation d’IA physique.
« Les avancées en IA physique permettent à l’IA de passer des écrans à notre monde physique, et juste à temps, alors que le monde construit des usines de toutes sortes pour des puces, des ordinateurs, des médicaments vitaux et l’IA. Alors que la pénurie mondiale de main-d’œuvre s’aggrave, nous avons plus que jamais besoin d’automatisation alimentée par l’IA physique et la robotique », a développé le PDG de Nvidia à Las Vegas (8). Le marché de masse n’est pas loin, et Jensen Huang veut en être le n°1. Une rare prévision chiffrée, avancée par Research Nester, estime le marché mondial des robots humanoïdes à plus de 3,1 milliards de dollars en 2025 et prévoit plus de 81,5 milliards de dollars d’ici 2035, à raison d’une croissance moyenne annuelle de 38,5 % sur la période (9).

Marché grand public à partir de 2026
« La nouvelle ère des robots » est décidément en marche (10). La fabrication de robots humanoïdes commence à entrer dans une phase de production industrielle, au rythme de dizaines de milliers d’unités chaque année chez Tesla, BYD, Agibot ou encore Agility Robotics, certains modèles étant désormais vendus en dessous de 10.000 dollars. La société d’études ResearchAndMarkets parle de « déploiement grand public attendu à partir de 2026 » (11), à l’instar de Tesla qui prévoit d’atteindre 100.000 Optimus cette année. @

Charles de Laubier

Tout le monde pourra devenir développeur d’applications sans coder, grâce aux « IA codeuses »

Fini les geeks qui se retrouvent seuls à écrire des lignes de codes pour développer – « from scratch » (à partir d’une feuille blanche) – des programmes ou des applications. Les développeurs informatiques sont une espèce en voie de disparition. A terme, tout le monde pourra programmer sans coder.

Imaginez un monde numérique dans lequel tout un chacun pourra créer son application mobile ou ses programmes informatiques, sans connaître le codage ni même avoir entendu parler de langages de programmation tels que les Python, C++ et autres Java. Dans ce futur, pas si lointain, n’importe qui pourra concevoir son logiciel ou son application en fonction de ses besoins ou inventer son jeu vidéo à lui, pour se divertir. Et ce, sans écrire la moindre ligne de code ni faire appel à un programmeur professionnel.

De l’autocomplétion passive à l’agentique actif
Votre rêve pourrait rapidement devenir réalité grâce à la déferlante en cours des « IA codeuses », ces intelligences artificielles agentiques capables de coder à votre place en fonction du logiciel, de l’application ou du jeu vidéo que vous souhaitez. Les grands modèles de langage (LLM) dernière génération – Gemini 3 de Google, GPT 5 d’OpenAI, Claude 4.5 d’Anthropic, Large de Mistral AI ou encore Grok 4 de xAI – ont donné naissance à agents codeurs qui génèrent euxmêmes du code, le testent et en assurent sa maintenance. Par exemple, si l’on reprend nos précédents LLM (1), ces IA codeuses s’appellent Antigravity (lancée le 18 novembre 2025), GPT 5.1 High (lancée par OpenAI le 12 novembre), Claude Code (lancée largement le 22 mai), Codestral (lancée par Mistral AI le 29 janvier) ou encore Grok Thinking (lancé par xAI le 17 novembre). L’année 2025 marque donc un tournant et une accélération sur le nouveau marché mondial des IA codeuses, où l’on retrouve bien d’autres concurrents tels que GitHub Copilot (Microsoft), Cursor (Anysphere), Qwen3-Max (Alibaba), Replit Agent (Replit), …
A ce train-là, l’intelligence artificielle (suite) pourrait générer à terme la quasi-totalité des milliards de milliards de lignes de code nécessaires au fonctionnement de nos mondes numériques. Google, qui a présenté le 18 novembre 2025 Antigravity, parle pour le moment d’« une nouvelle ère dans le développement de logiciels assistés par l’IA ». Les développeurs du monde entier – communément appelés les « devs » – connaissent depuis bien longtemps les environnements de développement intégré (ou IDE, pour Integrated Development Environment). Il s’agit d’un logiciel de programmation composé d’au moins un éditeur de code source, d’outils d’automatisation de compilation et d’un débogage, lorsqu’il n’inclut pas aussi de concepteur d’interface graphique utilisateur (GUI), d’un navigateur d’objets (composants-logiciels) ou encore de diagramme de classes (pour la modélisation orientée objet). Mais avec les IA codeuses, l’IDE change de dimension ou, plus précisément, laisse place à une « nouvelle plateforme de développement agentique ». Le fait nouveau est que cette nouvelle génération d’outils intégrés pour le codage n’est plus réservée aux seuls développeurs, mais elle s’adresse in fine à tous. « Nous voulons qu’Antigravity soit la base du développement logiciel à l’ère des agents. Notre vision est de permettre à toute personne, ayant une idée, de vivre le décollage et de la concrétiser », indique Google qui, via sa filiale Google DeepMind dirigée par Demis Hassabis (2), rend Antigravity disponible « en avant-première publique gratuitement, avec des limites tarifaires généreuses sur l’utilisation de Gemini 3 Pro » (3).
D’ailleurs, la filiale d’Alphabet parle de « développement » mais n’utilise pas le thème « développeur »… C’est révélateur. La révolution dans le développement réside dans le passage d’un mode passif d’autocomplétion – où l’IA codeuse se comportait comme un assistant de suggestion dans l’écriture de la suite d’une ligne de code ou de snippets (morceaux de code) – à un mode actif agentique autonome capable de coder de bout-en-bout, en planifiant des tâches complexes, d’exécuter plusieurs étapes de codage sans intervention humaine : écrire les lignes de code, générer des tests, configurer un pipeline, corriger et refactoriser du code existant, interagir avec d’autres outils, …
Les IA codeuses, désormais proactives, peuvent comprendre les objectifs globaux de l’utilisateur – qui n’est plus forcément un développeur – et orchestrer plusieurs étapes, au lieu de se limiter à compléter du code, ligne par ligne. Et cela change tout.

Les IA codeuses from scratch et full stack
Fini les développeurs « from scratch », c’est-à-dire ceux qui partent de zéro (ou d’une page blanche) sans réutiliser de code ou de composants préexistants. Les « devs », qui deviennent des architectes et superviseurs d’IA codeuses plutôt que des « scribes du code », verront leur productivité décupler, voire centupler si ce n’est… milleupler. Les IA codeuses accélèrent et automatisent les développements – jusqu’à donner l’impression d’avoir une compréhension profonde des systèmes. Elles fournissent non seulement ce que l’on appelle chez les devs le framework (ou « cadriciel » en français), à savoir un ensemble cohérent de composants logiciels (bibliothèques, outils, conventions) servant de socle pour construire une application, mais elles peuvent surtout procéder au codage de l’ensemble. L’IA codeuse peut même être « full stack » comme un développeur professionnel peut l’être, autrement dit à même de développer un logiciel, une application ou un site web à la fois en front-end (développement de l’interface graphique utilisateur), en back-end (gestion et traitement des données en coulisses), database comprise (base de données).

Low-code, no-code, vibe coding et IA codeuses
A terme, tout le monde pourra donc potentiellement créer sa propre application, sans générer aucune ligne de code. Les techniques de programmation dites « low-code » (avec un peu de code à écrire) et « no-code » (sans aucune ligne de code à écrire) ont préparé les esprits à du développement sans codage ou peu. Mais dans les deux cas, il faut que l’utilisateur passe par une interface graphique ou visuelle telle que : Bubble, Webflow, Zapier ou Make pour le no-code (s’adressant aux non-développeurs) ; OutSystems, Mendix, Appian ou Power Apps pour le low-code (destinés aux développeurs) ; Salesforce Lightning, ServiceNow App Engine ou Microsoft Power Apps (hybrides pour développeurs ou non).
« Le no-code est conçu pour les utilisateurs non techniques. Il permet de créer des applications via des interfaces visuelles, sans écrire une seule ligne de code. C’est idéal pour des tâches simples comme des formulaires, des tableaux de bord ou des automatisations de base, souvent utilisées par les équipes métiers. Le low-code, quant à lui, combine des éléments visuels avec la possibilité d’écrire un peu de code. Il est plus flexible et puissant, permettant de créer des solutions complexes et évolutives. Il s’adresse aux développeurs et équipes techniques, mais peut aussi être utilisé par des profils hybrides – comme les citizen developers », explique à Edition Multimédi@ Andreia Lopes Hermínio (photo), responsable du développement au sein de la division Low-code d’Axians, filiale de Vinci Energies. Mais la démocratisation du code – sans coder soi-même – s’est accélérée avec l’IA, à commencer par le vibe coding, expression apparue depuis le début de l’année 2025 pour désigner une technique de développement logiciel assisté par intelligence artificielle. C’est le principe du « S’il vous plaît… dessine-moi un mouton ! », d’Antoine de SaintExupéry dans « Le Petit Prince », appliqué au développement informatique à partir d’un prompt en langage naturel : « Fais-moi telle app ! », et l’IA génère directement le code fonctionnel et l’application, sans que l’utilisateur ait de connaissances techniques. C’est ce que l’informaticien slovaco-canadien Andrej Karpathy (4), ancien chercheur scientifique et membre fondateur d’OpenAI ainsi qu’ex-directeur de l’IA chez Tesla, appelle le « codage d’ambiance » (vibe coding). « Il existe un nouveau type de codage que j’appelle le “vibe coding”, où l’on se laisse aller à l’ambiance, où l’on adopte les exponentielles et où l’on oublie même l’existence du code. C’est possible parce que les LLM (par exemple, Cursor Composer [d’Anysphere, start-up issue du MIT, ndlr] avec Sonnet [le modèle d’Anthropic, ndlr]) sont de plus en plus performants. De plus, je communique avec Composer via SuperWhisper [modèle de transcription vocale développé par OpenAI, ndlr], ce qui fait que je touche à peine au clavier », avait expliqué Andrej Karpathy en février 2025 sur X (5). Et du vibe coding aux IA codeuses, il n’y a qu’un pas agentique vers l’« agent-first » (l’agent d’abord) où l’IA planifie et exécute de manière autonome des tâches logicielles complexes – de bout en bout.
Mais pas de panique ! Les IA codeuses, comme pour le no-code ou le vibe coding, auront toujours besoin de supervision humaine. Ces agents du codage sont comme des professionnels full stack, mais intégrés dans les workflows des développeurs. De simple créateur de lignes de code, le développeur va devenir un « prompt engineer », ou superviseur d’IA codeuse. « Le développeur devient un architecte », souligne Sornin (27 ans), lui-même développeur full stack. Cependant, certains devs pourraient craindre une déqualification de leur expertise, réduite à de la validation ou à du débogage. Le métier de développeur en France concerne environ un demi-million de personnes, parmi plus de 9 millions de développeurs dans l’Union européenne (plus de 45 millions dans le monde). Leur métier est-il en sursis ? La fédération syndicale Uni Europa ICTS dit « se batt[re] pour que l’IA serve les intérêts des travailleurs » (6).

Les développeurs réduits au chômage ?
« Aujourd’hui, l’IA est devenue un véritable compagnon de travail, capable non seulement d’écrire du code, mais aussi de naviguer dans les applications, de tester automatiquement et même de déboguer plus vite que moi, témoigne sur LinkedIn Antoine Martinelli, développeur web et intégrateur IA, basé en Suisse. Le développeur de demain ressemblera davantage à un intégrateur, un responsable de développement, ou un créatif technologique » (7). L’avenir dira si les IA codeuses augmentent la productivité des développeurs, ce que semble contredire pour l’instant une étude du centre de recherche METR (8) selon laquelle « lorsque les développeurs utilisent des outils d’IA, ils prennent 19 % de plus de temps que sans eux – l’IA les ralentit » (9). Pour l’instant… @

Charles de Laubier

SEO, GEO et LLMO : visibilité en ligne chamboulée

En fait. Le 17 septembre, la société américaine Zeta Global – cotée en Bourse à New-York et spécialisée dans les solutions de marketing multicanal – a lancé sur sa plateforme le Generative Engine Optimization (GEO), la solution tendance pour que les marques restent visibles dans les réponses des IA génératives.

En clair. Signe des temps, la société de marketing direct Zeta Global – fondée en 2007 par par David Steinberg, son actuel PDG, et John Sculley, ancien PDG d’Apple (1983-1993) – plonge dans le grand bain mondial de l’optimisation pour les moteurs génératifs. Les spécialistes du marketing et les annonceurs publicitaires ont aimé le Search Engine Optimization (SEO), pour rendre plus visibles leurs marques et sites web dans les résultats des moteurs de recherche ; ils adorent déjà le Generative Engine Optimization (GEO). Car les moteurs de recherche traditionnels voient de plus en plus leurs utilisateurs passer aux intelligences artificielles génératives, même si Google est pour l’instant encore en position dominante avec son search. L’institut d’études Gartner a prédit « une baisse de 25 % du volume des moteurs de recherche d’ici 2026, en raison des chatbots IA et autres agents virtuels » (1).
De son côté, le cabinet de conseil Bain & Company a relevé en février 2025 que « 80 % des consommateurs (suite) s’appuient désormais sur les résultats écrits par l’IA pour au moins 40 % de leurs recherches, ce qui réduit le trafic web organique de 15 à 25 % » (2). Pas de temps à perdre : les marques et les sites web ne veulent pas être engloutis dans les classements des chat-search. Dans cette nouvelle donne de la visibilité en ligne, où l’IA générative formules les réponses, il s’agit aussi d’identifier et de corriger les lacunes de citation, les hallucinations ou les réponses. Pour être fin prêt au GEO, il faut désormais « optimiser les contenus pour qu’ils soient LLM-ready (questions-réponses, résumés, métadonnées) », comme l’explique Zeta Global, faisant référence aux grands modèles de langage – Large language model (LLM).
« Si vous n’êtes pas présent et précis dans la boîte de réponse, vous êtes invisible », prévient David Steinberg, PDG cofondateur de Zeta Global (3), qui se positionne comme « cloud marketing d’IA » (4). « Le nouvel outil permet aux spécialistes du marketing de contrôler l’apparition de leurs marques dans les principaux systèmes d’IA, notamment ChatGPT [d’OpenAI], Gemini [de Google] et Claude [d’Anthropic], et d’optimiser leurs réponses avec des recommandations ciblées et exploitables » (5). En France, des agences GEO voire LLMO (Large Language Model Optimization) montent en puissance, telles que Archipel AI, Eskimoz, Primelis, Upto1 ou Sales Odyssey. @