DeepSeek fête ses un an et pourrait profiter de la Fête des Lanternes pour lancer sa V4

Le « ChatGPT » chinois DeepSeek, qui avait secoué les IA américaines après son lancement low cost et frugale il y a un an, va lancer la version 4 de son modèle d’IA open source. L’Empire du Milieu et l’Occident sont ses terrains de jeu. Son fondateur Liang Wenfeng fait frémir Sam Altman (OpenAI).

En Chine, avec ou sans intelligence artificielle, le Nouvel An lunaire donnant le coup d’envoi de la Fête du Printemps se célèbre – cette année 2026 – du 17 février au 3 mars, le dernier jour des festivités étant la Fête des Lanternes, connue aussi pour ses boulettes de riz gluantes (tuanyuan). Pour marquer les un an de son IA générative DeepSeek, dont la « R1 » avait été lancée massivement et mondialement le 20 janvier 2025 (1), la société éditrice Hangzhou DeepSeek AI (2), fondée par son PDG Liang Wenfeng (photo), pourrait dégainer son modèle V4 d’ici au 3 mars.

Les « sino-AI » se sont multipliées
Les administrations « Trump I », « Biden » et « Trump II » ont eu beau restreindre les exportations de puces IA américaines les plus avancées, dont les GPU (3) de Nvidia, cela n’a pas empêché des rivaux chinois des ChatGPT d’OpenAI, Gemini de Google et autres Claude d’Anthropic de relever le défi des IA génératives entraînées sur de grands modèles de langage (LLM) performants. Un an après le lancement de la première version de DeepSeek par la société de Hangzhou (capitale de la province du Zhejiang, dans l’Est de la Chine), les « sino-AI » se sont multipliées pour conquérir le monde : Qwen d’Alibaba, Doubao de ByteDance, Hunyuan de Tencent, Ernie de Baidu, M de MiniMax, Kimi de Moonshot AI, Spark d’Iflytek, Ziyue de Netease Youdao, DM0 de Dexmal, ou encore GLM de Zhipu AI.
Publiée en janvier 2026, une étude de l’organisation américaine à but non lucratif Research and Development (Rand) – émancipée de l’US Air Force depuis 1948 mais toujours financé en grande partie par le gouvernement fédéral américain – constate que (suite) « les modèles chinois coûtent entre un sixième et un quart du prix des rivaux américains ». Mais cette étude pro-américaine (4) fait l’impasse sur la sobriété énergétique des IA chinoises qui ont un avantage sur leurs concurrents américains énergivores. De plus, DeepSeek s’est d’emblée démarqué de ses rivaux américains en étant open source. Bien qu’il ne soit pas le seul à être libre (5), son IA low cost et low energy – du moins jusqu’alors dans sa version V3.2 – est en pole position dans les catégories de raisonnement avancé, d’efficacité/coût, de mathématiques/coding et d’adoption massive sur des plateformes d’hébergement et de téléchargement telles que Hugging Face (6), Ollama ou GitHub. DeepSeek surpasse parfois GPT-5 ou Gemini 3.0 Pro sur des tâches spécifiques. Cette ouverture du chinois attire développeurs et entreprises, favorisant l’adoption rapide de DeepSeek, y compris en France (7). « La part de marché mondiale des LLM chinois est passée de [moins de] 3 % à [plus de] 13 % en deux mois [entre décembre 2024 et février 2025, ndlr], principalement portée par DeepSeek, alors même que le trafic des sites web des LLM américains a continué d’augmenter régulièrement durant cette période », relève l’étude de Rand. La ville de Hangzhou, où se situe aussi le siège mondial du géant chinois Alibaba, n’a rien à envier à la Silicon Valley et est devenu une plaque tournante de l’IA mondiale. Avec sa V4 – entraînée malgré l’embargo sur des puces IA Nvidia, d’après Reuters le 24 février (8) –, DeepSeek entend ne pas se faire distancer au niveau mondial. D’autant que s’endormir sur ses lauriers serait laisser la part belle aux autres LLM ouverts dits « open-weight » (« poids du modèle » téléchargeable) que sont, par exemple, les modèles Llama de Meta, populaire chez les développeurs, Gemma de Google ou encore Large, Ministral, Devstral et Magistral du français Mistral AI.
La société Hangzhou DeepSeek AI, privée et principalement financée par le fonds High-Flyer Quant (fonds spéculatifs, ou hedge fund, piloté par l’IA) appartenant à Liang Wenfeng, se concentre pour l’instant sur la recherche fondamentale (R&D), plutôt que sur la réalisation d’un chiffre d’affaires : non divulgué, celui-ci ne dépasserait pas les 50 millions de dollars en 2025 selon les spéculations (9). Reste à savoir aussi combien de temps le PDG de DeepSeek résistera aux sirènes de la Bourse.

Liang Wenfeng s’apprête à sortir une AGI
Dans une rare interview, accordée à 36Kr (le « TechCrunch » chinois) en juillet 2024 (10), soit trois après la sortie de la V2 de DeepSeek et six mois avant le lancement mondial de sa R1 bien plus puissante, Liang Wenfeng a dévoilé ses ambitions : « La chose la plus importante est de faire partie de cette vague mondiale d’innovation. […] Les API et l’IA devraient être abordables et accessibles à tous. […] Mais notre l’objectif est l’AGI [Artificial General Intelligence, capable de surpasser les humains, ndlr]. Cela peut être dans deux ans, cinq ans ou dix ans […] OpenAI n’est pas une entité toute-puissante qui peut toujours être en première ligne ». DeepSeek s’inscrit dans le temps long. @

Charles de Laubier

L’OSINT court-circuite de plus en plus les médias

En fait. L’Open Source Intelligence (OSINT) consiste à collecter des informations auprès de « sources ouvertes », en toute légalité, et à les diffuser auprès de publics en quête d’immédiateté et de vérification. Avec les réseaux sociaux et les messageries instantanées, les médias sont pris de court..

En clair. L’OSINT (Open Source Intelligence), en français « renseignement open-source », prend de l’ampleur au point de devenir une alternative pour s’informer sans passer par les médias traditionnels. Avec les réseaux sociaux et les messageries instantanées, ces informations circulent quasiment en temps réel. L’OSINT est défini comme « la collecte méthodique et l’exploitation d’informations provenant de sources accessibles au public pour répondre à une exigence en matière de renseignement », selon Ludo Block, maître de conférences à la Faculté de gouvernance et des affaires mondiales (FGGA) à l’Université de Leiden, à La Haye (Pays-Bas).
Chargé de cours sur l’OSINT, cet enseignant néerlandais indique dans « The long history of OSINT » (1) (article paru en juin 2023) que la première utilisation de l’expression « renseignement open-source » et de l’acronyme « OSINT » remonte à 1990 avec un article de Robert Steele, ancien officier de la CIA et co-fondateur des activités de renseignement du Corps des Marines américain, publié dans l’American Intelligence Journal (2). Ludo Block explique que (suite)

beaucoup situent l’apparition de cette discipline – bien que plus ancienne que la radiodiffusion – à la veille de la Seconde Guerre mondiale, avec le « BBC Monitoring Service » en Grande-Bretagne en 1939 et le Foreign Broadcast Monitoring Service (FBMS) en 1941 aux Etats-Unis. Aujourd’hui, avec Internet, les sources d’information ont proliféré, au point que l’OSINT inclut désormais le SOCMINT (Social Media Intelligence), ou veille des médias sociaux. Et ce, pour le renseignement, la sécurité, la défense et, de plus en plus, l’information. Par exemple, créée en 2014, l’organisation néerlandaise Bellingcat mène des enquêtes en sources ouvertes. En 2022, a été créée aux Etats-Unis l’OSINT Foundation pour « professionnaliser » la pratique.
En France, l’association OpenFacto existe depuis 2019 pour « démocratiser » l’OSINT. De son côté, le Français Baptiste Robert s’est fait connaître dans cette disciple en tant que chercheur en cybersécurité et en « hacking éthique ». Cet ingénieur toulousain de 36 ans, ayant comme pseudonyme « fs0c131y », est le PDG fondateur de Predicta Lab (ex-Fsociety (3)). Sa mission : recueillir et diffuser des « informations essentielles » aux particuliers et organisations, et leur « fournir des outils OSINT » pour « se protéger dans le monde numérique ». @