DeepSeek fête ses un an et pourrait profiter de la Fête des Lanternes pour lancer sa V4

Le « ChatGPT » chinois DeepSeek, qui avait secoué les IA américaines après son lancement low cost et frugale il y a un an, va lancer la version 4 de son modèle d’IA open source. L’Empire du Milieu et l’Occident sont ses terrains de jeu. Son fondateur Liang Wenfeng fait frémir Sam Altman (OpenAI).

En Chine, avec ou sans intelligence artificielle, le Nouvel An lunaire donnant le coup d’envoi de la Fête du Printemps se célèbre – cette année 2026 – du 17 février au 3 mars, le dernier jour des festivités étant la Fête des Lanternes, connue aussi pour ses boulettes de riz gluantes (tuanyuan). Pour marquer les un an de son IA générative DeepSeek, dont la « R1 » avait été lancée massivement et mondialement le 20 janvier 2025 (1), la société éditrice Hangzhou DeepSeek AI (2), fondée par son PDG Liang Wenfeng (photo), pourrait dégainer son modèle V4 d’ici au 3 mars.

Les « sino-AI » se sont multipliées
Les administrations « Trump I », « Biden » et « Trump II » ont eu beau restreindre les exportations de puces IA américaines les plus avancées, dont les GPU (3) de Nvidia, cela n’a pas empêché des rivaux chinois des ChatGPT d’OpenAI, Gemini de Google et autres Claude d’Anthropic de relever le défi des IA génératives entraînées sur de grands modèles de langage (LLM) performants. Un an après le lancement de la première version de DeepSeek par la société de Hangzhou (capitale de la province du Zhejiang, dans l’Est de la Chine), les « sino-AI » se sont multipliées pour conquérir le monde : Qwen d’Alibaba, Doubao de ByteDance, Hunyuan de Tencent, Ernie de Baidu, M de MiniMax, Kimi de Moonshot AI, Spark d’Iflytek, Ziyue de Netease Youdao, DM0 de Dexmal, ou encore GLM de Zhipu AI.
Publiée en janvier 2026, une étude de l’organisation américaine à but non lucratif Research and Development (Rand) – émancipée de l’US Air Force depuis 1948 mais toujours financé en grande partie par le gouvernement fédéral américain – constate que (suite) « les modèles chinois coûtent entre un sixième et un quart du prix des rivaux américains ». Mais cette étude pro-américaine (4) fait l’impasse sur la sobriété énergétique des IA chinoises qui ont un avantage sur leurs concurrents américains énergivores. De plus, DeepSeek s’est d’emblée démarqué de ses rivaux américains en étant open source. Bien qu’il ne soit pas le seul à être libre (5), son IA low cost et low energy – du moins jusqu’alors dans sa version V3.2 – est en pole position dans les catégories de raisonnement avancé, d’efficacité/coût, de mathématiques/coding et d’adoption massive sur des plateformes d’hébergement et de téléchargement telles que Hugging Face (6), Ollama ou GitHub. DeepSeek surpasse parfois GPT-5 ou Gemini 3.0 Pro sur des tâches spécifiques. Cette ouverture du chinois attire développeurs et entreprises, favorisant l’adoption rapide de DeepSeek, y compris en France (7). « La part de marché mondiale des LLM chinois est passée de [moins de] 3 % à [plus de] 13 % en deux mois [entre décembre 2024 et février 2025, ndlr], principalement portée par DeepSeek, alors même que le trafic des sites web des LLM américains a continué d’augmenter régulièrement durant cette période », relève l’étude de Rand. La ville de Hangzhou, où se situe aussi le siège mondial du géant chinois Alibaba, n’a rien à envier à la Silicon Valley et est devenu une plaque tournante de l’IA mondiale. Avec sa V4 – entraînée malgré l’embargo sur des puces IA Nvidia, d’après Reuters le 24 février (8) –, DeepSeek entend ne pas se faire distancer au niveau mondial. D’autant que s’endormir sur ses lauriers serait laisser la part belle aux autres LLM ouverts dits « open-weight » (« poids du modèle » téléchargeable) que sont, par exemple, les modèles Llama de Meta, populaire chez les développeurs, Gemma de Google ou encore Large, Ministral, Devstral et Magistral du français Mistral AI.
La société Hangzhou DeepSeek AI, privée et principalement financée par le fonds High-Flyer Quant (fonds spéculatifs, ou hedge fund, piloté par l’IA) appartenant à Liang Wenfeng, se concentre pour l’instant sur la recherche fondamentale (R&D), plutôt que sur la réalisation d’un chiffre d’affaires : non divulgué, celui-ci ne dépasserait pas les 50 millions de dollars en 2025 selon les spéculations (9). Reste à savoir aussi combien de temps le PDG de DeepSeek résistera aux sirènes de la Bourse.

Liang Wenfeng s’apprête à sortir une AGI
Dans une rare interview, accordée à 36Kr (le « TechCrunch » chinois) en juillet 2024 (10), soit trois après la sortie de la V2 de DeepSeek et six mois avant le lancement mondial de sa R1 bien plus puissante, Liang Wenfeng a dévoilé ses ambitions : « La chose la plus importante est de faire partie de cette vague mondiale d’innovation. […] Les API et l’IA devraient être abordables et accessibles à tous. […] Mais notre l’objectif est l’AGI [Artificial General Intelligence, capable de surpasser les humains, ndlr]. Cela peut être dans deux ans, cinq ans ou dix ans […] OpenAI n’est pas une entité toute-puissante qui peut toujours être en première ligne ». DeepSeek s’inscrit dans le temps long. @

Charles de Laubier

Wikipedia dans l’œil du cyclone de l’administration Trump et des conservateurs du monde entier

Wikipedia, qui fêtera ses 25 ans en janvier 2026, est aux prises avec les conservateurs et l’extrême droite qui reprochent à l’encyclopédie en ligne à vocation universelle d’être « orientée à gauche ». Le meurtre du trumpiste Charlie Kirk a relancé les critiques infondées. Elle est aussi une cible en Europe.

(Par ailleurs, Jimmy Wales, son cofondateur, publie le 25 octobre 2025, Les sept règles de la confiance, chez Crown Currency/Penguin Random House)

Israël en guerre à Gaza, invasion de l’Ukraine par la Russie, politique, vaccination contre le covid19, réchauffement climatique, théories du genre, ou encore tout récemment meurtre de Charlie Kirk : les sujets sensibles voire épidermiques ne manquent pas sur Wikipedia, qui s’en tient aux faits, le plus souvent sourcés. Les traitements éditoriaux, qui sont effectués par 100.000 à 200.000 contributeurs « Wikipédiens » par mois dans le monde entier, peuvent agacer la partie la plus conservatrice et réactionnaire parmi les quelques 500 millions de visiteurs mensuels toutes versions confondues.
« Les rédacteurs gauchistes de Wikipedia déforment les faits dans un geste éhonté pour salir Charlie Kirk. […] Le cadrage garantit que toute personne à la recherche de Kirk après son meurtre est confrontée à un récit conçu pour le discréditer », s’est insurgée la chaîne de télévision conservatrice américaine Fox News le 11 septembre (1), soit au lendemain du meurtre de ce militant politique et conservateur américain, très proche du président des Etats-Unis Donald Trump. Elle reproche à l’encyclopédie en ligne très actualisée d’« attaque contre Kirk » en le disant d’emblée « de droite », un « cadrage politisé » que l’on ne retrouverait pas pour des personnalités comparables de la gauche.

Fox s’insurge contre la page « Charlie Kirk »
Mais ce qui agace le plus la chaîne pro-Trump du magnat des médias, le milliardaire australo-américain Rupert Murdoch, c’est ce passage pourtant incontestable : « Allié-clé de Donald Trump, Kirk a promu des causes d’extrême droite et alignées sur Trump. Il a épousé une variété de points de vue controversés, en particulier concernant son opposition au contrôle des armes à feu, à l’avortement et aux droits LGBTQ ; sa critique de la loi sur les droits civiques de 1964 et de Martin Luther King Jr. ; et sa promotion du nationalisme chrétien, de la désinformation sur le covid-19, de la théorie du complot du Grand remplacement et de fausses allégations de fraude électorale en 2020 » (2). Fox est le plus emblématique des médias aux Etats-Unis – la chaîne d’information la plus regardée par les Américains devant CNN et MSNBC – à avoir critiqué Wikipedia. Mais d’autres médias du même bord ont fait de même. Par exemple, le jour même de l’assassinat, le site web NewsBusters à la rhétorique conservatrice a accusé l’encyclopédie en ligne de (suite) biais idéologique dans ses articles : « Les rédacteurs de Wikipedia saccagent une page de Charlie Kirk avec une injection de “désinformation” après une fusillade mortelle » (3).

Jimmy Wales récuse toute partialité
Ce n’est pas la première fois, ni la dernière, que l’encyclopédie libre à but non lucratif et à vocation universelle est pointée du doigt – pour « gauchisme » ou « wokisme » – par la droite et l’extrême droite essentiellement. Le cofondateur Jimmy Wales (photo ci-dessus) défend dès qu’il le peut la neutralité et l’objectivité de Wikipedia, comme ce fut le cas le 8 août dernier lors du Wikimania 2025 à Nairobi, capitale du Kenya (Afrique). « Nous avons un rôle à jouer dans un monde saturé de désinformation, de mésinformation et d’activisme politique. Non, nous, les Wikipédiens, nous restons très calmes. Nous nous contentons de présenter les faits. Nous essayons de rester neutres. Je pense que nous pouvons être une source d’inspiration, peut-être même pour certains journalistes qui devraient savoir mieux faire », a-t-il déclaré lors d’une interview accordée à un journaliste bangladais, Delwar Hossain (4), Wikimédien – c’est-à-dire non seulement contributeur à Wikipedia, en tant que Wikipédien, mais aussi à l’ensemble des projets de la Wikimedia Foundation (Wikimedia Commons, Wikidata Wikivoyage Wiktionary, …).
La fondation Wikimedia a été fondée il y a près de 22 ans par Jimmy Wales, qui a toujours été membre de son conseil d’administration, sans jamais en avoir été président. Et depuis dix ans, il y siège de façon honorifique et permanente en tant que Community Founder Trustee (administrateur fondateur communautaire). L’an dernier, son mandat renouvelable a été reconduit jusqu’au 31 décembre 2027 (5). Ce n’est donc pas lui mais la directrice générale de la Wikimedia Foundation, l’américaine d’origine égyptienne Maryana Iskander (photo ci-contre), qui est tenue de répondre à la lettre datée du 27 août 2025 et cosignée par deux pro-Trump du Parti républicain, James Comer et Nancy Mace. Le premier est président de la commission de contrôle et de réforme du gouvernement (6), à la Chambre des représentants au Congrès des EtatsUnis, tandis que la seconde y est présidente de la sous-commission sur la cybersécurité, les technologies de l’information et l’innovation gouvernementale. Dans leur courrier, ils demandent à la Wikimedia Foundation – qui avait jusqu’au 10 septembre 2025 pour leur répondre – des « documents » concernant « [des] individus (ou comptes spécifiques) agissant comme contributeurs bénévoles sur Wikipedia et ayant enfreint les politiques de la plateforme ». Et ce, dans le cadre de leur « enquête » parlementaire sur « les actions d’opérations étrangères et d’individus au sein d’établissements académiques subventionnés par l’argent des contribuables américains, visant à influencer l’opinion publique aux Etats-Unis ». Les deux trumpistes soupçonnent Wikipedia de parti pris : « Un rapport récent soulève des interrogations inquiétantes quant à des efforts potentiellement systématiques pour diffuser des contenus antisémites ou anti-Israël dans des articles en lien avec les conflits impliquant l’Etat d’Israël (7). Un second rapport décrit des actions menées par des acteurs étatiques hostiles visant à diffuser des messages pro-Kremlin et anticoloniaux vers des publics occidentaux (8), en manipulant à la fois des articles de Wikipédia et d’autres médias utilisés pour entraîner des chatbots à base d’IA » (9). Au-delà, les deux députés du Congrès américain accusent l’encyclopédie en ligne d’« influencer l’opinion publique aux Etats-Unis », de ne pas « empêcher des initiatives intentionnelles et organisées visant à injecter un biais dans des sujets importants et sensibles » ; de « manipulation de l’information […] à des fins de propagande auprès d’un public occidental ». Aussi, ils exigent de la DG Maryana Iskander de leur expliquer quels sont « les outils et méthodes employés par Wikipedia pour identifier et contrer les actions malveillantes qui injectent un biais ou sapent la neutralité de la plateforme ». Le Wikipedia-bashing est indissociable de la montée des extrêmes droites dans le monde, y compris dans l’Union européenne.
Soutien du parti allemand national-conservateur, eurosceptique et anti-immigration qu’est l’AfD, l’homme le plus riche du monde Elon Musk a fait sienne le surnom péjoratif « Wokepedia » dans un tweet qu’il a posté le 24 décembre 2024 : « Arrêtez de faire des dons à Wokepedia jusqu’à ce qu’ils rétablissent l’équilibre de leur autorité éditoriale » (10). Ce néologisque prisé des conservateurs et des identitaires est dérivé de « woke », le terme américain signifiant « éveillé » aux injustices sociales. Il est utilisé de manière critique pour désigner des positions progressistes. Une variante française de ce quolibet, « Wokipédia », est aussi employée par l’extrême droite française, notamment lors de polémiques début 2022 à propos l’ancien éditorialiste du Figaro Eric Zemmour, catholique devenu politicien antimusulman d’extrême droite (11). « Wokipedia : le bastion d’extrême-gauche » a aussi été sur la chaîne CNews le 18 janvier 2025 le sujet d’un édito du journaliste d’extrême droite Erik Tegnér (exFN, ex-UMP et ex-LR), fondateur et directeur de la rédaction du média identitaire Frontières (12).

Le Point s’en est pris à un Wikipédien
L’expression « Les faits sont têtus », bien connue dans le journalisme (13), pourrait être le slogan de Wikipedia. Les éditeurs de cette plateforme de la connaissance universelle libre et ouverte sont la plupart anonymes mais leurs écrits, eux, sont le plus souvent sourcés. Mais cela ne suffit pas à ces détracteurs, comme Le Point qui, dénonce Wikimédia France (14), a intimidé un bénévole qui avait modifié sur Wikipédia l’article concernant cet hebdomadaire français de droite. @

Charles de Laubier

AI Act, DSA, MiCA, … Superposition réglementaire : le casse-tête européen pour les projets innovants

L’ambition européenne pour un « marché unique numérique » a généré un véritable labyrinthe de textes réglementaires que nul n’est censé ignorer, pas même les start-up et les fintech, sauf à devenir hors-la-loi. Mais à ce patchwork s’ajoute le manque de coordination entre autorités compétentes.

Par Arnaud Touati, avocat associé, et Mathilde Enouf, juriste, Hashtag Avocats

L’Union européenne a une ambition manifeste : réguler de manière exemplaire la transition numérique. Du règlement sur l’intelligence artificielle (AI Act) aux directives concernant les services numériques (DSA/DMA), en passant par la régulation des actifs numériques (MiCA) et la résilience opérationnelle du secteur financier (DORA), le législateur européen ne cesse d’introduire des normes structurantes. Chacun de ces textes, pris séparément, a pour objectif de pallier une carence. Ensemble, ils constituent un écosystème réglementaire complexe, parfois dépourvu de cohérence, souvent difficile à appliquer.

Accumulation de textes sans réelle coordination
Pour les initiatives novatrices, en particulier les start-up et les fintech, cette accumulation de normes peut rapidement devenir complexe. Cela est d’autant plus vrai que les normes et directives techniques ne cessent de croître, changeant constamment le champ de la conformité sans perspective de stabilité à moyen terme ni durabilité juridique. Actuellement, le cadre réglementaire en Europe se fonde sur plusieurs éléments-clés. L’AI Act (1) met en place une catégorisation des systèmes d’intelligence artificielle basée sur leur niveau de risque, imposant des exigences rigoureuses aux systèmes considérés comme étant « à haut risque ». Le DSA (2) et le DMA (3) ont pour objectif de réguler les grandes plateformes numériques tout en offrant une protection accrue aux utilisateurs. MiCA (4) régule la création de jetons et l’offre de services liés aux crypto-actifs. DORA (5) impose des normes rigoureuses de cybersécurité dans le domaine financier. De nombreux intervenants de l’écosystème sont également soumis aux règles (suite) anti-blanchiment. On peut également trouver d’autres documents transversaux, sectoriels ou techniques. Cela constitue un millefeuille réglementaire complexe où les obligations s’accumulent sans véritable coordination, engendrant des superpositions et parfois même des contradictions. Chaque texte s’appuie sur ses propres définitions, logiques, et fait appel à diverses autorités de supervision, sans qu’il y ait une articulation claire entre elles. Une start-up œuvrant dans divers secteurs tels que les actifs numériques et l’intelligence artificielle se voit donc confrontée à des chronologies disparates, des seuils de déclenchement discordants et des demandes de documentation non-uniformes. Ce fractionnement rend les procédures de conformité beaucoup plus lourdes et entrave l’aptitude à innover dans un environnement juridique stable.
Les stablecoins sous MiCA, règlement européen sur les marchés de cryptoactifs, et PSD2, directive européenne sur les services de paiement (6), constituent un cas emblématique. Les jetons de monnaie électronique en eux-mêmes (ou EMT, pour Electronic Money Token, ou E-Money Token), appelés aussi « stablecoins monodevise » (adossés à une monnaie officielle comme l’euro), démontrent les conséquences néfastes que peut engendrer une superposition de la réglementation. Selon MiCA, ces tokens sont considérés comme de la monnaie électronique. Cependant, les transactions de transfert associées peuvent aussi être soumises à la directive PSD2, avec toutes les obligations qui en découlent. Ainsi, un même acteur est soumis à une double contrainte réglementaire : il doit se procurer à la fois une licence en tant que fournisseur de services sur actifs numériques (CASP (7), ou PSCA (8) en français) conformément au règlement MiCA, et une autorisation pour l’établissement de paiement selon PSD2. Ces deux régimes nécessitent des procédures d’approbation différentes, possèdent des critères de capital propre superflus, imposent des responsabilités divergentes et soulèvent des questions concernant la classification juridique de certaines actions, telles que les transferts internes à un utilisateur ou les mouvements vers des portefeuilles autogérés. Malgré les mises en garde des syndicats professionnels, la réaction de certaines autorités de régulation en Europe demeure pour l’instant insuffisante, bien que nos autorités françaises fassent un travail remarquable sur le sujet.

DORA, une usine à conformité pour la finance
Si aucune action n’est entreprise, de nombreux intervenants pourraient abandonner les services de transfert d’EMT, ce qui va à l’encontre des objectifs de MiCA, lequel vise précisément à promouvoir l’adoption de ces actifs numériques. Concernant cette fois le règlement sur la résilience opérationnelle numérique, également connu sous le nom de DORA, il est entré en vigueur à partir de janvier 2025. Il impose aux institutions financières un cadre global de gestion des risques associés aux technologies de l’information. Cela englobe l’élaboration d’un plan de gestion du risque « TIC » (9), l’alerte en cas d’incidents majeurs, la conduite de tests de résilience numérique, ainsi que la nécessité de maintenir un registre précis des contrats avec les fournisseurs de services informatiques tiers. Bien que ces initiatives visent à renforcer la sécurité systémique, leur application s’avère très complexe pour les petites entités. De nombreuses start-up et fintech manquent des ressources et des compétences internes nécessaires pour répondre à ces exigences. La notion de proportionnalité stipulée dans le règlement est fréquemment comprise de façon restrictive et demeure floue quant à ses modalités d’application pratiques.

AI Act : flous techniques, complexité procédurale
La réglementation sur l’intelligence artificielle ajoute une couche additionnelle. L’AI Act impose des exigences strictes aux systèmes classés comme « à haut risque » : documentation technique, supervision humaine, qualité des données, transparence et inscription obligatoire dans une base de données européenne. Il est possible que les sanctions aillent jusqu’à 7 % du chiffre d’affaires à l’échelle mondiale. L’instauration de « bacs à sable réglementaires » est bien prévue, mais leur réalisation prend du temps. Entretemps, les initiatives doivent naviguer entre les réglementations existantes dans leur domaine respectif (santé, automobile, services publics, …) et les exigences récentes imposées par la réglementation sur l’IA, sans aucune coordination entre les autorités compétentes. La définition même de ces systèmes pose problème : IA intégrée, IA générative, open source, … aucune de ces classifications n’est précisément définie, ce qui rend les stratégies de conformité floues. Le dilemme du guichet unique demeure aussi sans solution : une entreprise concevant une IA employée dans divers contextes doit composer avec autant d’autorités qu’il y a de domaines d’application.
Quant aux DSA et DMA, s’ils ciblent prioritairement les grandes plateformes, ces règlements affectent également les plus petits acteurs par ricochet sur l’ensemble de l’écosystème. Une start-up qui propose une solution technique à un acteur qualifié de « gatekeeper » (contrôleur d’accès), se retrouve indirectement soumise à des exigences de conformité étendues : traçabilité, documentation, obligations de transparence, et compatibilité renforcée au RGPD, le règlement général sur la protection des données (10).
Ces obligations s’appliquent même lorsque la start-up ne traite pas directement de données personnelles ou de contenus modérés, mais fournit simplement un service technique – API (Application Programming Interface), infrastructure, algorithmes de recommandation – utilisé en aval par une plateforme réglementée. L’effet est immédiat : elle doit produire des audits, garantir l’interopérabilité, prouver l’absence de pratiques déloyales, et documenter ses choix techniques, parfois en plusieurs langues, à destination des autorités nationales de différents Etats membres. Sans pouvoir de négociation, et sans accès aux ressources de conformité des grands groupes, ces petites structures se retrouvent piégées dans une logique de compliance excessive. Ce n’est plus l’activité elle-même qui génère du risque, mais la simple appartenance à une chaîne de valeur numérique réglementée. Cette situation crée une inégalité de traitement qui freine l’innovation, décourage la prise de risque, et oriente les jeunes pousses vers des marchés plus permissifs. Les investisseurs, eux aussi, deviennent frileux à l’idée d’accompagner des projets exposés à une telle incertitude juridique. Quant aux avocats et aux directions juridiques internes, ils doivent souvent interpréter à l’aveugle des règlements conçus pour des géants du numérique, mais appliqués sans nuance à des entités de dix salariés.
L’approche globale attendue pour tous ces documents devait être celle de la cohérence, de la confiance et de l’indépendance numérique. Toutefois, l’accumulation non-synchronisée de ces réglementations conduit à une situation contradictoire : des normes conçues pour sécuriser les initiatives numériques génèrent l’effet opposé.
La disparité des parties prenantes, les interprétations différentes, les retards d’approbation inconsistants et l’absence de moyens de simplification pour les petites entités rendent le paysage réglementaire de l’Union européenne ardu à déchiffrer. On constate également une instabilité des lignes directrices, qui changent parfois sans consultation préalable ni soutien. Les responsables de la régulation ont également du mal à répondre aux demandes, ce qui prolonge l’incertitude pour les intervenants. Cette complexité induit une réticence à l’innovation, un transfert des projets vers des juridictions plus laxistes, et une constante incertitude juridique. L’Europe dispose à la fois d’expertise et de vision. Cependant, elle a du mal à concilier ses aspirations avec les conditions réelles sur le terrain. Il est crucial de réévaluer la régulation en se basant sur des principes opérationnels : établissement de guichets sectoriels unifiés, standardisation des délais d’autorisation, définition claire des situations de double régulation, application effective du principe de proportionnalité, avancée rapide des mécanismes de bac à sable.

Europe : repenser l’architecture de la régulation
Cela nécessite également d’intensifier la communication entre les instances nationales et européennes, de fournir des modèles de conformité aisément modifiables, et d’établir une direction stratégique de la transition réglementaire par secteur. Les intervenants économiques requièrent de la clarté, de la constance et la possibilité de prévoir. Sans ce remodelage méthodologique, les projets les plus prometteurs risquent de ne plus voir le jour en Europe. Et la régulation, supposée fournir un atout stratégique, se transformera en obstacle persistant à la compétitivité du Continent. Sans parler de la souveraineté numérique européenne qui, face à tant de complexités juridiques, risque de rester un vœu pieu. @

L’OSINT court-circuite de plus en plus les médias

En fait. L’Open Source Intelligence (OSINT) consiste à collecter des informations auprès de « sources ouvertes », en toute légalité, et à les diffuser auprès de publics en quête d’immédiateté et de vérification. Avec les réseaux sociaux et les messageries instantanées, les médias sont pris de court..

En clair. L’OSINT (Open Source Intelligence), en français « renseignement open-source », prend de l’ampleur au point de devenir une alternative pour s’informer sans passer par les médias traditionnels. Avec les réseaux sociaux et les messageries instantanées, ces informations circulent quasiment en temps réel. L’OSINT est défini comme « la collecte méthodique et l’exploitation d’informations provenant de sources accessibles au public pour répondre à une exigence en matière de renseignement », selon Ludo Block, maître de conférences à la Faculté de gouvernance et des affaires mondiales (FGGA) à l’Université de Leiden, à La Haye (Pays-Bas).
Chargé de cours sur l’OSINT, cet enseignant néerlandais indique dans « The long history of OSINT » (1) (article paru en juin 2023) que la première utilisation de l’expression « renseignement open-source » et de l’acronyme « OSINT » remonte à 1990 avec un article de Robert Steele, ancien officier de la CIA et co-fondateur des activités de renseignement du Corps des Marines américain, publié dans l’American Intelligence Journal (2). Ludo Block explique que (suite)

beaucoup situent l’apparition de cette discipline – bien que plus ancienne que la radiodiffusion – à la veille de la Seconde Guerre mondiale, avec le « BBC Monitoring Service » en Grande-Bretagne en 1939 et le Foreign Broadcast Monitoring Service (FBMS) en 1941 aux Etats-Unis. Aujourd’hui, avec Internet, les sources d’information ont proliféré, au point que l’OSINT inclut désormais le SOCMINT (Social Media Intelligence), ou veille des médias sociaux. Et ce, pour le renseignement, la sécurité, la défense et, de plus en plus, l’information. Par exemple, créée en 2014, l’organisation néerlandaise Bellingcat mène des enquêtes en sources ouvertes. En 2022, a été créée aux Etats-Unis l’OSINT Foundation pour « professionnaliser » la pratique.
En France, l’association OpenFacto existe depuis 2019 pour « démocratiser » l’OSINT. De son côté, le Français Baptiste Robert s’est fait connaître dans cette disciple en tant que chercheur en cybersécurité et en « hacking éthique ». Cet ingénieur toulousain de 36 ans, ayant comme pseudonyme « fs0c131y », est le PDG fondateur de Predicta Lab (ex-Fsociety (3)). Sa mission : recueillir et diffuser des « informations essentielles » aux particuliers et organisations, et leur « fournir des outils OSINT » pour « se protéger dans le monde numérique ». @

La CSNP demande à l’Etat de lancer une étude d’impact sur les communs numériques

La Commission supérieure du numérique et des postes (CSNP) a publié le 8 novembre un avis sur les communs numériques. Bien qu’ouverts et gratuits, plusieurs « freins » à leur développement sont identifiés. Les Etats jouent parfois contre eux, en finançant des produits ou services similaires.

Parmi les onze recommandations que fait la Commission supérieure du numérique et des postes (CSNP) – instance bicamérale et transpartisane en interaction avec Bercy – dans son avis rendu le 8novembre et intitulé «Commun numériques : vers un modèle souverain et durable », la n°5 suggère à l’Etat français de « lancer une étude d’impact économique et sociétale comparée pour les communs numériques d’intérêt général ». Et ce, « afin d’évaluer, notamment d’un point de vue comparatif, les coûts générés et évités par les communs numériques d’intérêt général ».

Clarifier les aides d’Etat dans les communs
La CSNP, dont la mission sur les communs numériques a été pilotée par Jeanne Bretécher (photo), mentionne juste en guise d’exemple où une étude comparée pourrait être pertinente : « NumAlim versus Open Food Facts ». Mais sans expliquer pourquoi. Ces deux initiatives poursuivent le même objectif : fournir des informations sur les produits alimentaires. Mais les deux sont d’origine différente, comme l’analyse Edition Multimédi@. Open Food Facts est un projet collaboratif lancé par des citoyens bénévoles pour créer une base de données libre et ouverte sur les produits alimentaires, utilisé par NutriScore, Yuka, Foodvisor et ScanUp ou encore Centipède. Alors que NumAlim est en revanche un projet initié par l’Ania (1), le lobby de l’industrie alimentaire, et opéré par la société Agdatahub (détenue par la holding API-Agro), pour créer une plateforme de données ouvertes mais aussi payantes sur les produits alimentaires. Mais au-delà du fait qu’Open Food Facts à but non lucratif est un vrai commun numérique gratuit et que NumAlim est une plateforme commerciale avec sa place de marché « BtoB » HubAlim, leurs financements diffèrent : Open Food Facts dépend principalement des contributions de bénévoles et de dons, tandis que NumAlim bénéficie du financement de la Banque des Territoires, filiale d’investissement de la Caisse des Dépôts (CDC), bras armé financier de l’Etat français.

Cet exemple illustre le deux poids-deux mesures dans la façon dont l’Etat français appréhende les « communs numériques ». La France apparaît plus encline à financer des start-up – au nom de la French Tech ou de la Start-up Nation – qu’à subventionner des projets de communs numériques d’intérêt général. Or pour ces derniers, relève la CSNP, « les modèles de financement des “start-ups”, avec prise de participation, ne sont pas adaptés ». Une telle dichotomie dans l’accès au financement opère implicitement une discrimination entre start-up et communs numériques, alors que la réglementation européenne des aides d’Etat considère les communs numériques d’intérêt général comme une activité économique classique, au même titre que des start-up. Ces communs numériques pourraient même entrer dans la catégorie des Services économiques d’intérêt général (SIEG) dont les aides publiques peuvent être plus élevées. L’étude d’impact économique et sociétale comparée que la CSNP appelle de ses vœux permettrait d’y voir plus clair sur la stratégie d’investissement de l’Etat français dans les communs numériques – que cela soit par la CDC via ses filiales Banque des Territoires et Bpifrance (2), ou par ses différents programmes d’investissement. « Cette étude pourrait être portée par la Cour des comptes, l’Inspection générale des finances [interministérielle, ndlr], France Stratégie [service du Premier ministre, ndlr] ou le Conseil général de l’économie [CGE à Bercy, ndlr] », propose la CSNP qui va même plus loin. « D’une manière générale, la CSNP souhaite que des études d’impact soient conduites sur les investissements publics dans des domaines numériques (French Tech, NumAlim, Qwant…) ». La plan gouvernemental French Tech aura dix ans fin 2023, dont la mission est installée depuis 2017 chez l’incubateur Station F fondé par le milliardaire fondateur de Free, Xavier Niel. Quel impact a la French Tech et ses 22.767 start-up (3) soutenus par l’Etat sur les communs numériques ?
Le moteur de recherche d’origine franco-allemand Qwant, cofinancé par la CDC et le groupe Axel Springer, est-il – depuis son lancement avec Emmanuel Macron à l’Elysée il y a plus de dix ans (4) – un commun numérique ou un « Google à la française » à but lucratif ? Une étude d’impact serait donc la bienvenue. D’autant que les communs numériques – ou digital commonsen anglais – sont de plus en plus répandus et utiles.

« Wiki », « Open data » ou encore « Freeware »
Ce sont par exemple : les logiciels libres comme OpenOffice ou Linux ; les plateformes comme Wikipedia ou OpenStreetMap ; les bases de données ouvertes comme Open Food Facts ou Open Library ; les « fédivers » comme les médias sociaux interopérables Mastodon ou PeerTube (5) ; les initiatives publiques comme les Géo-communs de l’IGN (6), la messagerie instantanée Tchap de la DINum (7), la formation à distance avec BigBlueButton de l’Education nationale, l’accès au droit comme Open Law de la Dila (8) et d’Etalab, ou encore le logiciel libre socio-fiscal OpenFisca de France Stratégie (9) et d’Etalab (10). @

Charles de Laubier