La presse française en ligne va payer très cher sa trop grande dépendance au moteur Google

L’accès aux sites de presse en ligne passe de plus en plus par les moteurs de recherche – Google Discover, Google Search et Google News en tête. La filiale d’Alphabet génère même en France près de 70 % du trafic total de la presse française. Cette « google-dépendance » présente un sérieux risque.

Les éditeurs de presse, qui s’inquiètent déjà de la baisse de leur trafic Internet provenant de l’incontournable Google, ne sont pas au bout de leur peine. Mi-juillet, les sites d’information américains 9to5Google (1) et TechCrunch (2) ont révélé que le géant mondial des moteurs de recherche a commencé, aux Etats-Unis seulement pour l’instant, à faire apparaître des résumés générés par l’IA dans le flux Discover (« Découvrir ») sur ses applications mobiles Android et iOS. Un porte-parole de Google a indiqué qu’il ne s’agissait pas d’un test mais bien d’un lancement.

Les « résumés d’IA » lancés sur Discover
Un des objectifs de Google est que ces « résumés d’IA » (AI Summaries) ou « résumés générés par l’IA » (AI-generated Summaries) permettent aux internautes de décider plus facilement des pages qu’ils souhaitent visiter. Au lieu d’un seul logo d’un média ou d’un seul nom de publication apparaissant dans le coin supérieur gauche de la carte dans Discover, s’affichent plusieurs icônes – comprenez différents logos de médias-sources (par exemple BBC, Le Monde, CNN, Reuters, etc.) – qui se chevauchent pour représenter le nombre d’articles utilisés par l’IA de Google pour générer le résumé – avec un avertissement de rigueur : « Generated with AI, which can make mistakes » (3). Tous les articles d’actualité ne sont pas concernés, la fonctionnalité IA n’étant pour l’instant opérationnelle que sur les sujets tendances de style de vie, de sport et de divertissement. Certaines news comprendront en outre un ensemble de puces sous le titre où seront regroupées des nouvelles similaires.
Avec ce mode IA dans Discover (que l’on retrouve dans les applis Google, dont le navigateur Chrome), à l’instar des AI Overviews dans le moteur de recherche Google, les utilisateurs n’ont plus vraiment besoin de visiter directement un site web pour obtenir des réponses à leurs requêtes. Le contenu issu de l’éditeur de presse est résumé pour eux automatiquement. Cette interface de type chatbot (suite) n’est pas l’apanage de Google, puisque d’autres applications d’IA telles que ChatGPT ou Perplexity en proposent de similaires. « L’IA permet à la recherche de faire ce qu’elle a toujours voulu faire : organiser l’information mondiale, même quand elle est fragmentée », a justifié Elizabeth Reid, alias Liz Reid (photo), vice-présidente de Google, responsable du moteur de recherche, lors du Google I/O 2025 en mai dernier (4). Déjà inquiétés par la baisse de leur trafic Internet depuis le lancement, lors de l’I/O 2024, des AI Overviews sur le moteur de recherche (5), les éditeurs de sites de presse en ligne redoutent une aggravation de leurs audiences avec l’arrivée des AI Summaries. Dans un article intitulé « L’IA est en train de tuer le Web » (6) et paru le 14 juillet 2025, l’hebdomadaire économique britannique The Economist cite des chiffres de Similarweb qui montrent que le trafic de recherche mondiale a chuté de 15 % d’une année sur l’autre en juin. Depuis le lancement des AI Overviews, cette société d’analyse du trafic a constaté que le nombre de recherches d’actualités sur le Web qui n’aboutissent à aucun clic vers les sites d’actualités est passé de 56 % à près de 69 % en mai 2025. Le trafic dit « organique » (7) a également diminué, passant de plus de 2,3 milliards de visites par mois à son apogée à la mi-2024 à moins de 1,7 milliard aujourd’hui. Et pire : cette baisse de trafic pour la presse est très loin d’être compensée par la hausse des renvois des ChatGPT, Perplexity et autres Grok vers les sites d’actualités.
Les médias et groupes de presse font monter la pression sur Google et Elizabeth Reid. Elle tente de rassurer les journaux en ligne. Lancé fin juin, Offerwall (8) arrive bien tardivement aux yeux des éditeurs dont le trafic a déjà chuté. Cet outil est censé leur permettre de générer des revenus au-delà des options plus dépendantes du trafic, comme les publicités. Avec Google Ad Manager, Offerwall leur propose différentes méthodes pour donner accès à leur contenu, comme les micropaiements ou la participation des utilisateurs à des sondages, à l’inscription à des newsletters, à des visionnages d’annonces, etc.

« Google-addiction » de la presse française
Pas encore concernée par les résumés de l’IA sur Discover, la presse française le sera dans les prochains mois. Pour l’heure, l’Alliance de la presse d’information générale (Apig) s’est félicitée le 16 juillet de voir les audiences de 68 titres membres augmenter : en juin 2025, le trafic a globalement augmenté de 6,5 % par rapport à juin 2024, et de 3,5 % par rapport à mai 2025. « La part de trafic issue de Google continue de croître (+15,1 %), notamment grâce au dynamisme de Google Discover, et représente désormais 69 % du trafic total. Cette évolution souligne l’importance croissante des moteurs de recherche dans l’accès à l’information », précise l’Apig (9). La presse française, après la presse américaine, pourrait s’en mordre les doigts. @

Charles de Laubier

AI Act et obligations : ce qui change le 2 août 2025 pour les nouvelles IA à usage général

Le 2 août 2025 marque une étape décisive dans l’application du règlement européen sur l’intelligence artificielle. Les fournisseurs qui mettent sur le marché – à partir de cette date – des modèles d’IA à usage général doivent d’emblée se conformer aux obligations de cet AI Act. Explications.

Seulement certains fournisseurs de systèmes d’IA à usage général – souvent désignés par le sigle GPAI pour General-Purpose AI – ouvrent à partir du 2 août 2025 le bal des obligations prévues par le règlement européen sur l’intelligence artificielle – appelé aussi AI Act (1) et adopté le 13 juin 2024. Car cette échéance-là ne concerne pas toutes les « GPAI », mais uniquement celles mises sur le marché à partir de ce 2 août 2025. Le Bureau de l’IA (AI Office), créé par le AI Act, rattaché à la Commission européenne (2) et dirigé par Lucilla Sioli (photo), joue un rôle central.

Nouveaux entrants GPAI pénalisés ?
Aussi curieux que cela puisse paraître, les ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic), Llama (Meta), Le Chat (Mistral AI) ou encore Perplexity (Perplexity AI) – pour n’en citer que quelques-uns parmi une bonne dizaine d’IA génératives déjà existantes et disponibles dans les Vingt-sept – ne sont pas encore concernés puisque leurs IA génératives respectives à usage général ont été lancées sur le marché avant le 2 août 2025. Pour celles-ci, elles bénéficient d’un délai de deux ans supplémentaires – soit d’ici le 2 août 2027 – pour se conformer aux obligations de l’AI Act.
Ainsi, contrairement aux nouvelles GPAI qui vont faire leur entrée sur le marché européen, les IA « historiques » bénéficient en quelque sorte d’un répit non négligeable. Pendant que les IA « nouvelles entrantes » doivent sans délai se soumettre aux obligations qui peuvent s’avérer lourdes : documentation technique, informations aux intégrateurs, résumé public des données d’entraînement, politique de respect du droit d’auteur, désignation d’un représentant officiel dans l’UE si le fournisseur est situé hors de l’UE, … Edition Multimédi@ se demande dans ces conditions si (suite) les ChatGPT, Gemini et autres Llama ne bénéficient pas d’un avantage compétitif sur les nouveaux entrants. Avec cet « avantage temporaire », d’ici le 2 août 2027 et non dès le 2 août 2025, les anciens GPAI peuvent continuer à opérer légalement sans être immédiatement conformes aux nouvelles exigences. Cela leur évite en outre des coûts immédiats de mise en conformité. Et ils bénéficient d’une position dominante ou d’une base de millions voire de dizaines de millions d’utilisateurs et qu’ils peuvent continuer à exploiter. Dans l’UE, ChatGPT en a plus de 40 millions, Gemini plus de 35 millions, Claude plus de 15 millions, Le Chat plus de 10 millions, ou encore Perplexity plus de 5 millions. Cette différenciation entre les acteurs de l’IA déjà en place et les nouveaux concurrents est-elle justifiée ? La distinction est fondée sur un principe de progressivité souvent utilisé en droit européen pour les technologies émergentes. Cela évite de pénaliser les pionniers qui ont lancé leurs modèles avant la publication du règlement. Cela permet aussi d’assurer la continuité d’usage des technologies en cours d’adoption par les citoyens, entreprises et administrations. Cela encourage enfin les éditeurs historiques à coopérer volontairement avec la Commission européenne, notamment via le code de bonnes pratiques GPAI publié le 10 juillet et déjà signé par OpenAI et Mistral AI – la liste sera publié le 1er août (3) – mais pas par Meta (4).
Ainsi, ce délai supplémentaire de deux ans ne serait pas une faveur, mais plutôt un équilibre entre faisabilité et équité réglementaire. Le véritable enjeu, à moyen terme, sera la vitesse à laquelle les modèles préexistants se mettront en conformité – et leur capacité à rester compétitifs face à de nouveaux entrants « 100 % AI Act-ready ». Car les nouveaux entrants GPAI, même s’ils doivent être immédiatement conformes, peuvent intégrer les obligations dès la conception, ce qui est plus simple que de reconfigurer un système existant. Les GPAI plus anciens s’exposent, eux, à des risques de réputation s’ils ne progressent pas assez vite vers la conformité : certains acheteurs publics ou entreprises européennes pourraient préférer les fournisseurs de GPAI déjà conformes, même nouveaux, pour éviter des risques juridiques.

Qu’est-ce qu’une IA « à usage général » ?
Tout est une question de définition pour faire le distinguo entre les IA qui sont « à usage général » et les IA qui ne le sont pas (5). « La notion de modèles d’IA à usage général devrait être clairement définie et distincte de la notion de systèmes d’IA afin de garantir la sécurité juridique, souligne l’AI Act. La définition devrait se fonder sur les principales caractéristiques fonctionnelles d’un modèle d’IA à usage général, en particulier la généralité et la capacité d’exécuter de manière compétente un large éventail de tâches distinctes. Ces modèles sont généralement entraînés avec de grandes quantités de données, au moyen de diverses méthodes, telles que l’apprentissage auto-supervisé, non supervisé ou par renforcement » (6). Et le règlement européen de préciser : « Les grands modèles d’IA génératifs sont un exemple typique d’un modèle d’IA à usage général, étant donné qu’ils permettent la production flexible de contenus, tels que du texte, de l’audio, des images ou de la vidéo, qui peuvent aisément s’adapter à un large éventail de tâches distinctes » (7). Le code de bonnes pratiques pour l’IA à usage général (General-Purpose AI Code of Practice), élaboré par des experts indépendants dans le cadre d’un processus multipartite, est présenté comme « un outil volontaire ».

Bonnes pratiques et lignes directrices
Ce code est censé aider les acteurs du marché à se conformer aux obligations de l’AI Act pour les modèles d’IA à usage général. Publié le 10 juillet (8) et en cours d’évaluation par l’AI Office, il sera approuvé par les Etats membres et la Commission européenne d’ici fin juillet ou début août. « En outre, le code sera complété par des lignes directrices, qui [devaient être] publiées également en juillet par la Commission européenne, sur les concepts-clés liés aux modèles d’IA à usage général », avait précisé Bruxelles. Le code de bonnes pratiques pour GPAI comporte trois chapitres : transparence, droit d’auteur, sûreté et sécurité :
Transparence. Ce chapitre (9) propose un modèle de formulaire de documentation convivial qui permet aux fournisseurs de documenter facilement les informations nécessaires pour se conformer à l’obligation imposée par l’AI Act aux fournisseurs de modèles, afin de garantir une transparence suffisante.
Droit d’auteur. Ce chapitre (10) sur le droit d’auteur offre aux fournisseurs des solutions pratiques pour satisfaire à l’obligation de la législation sur l’IA de mettre en place une politique de conformité avec la législation de l’UE sur le droit d’auteur. « Les chapitres sur la transparence et le droit d’auteur offrent à tous les fournisseurs de modèles d’IA à usage général un moyen de démontrer le respect de leurs obligations au titre de l’article 53 de la législation sur l’IA », indique la Commission européenne. En clair, ces fournisseurs de modèles d’IA à usage général doivent tenir à jour la documentation technique du modèle GPAI, y compris sur son processus d’entraînement et d’essai, ainsi que les résultats de son évaluation. Cette documentation, devant contenir « au minimum » les informations énoncées à l’annexe XI de l’AI Act (11), doit être à disposition « sur demande » de l’AI Office et des autorités nationales compétentes (par exemple en France, la Cnil, l’Arcom ou encore l’Anssi). Ces mêmes fournisseurs de GPAI doivent aussi tenir à jour, et mettre à disposition, des informations et de la documentation à l’intention des fournisseurs de systèmes d’IA qui envisagent d’intégrer le modèle d’IA à usage général dans leurs systèmes d’IA. Ces informations doivent leur permettre d’avoir une bonne compréhension des capacités et des limites du modèle d’IA à usage général et de se conformer aux obligations, tout en contenant « au minimum » les éléments énoncés à l’annexe XII de l’AI Act.
Ces mêmes fournisseurs de GPAI doivent en outre mettent en place une politique visant à se conformer au droit d’auteur et aux droits voisins, et notamment à identifier et à respecter, y compris avec des technologies, une réservation de droits exprimée conformément à la directive « Droit d’auteur et droits voisins dans le marché unique numérique » (12). Enfin ces mêmes fournisseurs de GPAI mettent à la disposition du public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à usage général, conformément à un modèle fourni par le Bureau de l’IA.
Sûreté et sécurité. Ce chapitre (13) sur la sûreté et la sécurité décrit des pratiques concrètes de pointe en matière de gestion des risques systémiques, c’est-à-dire des risques découlant des modèles les plus avancés. Les fournisseurs peuvent s’y référer pour se conformer aux obligations prévues par la législation sur l’IA pour les fournisseurs de modèles d’IA à usage général présentant un risque systémique. « Les chapitres sur la sûreté et la sécurité ne concernent que le petit nombre de fournisseurs des modèles les plus avancés, ceux qui sont soumis aux obligations de la législation sur l’IA pour les fournisseurs de modèles d’IA à usage général présentant un risque systémique en vertu de l’article 55 de la législation sur l’IA », précise la Commission européenne. En clair, les fournisseurs de modèles d’IA à usage général présentant un « risque systémique » – ayant des capacités à fort impact, ou lorsque la quantité cumulée de calcul utilisée pour son entraînement, mesurée en opérations en virgule flottante, est supérieure à 1025 – doivent : effectuer une évaluation des modèles sur la base de protocoles et d’outils normalisés reflétant l’état de la technique (14) ; évaluer et atténuer les risques systémiques éventuels au niveau de l’UE, y compris leurs origines ; suivre, documenter et communiquer sans retard injustifié au Bureau de l’IA – et, le cas échéant, aux autorités nationales compétentes – les informations pertinentes concernant les incidents graves ainsi que les éventuelles mesures correctives pour y remédier ; garantir un niveau approprié de protection en matière de cybersécurité pour le modèle GPAI présentant un risque systémique et l’infrastructure physique du modèle.

Trois types de sanctions en cas d’infraction
En cas de violation des interdictions strictes comme la manipulation cognitive ou le scoring social, le fournisseur de modèle GPAI s’expose à une amende pouvant aller jusqu’à 35 millions d’euros (ou jusqu’à 7 % de son chiffre d’affaires annuel mondial total). En cas de non-respect des obligations générales (transparence, documentation, droit d’auteur, …), 15 millions d’euros (ou jusqu’à 3 % de son chiffre d’affaires). Et en cas d’informations trompeuses ou incomplètes fournies aux autorités : 7,5 millions d’euros (ou jusqu’à 1 % de son chiffre d’affaires). @

Charles de Laubier

Quand l’Etat joue les VRP de Mistral pour faire de la licorne française de l’IA un « OpenAI européen »

Le potentiel « champion européen » de l’IA générative, Mistral AI, a beau être valorisé près de 6 milliards d’euros depuis l’an dernier, son chiffre d’affaires 2024 est 200 fois inférieur. Pour mettre les bouchées doubles, la licorne française peut compter sur le chef de l’Etat Emmanuel Macron qui joue les VRP.

La licorne française Mistral AI, aux ambitions aussi grandes que sa valorisation de 5,8 milliards d’euros – atteinte il y a un an maintenant, à la faveur de sa dernière levée de fonds de 600 millions d’euros bouclée en juin 2024 –, a un besoin urgent de financements supplémentaires. Son PDG cofondateur Arthur Mensch (photo) l’avait confirmé à l’agence Bloomberg en février, notamment pour financer un centre de données qu’il prévoit de créer en France. « Bien sûr, en tant que start-up, on vous demande aussi de lever plus de fonds. C’est certainement un sujet qui nous préoccupe », avait-il confié (1). Le jeune patron (32 ans) avait annoncé ce projet de data center au journal de 20h de TF1, le 9 février (2). De plusieurs milliers de mètres carrés, il sera construit dans l’Essonne (département du sud de Paris), sur le plateau de Saclay, pour un investissement de « plusieurs milliards d’euros ». Si le calendrier de construction et d’ouverture reste à préciser, ce centre de données va permettre à « la pépite française » d’entraîner sur le sol français – au nom de la « souveraineté numérique » de la France – ses grands modèles de langage pour ses IA génératives. Mais cela suppose donc une prochaine levée de fonds pour Mistral AI, qui n’a généré en 2024 que 30 millions d’euros de chiffre d’affaires, si l’on en croit le site Sifted.eu du Financial Times spécialisé dans les start-up (3). C’est à des années-lumière des 10 milliards de dollars annualisés que l’américain OpenAI (dont ChatGPT) a atteint en juin 2025 (4).

Prochaine levée de fonds indispensable
Comme la licorne n’est, par définition, pas cotée en Bourse, elle ne publie pas ses comptes et ne divulgue pas non plus ses résultats financiers. Contactée par Edition Multimédi@, la direction de Mistral AI n’a pas souhaité nous indiquer ni ses revenus ni ses prévisions. Le 7 mai dernier, à l’occasion du lancement de « Le Chat Enterprise » (assistant conversationnel dont la version grand public « Le Chat » a été lancée en février), Arthur Mensch s’est voulu rassurant quant à la (suite) monétisation de Mistral AI que tout le monde attend au tournant : « Au cours des 100 derniers jours, nous avons triplé notre activité, en particulier en Europe et hors des Etats-Unis. Nous avons également connu une croissance assez rapide aux Etats-Unis », a-t-il indiqué, selon ses propos rapportés par Reuters (5), mais sans qu’il ne précise le montant. Si l’on part des 30 millions d’euros de l’an dernier, le chiffre d’affaires généré entre janvier et mai 2025 atteindrait donc 90 millions d’euros. En conséquence, les 100 millions devraient être allègrement franchis dans le courant de cette année.

Emmanuel Macron, VRP-en-chef de Mistral
Cette envolée sera-t-elle suffisante pour que Mistral AI devienne le « Mistral gagnant » dont la France rêve jusqu’au plus haut sommet de l’Etat ? Le « joyau du secteur » a en tout cas trouvé en Emmanuel Macron (photo ci-contre) le VRP idéal. Le président de la République en a fait encore la promotion, cette fois le 11 juin lors du salon VivaTech à Paris : « Le partenariat annoncé aujourd’hui entre Nvidia et Mistral AI est à la fois unique et historique ! », a lancé le chef de l’Etat en présence d’Arthur Mensch (6), alors que la licorne française venait d’annoncer un projet de cloud IA fonctionnant sur des puces de l’américain Nvidia. La précédente fois que le locataire de l’Elysée a fait la publicité de son chouchou dans l’IA, ce fut le 9 février dernier devant des millions de téléspectateurs sur France 2, juste après le journal de 20 heures et en direct du Grand-Palais (7), soit trois jours après que Mistral eut lancé son IA conversationnelle « Le Chat ». « Téléchargez “Le Chat” qui est fait par Mistral, plutôt que ChatGPT d’OpenAI et d’autres, a déclaré Emmanuel Macron. Quand vous le téléchargez, vous aidez un champion européen, un champion français ; vous créez des emplois en France et vous allez les rendre plus fort. C’est ça la souveraineté : il faut du patriotisme économique ! ». C’était à la veille de l’ouverture du Sommet de l’IA organisé à Paris par la présidence de la République (8).
Deux jours avant son interview fleuve sur France 2, Emmanuel Macron s’était même fendu d’un « Vive Le Chat ! » (9) dans un post sur X, au lendemain du lancement de l’assistant conversationnel (10) de la licorne française. La direction de Mistral AI ne pouvait pas trouver mieux comme super-agent commercial. « Par exemple, a indiqué le président de la République sur France 2, l’Agence France-Presse [AFP, ndlr] signe un partenariat historique avec Mistral » (11). Et le super-VRP de l’Elysée d’enfoncer le clou : « Demain, on a Peugeot, Citroën [deux marques du groupe franco-italien Stellantis (12), ndlr], nos grands constructeurs français, européens, mondiaux de voitures qui vont dire : nous, nous faisons un partenariat avec Mistral. Ben, c’est formidable […] », s’est enthousiasmé Emmanuel Macron lors de cette séquence quasipromotionnelle – comme sponsorisée par Mistral AI… Et que dites-vous aux concurrents ChatGPT (OpenAI), Claude (Anthropic) ou au chinois DeepSeek (lire p. 3) ? Réponse du chef de l’Etat sur France 2 : « Patriotisme européen, patriotisme français ! », et en s’énervant contre les industriels français qui, à ses yeux, ne sont pas assez « patriotes ». Le chef de l’Etat aurait pu aussi donner en exemple l’organisme public France Travail (ex-Pôle emploi), sous tutelle du ministère du Travail, qui a annoncé début février « un partenariat stratégique » avec Mistral AI. Jamais une start-up française n’a bénéficié d’une telle publicité provenant des plus hautes sphères de l’Etat.
Tel un VRP-en-second, Nicolas Dufourcq, directeur général de Bpifrance, bras armé financier de l’Etat français (13), y va aussi de ses recommandations : « Tout le monde doit travailler avec Mistral », a-t-il insisté le 10 février lors d’une intervention sur BFM Business (14), tout en assurant que Bpifrance – client de la première heure – en est « extrêmement content ». Pourquoi acheter chez Mistral AI plutôt que chez un concurrent ? Là encore, parce ce que, toujours selon le haut fonctionnaire public, « Mistral est la chance européenne [et] il n’y en a qu’une ». Pour autant, le grand commis de l’Etat a prévenu : « Le sujet, ce sont les revenus. Il faut que Mistral fasse 500 millions de chiffre d’affaires en 2025. Il faut que ces entreprises fassent du revenu le plus vite possible pour sortir du “piège du bonsaï” ». Le « piège du bonsaï » est une métaphore utilisée pour décrire la difficulté qu’ont certaines start-up européennes à croître rapidement et à atteindre une taille critique.
L’aide de l’Etat ne s’arrête pas là pour Mistral AI. La « pépite » française a aussi le soutien d’un ancien secrétaire d’Etat au Numérique (mars 2019-16 mai 2022) en la personne de Cédric O, lequel est non seulement conseiller-cofondateur de Mistral AI mais aussi, depuis septembre 2023, membre du comité de l’IA qui dépend du Premier ministre. Cédric O avait investi cette année-là 176,10 euros pour acquérir 17.610 actions de la start-up via son cabinet de conseil Nopeunteo (15). Sa participation est valorisée aujourd’hui plus de 70 millions d’euros.

Mistral AI n’a pas le droit à l’échec
Forte de tous ces soutiens publics, la licorne Mistral AI doit maintenant faire du chiffre d’affaires – avec ses produits IA (Le Chat, Le Chat Enterprise, Mistral Code, Devstral, Codestral, et le tout dernier – Magistral – lancé le 10 juin) – à la hauteur non seulement de ses ambitions mais surtout des attentes de la France. La pression sur ses trois dirigeants cofondateurs – Arthur Mensch (ex-Google DeepMind), Guillaume Lample et Timothée Lacroix – n’a jamais été aussi forte, pour une start-up qui a seulement deux ans et deux mois d’existence. @

Charles de Laubier

Le site Deepseek-fr.ai, cheval de Troie du chinois

En fait. Le 9 juin, le site francophone DeepSeek-fr.ai – qui se présente anonymement comme « une équipe indépendante passionnée par l’IA » – a publié sur son blog : « Intégrer DeepSeek dans vos applications via son API ». Et ce, après que DeepSeek eut sorti fin mai la version R1-0528 de son modèle IA.

En clair. « Intégrer DeepSeek dans vos applications via son API : guide complet pour débutants », écrit le 9 juin l’auteur « DeepSeek » sur le blog du site web francophone Deepseekfr.ai, dont l’« équipe indépendante passionnée par l’intelligence artificielle et l’innovation technologique » (ainsi se présente-telle) cultive l’anonymat. Il affirme que « [l]a popularité croissante [de DeepSeek] s’explique par la puissance de ses modèles (DeepSeek V3, DeepSeek R1, etc.) et par sa compatibilité avec l’API d’OpenAI, ce qui facilite grandement son adoption par les développeurs » (1). Le chinois DeepSeek Artificial Intelligence Co., basé à Hangzhou, dans la province du Zhejiang (côte orientale de l’Empire du Milieu), cherche à se déployer partout, y compris en France d’où s’est lancé « Le Chat » de la start-up française Mistral AI (lire en Une).
Ni les mentions légales ni le Whois ne nous renseignent sur l’identité de l’éditeur de Deepseek-fr.ai, dont le nom de domaine a été enregistré le 24 février 2025 par la société islandaise Withheld for Privacy (basée à Reykjavik, donc en dehors de l’Union européenne) pour que son identité soit (suite) strictement confidentielle. Tant de discrétion laisse supposer que Deepseek-fr.ai serait bien le cheval de Troie francophone du chinois DeepSeek. Contacté à info@deepseek-fr.ai par Edition Multimédi@, l’éditeur n’a pas répondu.
Après la sortie de son modèle low cost V3 en fin d’année dernière (2) qui avait fait trembler les Big Tech américaines de l’IA comme OpenAI à l’origine de ChatGPT ou Nvidia le numéro un des puces IA, suivi de son modèle plus poussé R1 lancé en janvier 2025 (3), la start-up de Hangzhou fait encore plus fort avec la version R1-0528 dévoilé le 29 mai (4). « Ses performances globales se rapprochent désormais de celles des modèles phares, tels que l’o3 [d’OpenAI] et le Gemini 2.5 Pro [de Google]. Au-delà de ses capacités de raisonnement améliorées, cette version offre également un taux d’hallucination réduit […] », démontre le chinois, benchmark à l’appui. Le nouveau R1 dépasse en outre largement Qwen, version Qwen3, l’IA du géant chinois Alibaba, autre grand rival d’OpenAI, d’Anthropic et de Google Gemini. Là aussi, une API compatible OpenAI est fournie. Pour se rendre compte de la puissance de la R1-0528, il suffit d’activer le bouton « DeepThink » (exploration approfondie) sur Chat.deepseek.com. @

Comment les IA génératives doivent assurer la rémunération des auteurs et des ayants droit

En mai, l’US Copyright Office aux Etats-Unis, l’EUIPO en Europe et le CSPLA en France ont chacun publié un rapport où est abordée la manière de rémunérer les auteurs lorsque leur création est utilisée par les IA génératives : licences légales obligatoire, gestion collective, place de marché, …

Les ChatGPT, Claude, Perplexity, Meta Ai et bien d’autres intelligences génératives vont devoir mettre la main au portefeuille pour rémunérer équitablement les auteurs et les créateurs lorsqu’elles utilisent leurs œuvres. Trois organismes ont chacun publié leur rapport dans le courant du mois de mai 2025 : l’US Copyright Office (USCO) aux Etats-Unis le 9 mai, l’Office de l’Union européenne pour la propriété intellectuelle (EUIPO) en Europe le 12 mai et le Conseil supérieur de la propriété littéraire et artistique (CSPLA) en France le 16 mai.

Du fair use aux accords de licences
La question commune à ces trois rapports est de savoir comment les IA génératives doivent rémunérer les ayants droit. L’USCO, rattaché au Congrès américain, estime dans les conclusions de son rapport – intitulé « Copyright and Artificial Intelligence, Part 3: Generative AI Training » (1) – que la doctrine du fair use propre aux Etats-Unis – qui consacre un « usage raisonnable » sans devoir de rétribution ni autorisation des ayants droit – « peut jouer un rôle ». Mais cette « tolérance » a ses limites. « L’exploitation commerciale de vastes corpus d’œuvres protégées dans le but de générer du contenu expressif susceptible d’entrer en concurrence sur les marchés existants, notamment lorsqu’elle repose sur un accès illégal aux œuvres, dépasse les limites du fair use », considère le Copyright Office américain.
Et de constater, sans pour autant donner d’exemples chiffrés, que « des accords de licence pour l’entraînement de l’IA – individuels comme collectifs – sont en train d’émerger rapidement dans certains secteurs, bien que leur disponibilité demeure encore inégale ». Pour autant, il estime (suite) qu’« une intervention gouvernementale serait prématurée à ce stade », et qu’il faut « laisser les marchés de la licence continuer à se développer ». L’USCO rappelle qu’il est historiquement montré prudent à l’égard des licences légales obligatoires (compulsory licenses) qui, selon lui, doivent rester exceptionnelles et mises en œuvre qu’en cas de défaillance manifeste du marché. Reste que le rapport du Copyright Office encourageant des accords de licence individuels ou collectifs, n’a manifestement pas plus à Donald Trump puisqu’il a limogé – le lendemain de la publication de ce rapport (2) – sa présidente Shira Perlmutter (photo), en poste depuis octobre 2020. Alors que les procès se sont multipliés à l’encontre des sociétés comme OpenAI (ChatGPT), laquelle appelle avec xAI (Elon Musk, « l’ami » de Trump) à supprimer toute loi sur la propriété intellectuelle. De son côté, l’Office de l’Union européenne pour la propriété intellectuelle (EUIPO) – agence décentralisée du Conseil de l’UE – reconnaît l’importance des organismes de gestion collective dans la facilitation des licences entre les titulaires de droits et les développeurs d’IA. Cependant, il ne détaille pas de mécanismes spécifiques de rémunération ou de redistribution des revenus. Dans les conclusions de son rapport intitulé « The Development of Generative Artificial Intelligence from a Copyright Perspective » (3), l’EUIPO constate que « la plupart des développeurs de GenAI (4) s’approvisionnent en contenu accessible en ligne sans autorisation préalable des titulaires de droits d’auteur, bien qu’un marché de la licence directe commence à émerger lentement ».
Le rapport européen estime que « les organismes de gestion collective [des droits d’auteurs, OGC en français ou CMO (5) en anglais, ndlr] pourraient gérer des licences collectives étendues pour les usages liés à l’entraînement des modèles d’IA, incluant des œuvres de titulaires non-membres, sauf en cas d’opposition explicite ». Ces organismes, tels que la Gema en Allemagne ou la Sacem en France, pourraient, toujours selon l’EUIPO, garantir « une distribution transparente et équitable des revenus générés par les accords de licence avec les développeurs d’IA ». Certains OGC/CMO, comme PRS for Music au Royaume-Uni, participent d’ailleurs à l’initiative RightsAndAI où les titulaires de droits gèrent leur « réserves de droits » vis-à-vis des développeurs d’IA.

Rémunération proportionnelle versus forfaitaire
En France, dans son rapport « Rémunération des contenus culturels utilisés par les systèmes d’IA » (6) qui sera examiné le 23 juin, le CSPLA suggère – au législateur – la création d’une « place de marché » jouant le « rôle d’accélérateur » des négociations de licence et de rémunération. Celle-ci devrait être proportionnelle plutôt que forfaitaire, selon ce rapport, et en fonction du chiffre d’affaires réalisé par l’exploitant de l’œuvre. Pour le tarif des licences, la méthode « pay to train » pratiquée par l’audiovisuel et la photo est utilisée par OpenAI ou Google. La CSPLA appelle à « consacr[er] la gestion individuelle adossée, le cas échéant, à une gestion collective volontaire », afin de bien préserver le « monopole » de l’auteur sur son œuvre. @

Charles de Laubier