AI Act et obligations : ce qui change le 2 août 2025 pour les nouvelles IA à usage général

Le 2 août 2025 marque une étape décisive dans l’application du règlement européen sur l’intelligence artificielle. Les fournisseurs qui mettent sur le marché – à partir de cette date – des modèles d’IA à usage général doivent d’emblée se conformer aux obligations de cet AI Act. Explications.

Seulement certains fournisseurs de systèmes d’IA à usage général – souvent désignés par le sigle GPAI pour General-Purpose AI – ouvrent à partir du 2 août 2025 le bal des obligations prévues par le règlement européen sur l’intelligence artificielle – appelé aussi AI Act (1) et adopté le 13 juin 2024. Car cette échéance-là ne concerne pas toutes les « GPAI », mais uniquement celles mises sur le marché à partir de ce 2 août 2025. Le Bureau de l’IA (AI Office), créé par le AI Act, rattaché à la Commission européenne (2) et dirigé par Lucilla Sioli (photo), joue un rôle central.

Nouveaux entrants GPAI pénalisés ?
Aussi curieux que cela puisse paraître, les ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic), Llama (Meta), Le Chat (Mistral AI) ou encore Perplexity (Perplexity AI) – pour n’en citer que quelques-uns parmi une bonne dizaine d’IA génératives déjà existantes et disponibles dans les Vingt-sept – ne sont pas encore concernés puisque leurs IA génératives respectives à usage général ont été lancées sur le marché avant le 2 août 2025. Pour celles-ci, elles bénéficient d’un délai de deux ans supplémentaires – soit d’ici le 2 août 2027 – pour se conformer aux obligations de l’AI Act.
Ainsi, contrairement aux nouvelles GPAI qui vont faire leur entrée sur le marché européen, les IA « historiques » bénéficient en quelque sorte d’un répit non négligeable. Pendant que les IA « nouvelles entrantes » doivent sans délai se soumettre aux obligations qui peuvent s’avérer lourdes : documentation technique, informations aux intégrateurs, résumé public des données d’entraînement, politique de respect du droit d’auteur, désignation d’un représentant officiel dans l’UE si le fournisseur est situé hors de l’UE, … Edition Multimédi@ se demande dans ces conditions si (suite) les ChatGPT, Gemini et autres Llama ne bénéficient pas d’un avantage compétitif sur les nouveaux entrants. Avec cet « avantage temporaire », d’ici le 2 août 2027 et non dès le 2 août 2025, les anciens GPAI peuvent continuer à opérer légalement sans être immédiatement conformes aux nouvelles exigences. Cela leur évite en outre des coûts immédiats de mise en conformité. Et ils bénéficient d’une position dominante ou d’une base de millions voire de dizaines de millions d’utilisateurs et qu’ils peuvent continuer à exploiter. Dans l’UE, ChatGPT en a plus de 40 millions, Gemini plus de 35 millions, Claude plus de 15 millions, Le Chat plus de 10 millions, ou encore Perplexity plus de 5 millions. Cette différenciation entre les acteurs de l’IA déjà en place et les nouveaux concurrents est-elle justifiée ? La distinction est fondée sur un principe de progressivité souvent utilisé en droit européen pour les technologies émergentes. Cela évite de pénaliser les pionniers qui ont lancé leurs modèles avant la publication du règlement. Cela permet aussi d’assurer la continuité d’usage des technologies en cours d’adoption par les citoyens, entreprises et administrations. Cela encourage enfin les éditeurs historiques à coopérer volontairement avec la Commission européenne, notamment via le code de bonnes pratiques GPAI publié le 10 juillet et déjà signé par OpenAI et Mistral AI – la liste sera publié le 1er août (3) – mais pas par Meta (4).
Ainsi, ce délai supplémentaire de deux ans ne serait pas une faveur, mais plutôt un équilibre entre faisabilité et équité réglementaire. Le véritable enjeu, à moyen terme, sera la vitesse à laquelle les modèles préexistants se mettront en conformité – et leur capacité à rester compétitifs face à de nouveaux entrants « 100 % AI Act-ready ». Car les nouveaux entrants GPAI, même s’ils doivent être immédiatement conformes, peuvent intégrer les obligations dès la conception, ce qui est plus simple que de reconfigurer un système existant. Les GPAI plus anciens s’exposent, eux, à des risques de réputation s’ils ne progressent pas assez vite vers la conformité : certains acheteurs publics ou entreprises européennes pourraient préférer les fournisseurs de GPAI déjà conformes, même nouveaux, pour éviter des risques juridiques.

Qu’est-ce qu’une IA « à usage général » ?
Tout est une question de définition pour faire le distinguo entre les IA qui sont « à usage général » et les IA qui ne le sont pas (5). « La notion de modèles d’IA à usage général devrait être clairement définie et distincte de la notion de systèmes d’IA afin de garantir la sécurité juridique, souligne l’AI Act. La définition devrait se fonder sur les principales caractéristiques fonctionnelles d’un modèle d’IA à usage général, en particulier la généralité et la capacité d’exécuter de manière compétente un large éventail de tâches distinctes. Ces modèles sont généralement entraînés avec de grandes quantités de données, au moyen de diverses méthodes, telles que l’apprentissage auto-supervisé, non supervisé ou par renforcement » (6). Et le règlement européen de préciser : « Les grands modèles d’IA génératifs sont un exemple typique d’un modèle d’IA à usage général, étant donné qu’ils permettent la production flexible de contenus, tels que du texte, de l’audio, des images ou de la vidéo, qui peuvent aisément s’adapter à un large éventail de tâches distinctes » (7). Le code de bonnes pratiques pour l’IA à usage général (General-Purpose AI Code of Practice), élaboré par des experts indépendants dans le cadre d’un processus multipartite, est présenté comme « un outil volontaire ».

Bonnes pratiques et lignes directrices
Ce code est censé aider les acteurs du marché à se conformer aux obligations de l’AI Act pour les modèles d’IA à usage général. Publié le 10 juillet (8) et en cours d’évaluation par l’AI Office, il sera approuvé par les Etats membres et la Commission européenne d’ici fin juillet ou début août. « En outre, le code sera complété par des lignes directrices, qui [devaient être] publiées également en juillet par la Commission européenne, sur les concepts-clés liés aux modèles d’IA à usage général », avait précisé Bruxelles. Le code de bonnes pratiques pour GPAI comporte trois chapitres : transparence, droit d’auteur, sûreté et sécurité :
Transparence. Ce chapitre (9) propose un modèle de formulaire de documentation convivial qui permet aux fournisseurs de documenter facilement les informations nécessaires pour se conformer à l’obligation imposée par l’AI Act aux fournisseurs de modèles, afin de garantir une transparence suffisante.
Droit d’auteur. Ce chapitre (10) sur le droit d’auteur offre aux fournisseurs des solutions pratiques pour satisfaire à l’obligation de la législation sur l’IA de mettre en place une politique de conformité avec la législation de l’UE sur le droit d’auteur. « Les chapitres sur la transparence et le droit d’auteur offrent à tous les fournisseurs de modèles d’IA à usage général un moyen de démontrer le respect de leurs obligations au titre de l’article 53 de la législation sur l’IA », indique la Commission européenne. En clair, ces fournisseurs de modèles d’IA à usage général doivent tenir à jour la documentation technique du modèle GPAI, y compris sur son processus d’entraînement et d’essai, ainsi que les résultats de son évaluation. Cette documentation, devant contenir « au minimum » les informations énoncées à l’annexe XI de l’AI Act (11), doit être à disposition « sur demande » de l’AI Office et des autorités nationales compétentes (par exemple en France, la Cnil, l’Arcom ou encore l’Anssi). Ces mêmes fournisseurs de GPAI doivent aussi tenir à jour, et mettre à disposition, des informations et de la documentation à l’intention des fournisseurs de systèmes d’IA qui envisagent d’intégrer le modèle d’IA à usage général dans leurs systèmes d’IA. Ces informations doivent leur permettre d’avoir une bonne compréhension des capacités et des limites du modèle d’IA à usage général et de se conformer aux obligations, tout en contenant « au minimum » les éléments énoncés à l’annexe XII de l’AI Act.
Ces mêmes fournisseurs de GPAI doivent en outre mettent en place une politique visant à se conformer au droit d’auteur et aux droits voisins, et notamment à identifier et à respecter, y compris avec des technologies, une réservation de droits exprimée conformément à la directive « Droit d’auteur et droits voisins dans le marché unique numérique » (12). Enfin ces mêmes fournisseurs de GPAI mettent à la disposition du public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à usage général, conformément à un modèle fourni par le Bureau de l’IA.
Sûreté et sécurité. Ce chapitre (13) sur la sûreté et la sécurité décrit des pratiques concrètes de pointe en matière de gestion des risques systémiques, c’est-à-dire des risques découlant des modèles les plus avancés. Les fournisseurs peuvent s’y référer pour se conformer aux obligations prévues par la législation sur l’IA pour les fournisseurs de modèles d’IA à usage général présentant un risque systémique. « Les chapitres sur la sûreté et la sécurité ne concernent que le petit nombre de fournisseurs des modèles les plus avancés, ceux qui sont soumis aux obligations de la législation sur l’IA pour les fournisseurs de modèles d’IA à usage général présentant un risque systémique en vertu de l’article 55 de la législation sur l’IA », précise la Commission européenne. En clair, les fournisseurs de modèles d’IA à usage général présentant un « risque systémique » – ayant des capacités à fort impact, ou lorsque la quantité cumulée de calcul utilisée pour son entraînement, mesurée en opérations en virgule flottante, est supérieure à 1025 – doivent : effectuer une évaluation des modèles sur la base de protocoles et d’outils normalisés reflétant l’état de la technique (14) ; évaluer et atténuer les risques systémiques éventuels au niveau de l’UE, y compris leurs origines ; suivre, documenter et communiquer sans retard injustifié au Bureau de l’IA – et, le cas échéant, aux autorités nationales compétentes – les informations pertinentes concernant les incidents graves ainsi que les éventuelles mesures correctives pour y remédier ; garantir un niveau approprié de protection en matière de cybersécurité pour le modèle GPAI présentant un risque systémique et l’infrastructure physique du modèle.

Trois types de sanctions en cas d’infraction
En cas de violation des interdictions strictes comme la manipulation cognitive ou le scoring social, le fournisseur de modèle GPAI s’expose à une amende pouvant aller jusqu’à 35 millions d’euros (ou jusqu’à 7 % de son chiffre d’affaires annuel mondial total). En cas de non-respect des obligations générales (transparence, documentation, droit d’auteur, …), 15 millions d’euros (ou jusqu’à 3 % de son chiffre d’affaires). Et en cas d’informations trompeuses ou incomplètes fournies aux autorités : 7,5 millions d’euros (ou jusqu’à 1 % de son chiffre d’affaires). @

Charles de Laubier

Un « Cloud & AI Act » européen proposé fin 2025

En fait. Le 3 juillet, lors des 19e Assises du Très haut débit à Paris, la présidente de l’Arcep a appelé la Commission européenne à une régulation ex-ante du cloud et de l’IA « s’inspirant des succès de la régulation des télécoms en France ». Bruxelles prépare un « Cloud & AI Act » pour le 4e trimestre 2025.

En clair. La Commission européenne va proposer au quatrième trimestre 2025 un règlement sur « le développement de l’informatique en nuage et de l’IA ». Le Parlement européen, destinataire de cette proposition législative, pourrait débattre de ce texte dès le premier trimestre 2026.
Ce Cloud & AI Development Act (« CAIDA ») fait partie des priorités numériques de « la boussole pour la compétitivité » sur laquelle la Commission « von der Leyen II » s’est engagée en janvier 2025 (1). Ce projet est également consigné dans la lettre de mission adressée en septembre 2024 (2) à la vice-présidente exécutive de la Commission européenne, Henna Virkkunen. Pour mener ses travaux législatifs sur le futur CAIDA, la Commission européenne va s’appuyer sur les réponses à son appel à contributions qui s’est achevé le 3 juillet. « Le processus de construction [des centres de données] exige des capitaux importants, créant ainsi des barrières à l’entrée pour de nouveaux acteurs. […] Les problèmes recensés [difficultés d’accès aux ressources naturelles (énergie, eau, terres) et d’obtention des composants technologiques et des capitaux] ont (suite) les mêmes causes sous-jacentes dans l’ensemble de l’UE et nécessitent par conséquent une approche coordonnée et harmonisée », justifie l’exécutif européen dans son document soumis à consultation (3). Pour faire de l’Europe un « continent de l’IA », Bruxelles vise à « tripler les capacités des centres de données de l’UE dans les cinq à sept années à venir ». Mais la Commission européenne a sondé les parties prenantes pour savoir s’il faut des mesures « non législatives », ou bien une règlementation « souple » sinon « contraignante », voire « complète » avec une « agence distincte indépendante » chargée de l’application cohérente des mesures.
En France, l’Arcep appelle à une régulation ex-ante (les règles en général contraignantes étant fixées dès le départ) du cloud et de l’IA « à l’échelle européenne, pro-investissement, [et] s’inspirant des succès de la régulation des télécoms en France [suivi des investissements, transparence sur les conditions d’accès aux infrastructures, ouverture aux acteurs émergents] » (4). Et sa présidente, Laure de La Raudière, de mettre en garde le 3 juillet – aux Assises du très haut débit (5) – contre « une petite musique, chantant les bénéfices supposés de la dérégulation, pour favoriser les investissements ». @

Entraînement des IA avec les données personnelles de Facebook et d’Instagram : validation européenne ?

Une décision rendue le 23 mai 2025 par un tribunal de Cologne (OLG Köln), couplée aux échanges préalables avec la « Cnil » irlandaise (DPC) et à la mise en place des mesures proposées par cette dernière, entérine la possibilité pour Meta de lancer son projet d’entraînement des modèles d’IA.

Par Sandra Tubert, avocate associée, et Miguel Piveteau, élève avocat, Algo Avocats

Le groupe Meta Platforms utilise depuis le 27 mai 2025 les données partagées publiquement par les utilisateurs majeurs et les comptes institutionnels sur ses services Facebook et Instagram (1) : publications, photos, vidéos ou encore commentaires (exceptés les messages échangés entre utilisateurs et contenus privés), mais aussi les interactions des utilisateurs avec ses systèmes d’intelligence artificielle (IA) pour entraîner ses grands modèles de langage (LLM) comme Llama.

Décision d’un tribunal de Cologne
A la différence de X (ex-Twitter) (2), Meta a engagé un dialogue constructif avec l’autorité irlandaise de protection des données (DPC). En effet, avant que le grand public ne découvre ce nouveau projet fin mai 2024, Meta avait informé la DPC, au mois de mars 2024, de son souhait d’utiliser les contenus publics de ses utilisateurs européens de Facebook et d’Instagram pour l’entraînement de ses modèles d’IA (3). Meta avait finalement suspendu le projet, le 14 juin 2024 (4), après le dépôt de plusieurs plaintes par l’organisation autrichienne Nyob auprès de onze autorités de contrôle européennes (5) et d’échanges avec la DPC (6), laquelle avait émis des réserves concernant notamment (suite) la base légale et la transparence d’un tel traitement. Le 4 septembre 2024, la DPC avait alors demandé au Comité européen sur la protection des données (EDPB) de rendre un avis sur l’utilisation de données personnelles pour le développement et le déploiement de modèles d’IA (7). Tenant compte de cet avis du 17 décembre (8), Meta a réévalué certaines modalités de son projet (notamment le renforcement des mesures de filtrage pour réduire le risque que des données personnelles soient mémorisées par les modèles d’IA lors de la phase d’entraînement) et a fourni à la DPC une documentation actualisée dans l’optique de débuter l’entraînement de ses modèles d’IA le 27 mai 2025.
Après avoir examiné les propositions de Meta et recueilli les commentaires des autres autorités de contrôle européennes, la DPC a formulé un certain nombre de recommandations qui ont été appliquées par Meta, parmi lesquelles la simplification des formulaires d’opposition au traitement et leur accessibilité pendant plus d’un an, la fourniture d’une information claire sur les moyens permettant aux utilisateurs de contrôler les données utilisées (paramétrage des contenus en mode privé), et un délai plus long entre ces informations et le lancement du projet pour leur permettre réellement de s’y opposer (9). L’annonce de ce projet a suscité une levée de boucliers par plusieurs associations, telles que UFC-Que Choisir (10) en France ou Noyb en Autriche. Cette dernière a notamment adressé à l’entreprise une mise en demeure (11), se réservant la possibilité d’intenter une action de groupe au civil. En parallèle, une association de consommateurs allemande (VZNRW) a saisi en référé le tribunal régional supérieur de Cologne – Oberlandesgericht Köln (OLG Köln) – afin qu’il soit interdit à Meta de traiter les données personnelles partagées publiquement par les utilisateurs sur les services Facebook et Instagram afin de développer et améliorer ses IA. Dans une décision (12) rendue le 23 mai 2025, le tribunal rejette la demande de l’association (après un examen qu’il qualifie de sommaire de l’affaire, mais qui est pourtant très étayé), et ne remet pas en cause la légalité du projet de Meta. En effet, en s’appuyant sur une argumentation documentée, conforme à l’avis de l’EDPB et enrichie de l’avis circonstancié des autorités de contrôle des Länder du Bade-Wurtemberg et d’Hambourg, il a écarté, un à un, les griefs soulevés tenant à : la violation du Digital Markets Act (DMA) ; l’impossibilité pour Meta de fonder le traitement sur l’intérêt légitime ; et l’absence d’exception autorisant le traitement de données sensibles. L’OLG Köln a d’abord estimé que la constitution d’une base de données d’entraînement au moyen des données publiques issues des services Facebook et Instagram ne violait pas le DMA (13) – Meta étant désigné comme contrôleur d’accès par la Commission européenne pour ces services essentiels.

Gatekeeper : pas de violation du DMA
Le DMA interdit à tout contrôleur d’accès de combiner, sans consentement préalable de l’utilisateur, les données personnelles provenant d’un service essentiel, qu’il propose aux utilisateurs, avec celles provenant d’un autre service. Selon le tribunal, le fait que Meta introduise des données partiellement désidentifiées et fragmentées provenant de deux services de plateforme dans un ensemble non structuré de données d’entraînement ne constitue pas une combinaison de données, au sens du DMA, en l’absence de lien et mise en relation des données personnelles d’un utilisateur provenant d’un service à celles du même utilisateur provenant d’un autre service. L’OLG Köln valide ensuite le recours à l’intérêt légitime comme base légale de traitement, en réalisant une analyse complète, s’appuyant sur les différents critères exigés par l’EDPB. Le tribunal y reconnaît ainsi que l’intérêt poursuivi, à savoir proposer une IA générative optimisée en fonction des habitudes régionales, quoique commercial, est légitime, puis que le traitement envisagé par Meta s’avère nécessaire pour atteindre cet intérêt en l’absence d’un moyen moins intrusif.

Rapport de Meta pour octobre 2025
Pour démontrer cette nécessité, le tribunal de Cologne mobilise l’AI Act (14) qui reconnaît expressément que le développement et l’entraînement des modèles d’IA génératifs requièrent un accès à de grandes quantités de données (15). S’agissant des moyens moins intrusifs proposés notamment par l’association – à savoir le fait d’utiliser uniquement des données anonymisées ou synthétiques (données qui ne sont pas issues d’une observation réelle, mais qui sont créées artificiellement via des simulations), ou de restreindre l’entraînement aux seules données d’interaction avec les systèmes d’IA –, ils ne permettraient pas, selon l’OLG Köln, d’obtenir des résultats comparables.
Enfin, la mise en balance de l’intérêt légitime poursuivi par Meta avec les intérêts et droits des personnes concernées est jugée adéquate. Le tribunal allemand a identifié les conséquences négatives du traitement, notamment les atteintes aux droits des personnes de décider et contrôler l’usage de leurs données et au droit à l’effacement. Ces conséquences négatives sont toutefois tempérées en raison, d’une part, du caractère public des données traitées limitant les risques liés à une divulgation (puisque ces données sont déjà accessibles librement), et, d’autre part, des mesures de mitigation mises en place par Meta. Sont soulignées les mesures visant à réduire le caractère identifiant des données (incluant la tokenisation) et à les rassembler sous une forme non structurée. Sont également mises au crédit de Meta les possibilités offertes aux utilisateurs pour empêcher l’inclusion de leurs données dans la base d’entraînement : le retrait du statut « public » de leurs publications ou de leur compte ainsi que l’opposition au traitement spécifique des données pour entraîner les modèles d’IA par l’intermédiaire de deux formulaires disponibles en ligne. L’OLG Köln a estimé que l’opposition pouvait ainsi être exercée sans difficulté et de manière éclairée par l’utilisateur dans un délai suffisant (six semaines avant la mise en œuvre effective du traitement). La décision laisse toutefois en suspens la question du caractère effectif de cette possibilité d’opposition pour les tiers non-utilisateurs cités dans les publications ou commentaires. Concernant les attentes raisonnables des personnes concernées, le traitement des données publiées à partir du 26 juin 2024 est jugé prévisible pour les utilisateurs qui ont été informés de ce traitement par l’annonce du 10 juin 2024. S’agissant des données publiées antérieurement, leur traitement n’est, en revanche, pas jugé prévisible car sa finalité n’est pas d’améliorer les services existants de Meta mais de développer des IA utilisables de manière autonome et accessibles à tous. Cette absence de prévisibilité n’est toutefois pas vue comme une difficulté pour la juridiction qui justifie l’absence d’interdiction de traiter ces données au motif que les utilisateurs disposent d’un instrument d’opposition efficace. Enfin, le traitement des données sensibles des utilisateurs est autorisé car il porte sur des données manifestement rendues publiques par l’utilisateur, l’une des exceptions prévues à l’article 9 du RGPD. S’agissant des données sensibles de tiers partagées par les utilisateurs via des publications, le tribunal de Cologne reconnaît que l’exception précédente ne peut pas être mobilisée, mais estime – en s’appuyant notamment sur une jurisprudence de la Cour de Justice de l’UE de 2019 (qui n’aborde pourtant pas cette problématique précise (16)) et sur le fait qu’une application littérale de l’article 9 du RGPD ne permettrait pas d’atteindre les objectifs de l’AI Act – que Meta peut traiter ces données de manière incidente et résiduelle jusqu’à ce que l’interdiction de le faire soit sollicitée par le tiers concerné. Cette décision de l’OLG Köln, couplée aux échanges avec la DPC et à la mise en place des mesures proposées par cette dernière – enrichies de l’avis des autres autorités de l’UE –, entérinent donc la possibilité pour Meta de lancer son projet d’entraînement des modèles d’IA. Mais l’entreprise ne bénéficie pas d’un blanc-seing pour autant.
La DPC suit de près le déploiement du projet et attend un rapport complet de Meta pour le mois d’octobre 2025 contenant, entre autres, des développements sur l’efficacité et l’adéquation des mesures. En parallèle, les autorités de l’UE collaborent (17) pour évaluer plus largement la conformité des traitements envisagés par Meta, notamment en lien avec la phase de déploiement des systèmes d’IA qui pose d’autres questions au regard du RGPD. Meta n’est donc pas totalement à l’abri de l’engagement d’une procédure de sanction par la DPC si des manquements sont constatés. Enfin, bien que la Cnil ne se soit pas officiellement positionnée sur la licéité des pratiques de Meta, la récente mise à jour de ses fiches sur la mobilisation de l’intérêt légitime pour développer un système d’IA (18) témoigne d’une certaine tolérance concernant ce type de pratiques.

Position de la Cnil sur l’intérêt légitime
La Cnil, ayant pris en compte les retours du terrain, y a notamment précisé que l’intérêt commercial entourant les projets de développement de systèmes d’IA par les entreprises constituait un intérêt légitime à part entière. Elle a également admis que cette base légale pouvait être mobilisée par un réseau social qui collecte des données d’utilisateurs rendues librement accessibles et manifestement publiques sur son forum en ligne afin de développer un agent conversationnel. Cette prise en compte par la Cnil des réalités économiques et opérationnelles est bienvenue et rassurera les développeurs de systèmes d’IA qui envisagent d’utiliser ou de constituer de grandes bases de données pour entraîner leurs modèles. @

Avec leur index web européen EUSP, Qwant et Ecosia veulent s’affranchir de Microsoft et concurrencer Google

Le français Qwant et l’allemand Ecosia ont l’ambition de devenir une alternative européenne au quasimonopole de Google dans les moteurs de recherche, où l’IA rebat les cartes. Leur index web européen EUSP vise l’indépendance par rapport à Bing de Microsoft – accusé de pratique anti-concurrentielle.

Selon nos informations, Qwant livre discrètement depuis le mois d’avril en France des résultats – sur son moteur de recherche – issus de l’index web européen codéveloppé avec son partenaire allemand Ecosia, un autre moteur de recherche alternatif. « Nous avons démarré en avril 2025, en France seulement pour le moment, et nous progressons chaque mois : près d’une requête sur deux est servie depuis notre index européen », indique à Edition Multimédi@ Olivier Abecassis (photo de gauche), directeur général de Qwant.
Cet index web européen, appelé European Search Perspective (EUSP), est développé par la joint-venture European Perspective, société créée à Paris en 2024, détenue à parts égales par Qwant et Ecosia, et présidée par Olivier Abecassis. « Pour l’Allemagne, c’est avant fin 2025, plutôt au quatrième trimestre », nous précise-t-il. Les premiers moteurs de recherche alternatifs à profiter de l’accès en temps réel aux données web les plus à-jour et pertinentes de cet index européen sont non seulement Qwant et Ecosia, mais aussi le français Lilo dont Qwant a finalisé l’acquisition mi-mai. « Ecosia et Lilo utiliseront également l’index EUSP pour servir dans les semaines à venir une partie de leurs requêtes en France », nous indique encore celui qui fut directeur du numérique du groupe TF1 (2016-2022).

Index web pour moteurs alternatifs et agents IA
La joint-venture European Perspective compte lever des capitaux auprès d’investisseurs extérieurs pour assurer son développement sur le long terme et être en capaciter de rivaliser avec Google. L’ambition du tandem franco-allemand : « Renforcer une alternative européenne, éthique et indépendante aux Gafam », mais aussi « plus respectueux de la vie privée » (1). Les résultats de recherche seront d’abord en langues française et allemande, une extension à l’anglais étant prévue, avec l’objectif à plus long terme d’être dans toutes les langues européennes. « Cet index pourra être rejoint par d’autres moteurs de recherche et servir de ressource clé pour l’industrie européenne, par exemple en fournissant un pool de données transparent et sécurisé pour (suite) les nouvelles technologies d’intelligence artificielle et pour les nouveaux usages des IA génératives », ont expliqué le patron de Qwant et celui d’Ecosia, l’Allemand Christian Kroll (photo de droite), lors de l’annonce en novembre 2024 de leur association autour de l’EUSP (2).

Enquêtes antitrust sur Microsoft/Bing
Pour que leur index européen – RGPD-compatible (3) – puisse être utilisé par d’autres, que cela soit des développeurs d’intelligence artificielle (agent IA) ou d’autres moteurs de recherche alternatifs, une API (Application Programming Interface) appelée Staan – pour Search Trusted API Access Net-work (4) – a été mise à disposition depuis le 12 juin. « Le lancement d’une API souveraine pour les moteurs de recherche alternatifs, mais aussi pour tous les acteurs de l’IA qui nécessitent des contenus frais, est une étape majeure », se félicite Olivier Abecassis lors de notre échange. Staan (5) arrive à point nommé. Car six ans après avoir passé un « partenariat exclusif » avec Microsoft, pour notamment utiliser l’API de Bing pour « les recherches algorithmiques », la régie publicitaire Microsoft Adverti-sing (exBing Ads) ou encore le service de cloud Azure (6), la firme américaine de Redmond a annoncé mi-mai qu’elle allait mettre un terme aux API de son moteur de recherche Bing à partir du 11 août 2025. « Toutes les instances existantes des API Bing Search seront complètement mises hors service et le produit ne sera plus disponible pour l’utilisation ou l’inscription de nouveaux clients », avertit Microsoft (7), dont la deadline n’est pas du goût des utilisateurs.
Jusqu’à maintenant très dépendant des bibliothèques de Bing, tandis qu’Ecosia l’est non seulement de Bing mais aussi de Google, le français Qwant est déjà très remonté contre son partenaire historique, à tel point qu’il vient de déposer plainte contre lui devant l’Autorité de la concurrence (ADLC), selon les révélations de l’agence Reuters le 3 juin (8). Il reproche à Microsoft d’avoir dégradé la qualité des résultats de son moteur de recherche Qwant via Bing. Le moteur français demande au gendarme de la concurrence de prendre des mesures conservatoires à l’encontre du géant américain, tout en enquêtant sur les pratiques de ce dernier accusé d’abus de position dominante. Microsoft risque dans cette affaire jusqu’à 10 % de son chiffre d’affaires mondial en cas de condamnation par l’ADLC, laquelle n’a pas attendu la plainte de Qwant pour – d’après cette fois l’agence Bloomberg le 10 février dernier (9) – commencer à enquêter sur la dégradation présumée de la qualité des résultats de recherches auprès des moteurs rivaux qui paient pour accéder à l’écosystème de syndication Bing. Questionné sur l’action lancée devant l’autorité antitrust, Olivier Abecassis nous a répondu : « Nous ne commentons pas ce sujet », sans démentir l’action menée. Un porte-parole de Microsoft cité par Reuters début juin a déclaré : « Cette plainte est sans fondement. Nous coopérons pleinement avec l’enquête de l’Autorité de la concurrence ».
De son côté, à Berlin, Ecosia a recours non seulement à Bing mais aussi à Google pour ses résultats de recherche. Mais cette start-up Ecosia « à but non lucratif » n’a pas saisi le gendarme allemand de la concurrence – le Bundeskartellamt (BKartA) – comme nous l’a confirmé son directeur des opérations, Wolfgang Oels : « Nous n’avons pas déposé de plainte officielle en Allemagne contre Microsoft ». Cependant, le BKartA a ouvert en 2023 une enquête sur Microsoft en incluant Bing (10), puis en désignant en 2024 la firme de Redmond comme « entreprise d’une importance capitale pour la concurrence sur tous les marchés » (11). L’étau se resserre donc des deux côtés du Rhin, d’autant plus que Microsoft a été désigné par la Commission européenne comme « contrôleur d’accès » (gatekeeper) – sur Windows (12), dont Bing, et LinkedIn – dans le cadre du Digital Markets Act (DMA) en vigueur depuis le 7 mars 2024. Le marché de niche de la syndication de moteurs de recherche pourrait coûter très cher au « M » de Gafam, si l’infraction devenait caractérisée. Avec Staan, l’API de l’index web européen EUPS, la jointventure European Perspective veut devenir « un acteur clé de la souveraineté numérique européenne et du pluralisme d’accès à l’information via la recherche sur le Web ». Pour l’instant, à juin 2025, Qwant revendique 6 millions d’utilisateurs et Ecosia 20 millions d’utilisateurs. Selon Statcounter (13), la part de marché mondiale de Qwant dans le « search » est de 0,03 % en mai 2025, et en France de 0,77 %. En mai, Qwant a indiqué travailler avec Mistral AI pour optimiser les réponses.

Le « champion » OVH œuvre pour l’EUSP
L’index web européen EUSP est hébergé par le prestataire français OVHcloud, basé à Roubaix et cofondé par le franco-polonais Octave Klaba (photo ci-dessus), son président, lequel a racheté avec son frère Miroslaw Klaba en juin 2023 la société Qwant pour 14 millions d’euros via l’entreprise Synfonium, créée à cette occasion (14). Les deux frères en détiennent tous les deux 75 % via leur holding respective Jezby Ventures et Deep Code – aux côtés des 25 % de l’Etat français via la Caisse des dépôts (CDC). En attendant, Google affiche toujours une part de marché insolente de 89,45 % en Europe. @

Charles de Laubier

Le marché mondial du livre audio donne de la voix, mais de plus en plus générée par de l’IA

Alors que s’achève fin juin la 4e édition du « mois du livre audio », événement organisé en France par le Syndicat nationale de l’édition (SNE), le marché mondial du livre audio est pleine croissance, porté notamment par la voix générée par l’IA. Les labels « interprétation humaine » s’organisent.

L’intelligence artificielle et les comédiens rivalisent pour lire les livres à haute voix aux auditeurs, avec une qualité d’élocution qui laisse parfois… sans voix, tant la ressemblance entre la synthèse vocale de l’IA et les cordes vocales de l’humain est confondante. Et cette dichotomie du marché mondial du livre audio n’est pas prête de s’estomper, tant le « tsunami » de l’IA n’a pas fini de se propager dans le monde de l’édition. Comédiens et « AI-generated voice » sont comme dans un dialogue de sourds, un peu en chiens de faillance. Comment distinguer l’un de l’autre ?

USA et UK : « directives internationales »
Avec son label « Interprétation humaine » (IH), annoncé le 11 juin 2025 en collaboration avec l’association de comédiens « La Voix » et conçu pour les maisons d’édition en France, le Syndicat national de l’édition (SNE) n’est pas le premier à proposer aux éditeurs d’apposer une signalétique sur les livres audio pour que les « lecteurs » auditeurs puissent savoir à quoi s’en tenir. Six mois auparavant, en décembre 2024, l’Audio Publishers Association (APA) basée à New York et la Publishers Association britannique (UK PA) basée à Londres ont publié des « directives internationales sur la façon d’étiqueter les livres audio racontés par l’IA » (1). Dirigée actuellement par Michele Cobb (photo de gauche), l’APA compterait parmi ses membres – dont la liste n’est pas divulguée – Audible d’Amazon, Apple Books ou encore Spotify, aux côtés de Hachette Audio (filiale newyorkaise du groupe français (2)), d’HarperCollins Audio, de Macmillan Audio, pour ne citer qu’eux.
L’APA et la UK PA partent du constat que (suite) « divers termes pour différents types de narration par l’IA sont utilisés de manière interchangeable sur le marché, ce qui entraîne une confusion parmi les éditeurs, les détaillants et les consommateurs ». Aussi, avec des maisons d’édition américaines et britanniques, les deux organisations ont émis ces « directives », en concertation avec des éditeurs, des détaillants, des distributeurs et des fournisseurs de métadonnées des Etats-Unis, du Canada, du Royaume-Uni et d’Europe. Objectif : « Promouvoir l’uniformité dans l’ensemble de l’industrie afin de donner aux consommateurs des informations claires et de leur permettre de faire des choix éclairés lors de l’achat de livres audio ». Pour autant, ces directives ne sont publiées qu’à titre de recommandations et sont donc non-contraignantes, et « ne portent aucun jugement sur l’utilisation de la narration par l’IA ». L’APA et la UK PA ont publié ces lignes directrices sur leur site respectif, ici (3) et là (4). « Avec la prolifération des livres audio narrés par l’IA, il est essentiel que notre industrie dispose d’un langage international qui permette aux éditeurs, aux détaillants et aux consommateurs de faire la distinction entre les différents types de narration », a assuré Jon Watt (photo de droite), président du groupe des éditeurs audio, au sein de l’association britannique (5). Contacté par Edition Multimédi@ à propos de l’absence d’harmonisation internationale de ces mesures, notamment avec la France, il se dit « ravi qu’il y ait une discussion en direct au sein du secteur de l’édition internationale sur la meilleure façon de [faire] ».
Les directives anglo-saxonnes identifient deux types de narration d’IA qui doivent être distingués l’un de l’autre, à l’aide des conventions de nommage suivantes proposées par les deux associations transatlantiques :
« AI Voice » : une voix synthétisée basée sur l’IA qui a été générée à partir d’échantillons provenant d’un grand groupe de locuteurs non identifiés. Exemple : les voix « Auto Narration » de Google, telles que « Archie » ou « Mary ». Dans la liste dite « Onix 19 » (personnes non nommées), les codes 05 à 07 peuvent être utilisés pour la convention « AI Voice ». La « voix synthétique » est alors une voix générique basée sur l’IA générée à partir d’échantillons provenant d’un grand groupe de locuteurs non identifiés.

Plus de 2 milliards de dollars aux Etats-Unis
« Authorized Voice Replica (AVR) » : une voix basée sur l’IA qui a été générée à l’aide d’échantillons autorisés/sous licence d’une voix humaine spécifique et qui cherche à reproduire cette voix. Par exemple, un éditeur travaille avec la succession d’un auteur décédé pour créer une réplique de voix autorisée basée sur des échantillons d’archives de la voix de l’auteur. Quant au « clonage », il fait référence à la réplication non autorisée lorsqu’un humain n’a pas donné la permission de reproduire sa voix. En outre, l’APA a publié le 2 juin 2025 une étude menée aux Etats-Unis sur le chiffre d’affaires généré par les livre audios : 2,22 milliards de dollars réalisés en 2024, soit une croissance de 13 % par rapport à l’année précédente. La quasi-totalité de ces revenus (99 %) provient des livres audio numériques, les ventes de livres audio sur supports physiques devenant très marginales voire négligeables. Et 51 % des Américains âgés de 18 ans et plus, soit environ 134 millions de personnes, ont écouté un livre audio.

« La Voix » contre la narration IA
Voix humaine ou voix de synthèse ? « La consommation et le nombre de livres audio racontés par l’IA ont augmenté, bien que la volonté d’essayer les livres audio racontés par l’IA ait reculé d’une année sur l’autre, passant de 77 % en 2023 à 70 % en 2025 », souligne l’APA. Par ailleurs, l’association newyorkaise pointe du doigt YouTube où, selon elle, les titres audio – écoutés par 35 % des auditeurs américains de livres audio – « sont en grande partie piratés » (6).
La France, elle, compte 6,8 millions d’auditeurs de livres audio (physiques ou numériques), soit 13 % de la population d’après Médiamétrie pour le baromètre 2024 du SNE avec la Sofia (7) et le SGDL (8). A l’occasion de la 4e édition du livre audio au slogan « Lire, ça s’écoute ! » (9), le SNE qui l’organise a présenté le 11 juin le label « Interprétation humaine », lancé par les éditeurs membres de sa commission « livre audio » – présidée par Laure Saget (photo ci-contre), par ailleurs directrice générale d’Audiolib, filiale du groupe Hachette. Les premiers livres audio intégrant ce label devaient être publiés dans le courant du mois de juin 2025. Un « kit de communication » est disponible en téléchargement sur le site du SNE (10). Si le syndicat semble rester neutre vis-à-vis du recours à la voix humaine ou de l’utilisation de la voix de synthèse, il n’en va pas de même de l’association partenaire du SNE dans l’instauration de ce label : « Les comédiens saluent cette décision des éditeurs qui reconnaît la lecture des œuvres comme un art en affirmant la supériorité de l’interprétation sur l’assemblage de phonèmes par des algorithmes. Ce label représente un jalon essentiel dans la préservation du sens, de l’émotion et de la cohérence des œuvres audios », a affirmé Odile Cohen, membre du conseil d’administration de l’association « Les Voix », qui regroupe des comédiens spécialisés dans le doublage et le livre audio (11). Contrairement aux associations anglo-saxonnes APA et UK PA qui se font fort de ne porter « aucun jugement sur l’utilisation de la narration par l’IA », le SNE – aux plus de 700 adhérents – a choisi son camp au nom des « éditeurs de livres audio » : « Ils tiennent également à valoriser le travail des comédiens et des lecteurs dans la création de ces œuvres audio », indique le communiqué du 11 juin (12). Créée il y a dix ans (en 2015), la commission « livre audio » du SNE est composée d’une douzaine de membres (13), dont Audiolib (Hachette), Gallimard, Bayard Editions ou encore Actes Sud. « Elle s’attache à promouvoir le livre audio auprès des prescripteurs : libraires, bibliothécaires, journalistes, grand public adulte et jeunesse, ainsi qu’auprès des enseignants et des institutions culturelles […]. Elle permet également aux éditeurs de livre audio de développer des projets communs et de peser auprès des partenaires institutionnels […] », précisent le SNE et son site web Lelivreaudio.fr. Jusqu’à maintenant, le SNE ne publiait aucune donnée de marché à propos du livre audio, mais il avait promis de le faire dans « les chiffres de l’édition 2024-2025 » qui devait paraître le 26 juin à l’occasion de son assemblée générale annuelle. « La coopération de tous les éditeurs de livres audio pour constituer un échantillon représentatif est impérative », avait prévenu le SNE, qui avait invité l’an dernier « tous les éditeurs produisant des livres audio, adhérents ou non adhérents du SNE, à répondre massivement à la vague d’enquête statistique de 2025 ».
D’après Spotify, près de 60 % des auditeurs de livres audio en France ont entre 18 et 34 ans, et représentent à eux seuls plus de la moitié du temps d’écoute total. Pourtant, la plateforme suédoise de streaming musical constate qu’il existe, en France toujours, « environ 800.000 livres mais seulement 20 à 25.000 sont convertis en livres audios », soit à peine 3 %. Depuis que la plateforme Spotify a lancé en octobre 2024 de livres audio en France, en Belgique, au Pays-Bas et au Luxembourg, elle dit observer « une croissance moyenne de 12 % par mois du nombre d’auditeurs de livres audio, ainsi que du temps d’écoute ».

Spotify, Amazon, Apple, Google, …
A tel point que Spotify a annoncé en avril dernier consacrer 1 million d’euros à la production de livres audio, devenant ainsi concurrent direct des maisons d’édition traditionnelles. Tout en ayant recours à la narration humaine, Spotify dit limiter les coûts avec la narration vocale de synthèse, en partenariat avec ElevenLabs, en précisant que « les titres narrés par voix de synthèse seront clairement identifiés sur Spotify en tant que tel ». De son côté Amazon Music propose un catalogue de plus de 21.000 livres audio en français, dont un par mois écoutable gratuitement pour les abonnés Prime, sur un total de 850.000 titres audio de sa filiale Audible (qui utilise notamment l’outil maison Amazon Polly). Apple utilise pour ses « audiobook » une technologie de voix numérique. Google donne aussi de la voix de synthèse. Bien d’autres solutions existent : PlayHT, Resemble AI, DeepZen, Aflorithmic, … @

Charles de Laubier