Le moteur de recherche Qwant, « dont vous êtes l’utilisateur, pas le produit ! », joue la transparence

Basé en France, Qwant revendique être « l’un des premiers moteurs de recherche indépendants en Europe » et assure ne pas conserver les données de recherche ni les vendre. Son PDG, Olivier Abecassis, se veut transparent, y compris vis-à-vis de l’Arcom dans le cadre du DSA.

L’Arcom (1) a indiqué le 12 janvier qu’elle avait été « dans l’incapacité de trouver un rapport de transparence RSN [en référence au règlement européen sur les services numériques, ou DSA, ndlr] » pour au moins une douzaine de plateformes de « services intermédiaires » qu’elle doit superviser en France, parmi lesquels Qwant. Pourtant, le Digital Services Act (2) leur impose des obligations en matière de rapports de transparence qu’ils doivent mettre « à la disposition du public […] au moins une fois par an […] sur les éventuelles activités de modération des contenus auxquelles ils se sont livrés au cours de la période concernée » (3) : injonctions reçues, activités de modération, réclamations reçues, moyens automatisés utilisés, …

DSA : des obligations de transparence
Contacté par Edition Multimédi@ sur cette absence de rapport de transparence qu’a pointée le régulateur (4), le PDG de Qwant, Olivier Abecassis (photo), nous apporte l’explication suivante : « En effet, notre rapport était rédigé mais n’était pas en ligne, ce qui a été fait dès que l’Arcom nous l’a rappelé ». Le premier rapport de transparence du moteur de recherche français a donc finalement été publié le 14 janvier sur le site web de l’entreprise basée à Paris (5). Tenant sur une page, ce document fait état d’une (suite) douzaine d’injonctions de retrait ou de désactivation de contenus illicites : onze concernant des « jeux de hasard illégaux » et une portant sur le « respect des lois internes ».
Il est précisé que le traitement des injonctions des autorités s’est fait dans un délai de 72 heures. En revanche, il n’y a pas eu d’« injonction de communication d‘informations sur des utilisateurs », ni de « modération de contenu exercée à l’initiative de Qwant », ni encore de « signalements reçus ». Qwant précise en outre qu’il n’y a pas d’outils de modération. Ces indications de transparence ont été portées à la connaissance de l’Arcom, qui est – au regard du DSA – un coordinateur pour les services numériques (CSN) chargé d’assurer la cohérence de la mise en œuvre de ce règlement à l’échelon national. A ce titre, l’Arcom fait partie du Comité européen des services numériques (EBDS), que préside la Commission européenne et où siègent les CSN de chacun des vingt-sept Etats membres de l’UE (6). Le moteur de recherche français aux ambitions européennes, fondé sur la confidentialité des données et la souveraineté technologique, ne tombe pas sous le contrôle direct de la Commission européenne, dans la mesure où il est encore loin d’atteindre les 45 millions d’utilisateurs mensuels requis pour être classé VLOSE – Very Large Online Search Engines (7).
Pour l’heure, Qwant – société rachetée en juin 2023 par Octave Klaba (président d’OVH) et son frère Miroslaw Klaba pour 14 millions d’euros via l’entreprise Synfonium créée à cette occasion avec la Banque des Territoires de la CDC (8) – dépasse à peine les 25 millions de visiteurs par mois. A précisément 25,1 millions d’utilisateurs si l’on se réfère à son audience de décembre 2025 mesurée par Similarweb, tous pays confondus – dont 52,5 % provenant de France et près de 10 % de l’Allemagne (9). Le nom de domaine qwant.com concentre l’essentiel du trafic, qwant.fr restant marginal et qwantjunior.com et qwantjunior.fr redirigeant vers l’adresse principale. Pour la France, Qwant n’est ni audité par Médiamétrie ni par l’Alliance pour les chiffres de la presse et des médias (ACPM), et la société ne publie pas elle-même de chiffres certifiés. « Nous ne souscrivons pas au panel dans chaque pays, mais surtout notre modèle privacy/B2B (10) sous-évalue notre couverture. Nous suivons nos requêtes quotidiennes. Nous restons majoritairement en France (80 %), puis l’Allemagne (7-8 %) et les USA (5 %) », nous précise Olivier Abecassis. Pour fournir ses résultats de recherche, Qwant a recours en partie depuis 2016 à la technologie de Bing, le moteur de recherche de Microsoft, mais accuse ce dernier d’abuser à la fois de sa position dominante à son détriment. Pour autant, l’Autorité de la concurrence a rejeté le 27 novembre 2025 sa plainte (11).

Accord avec une partie de la presse française
Qwant se veut aussi transparent envers la presse française, avec une partie de laquelle – via l’Alliance de la presse d’information générale (Apig) – un accord a été annoncé le 15 janvier sur les droits voisins, couvrant les moteurs Qwant, Qwant Junior et Lilo. « Ce nouvel accord […] prouve la pertinence de la négociation collective », s’est félicité Pierre Louette, alors président de l’Apig. Cet accord – négocié par la Sacem (12) – définit « les conditions générales de rémunération des contenus, permettant ensuite à chaque éditeur membre de conclure sa propre licence individuelle [avec] sa liberté de négociation » (13). Et ce, alors que le « Chat IA » est disponible depuis le 29 janvier sur Qwant et Lilo. @

Charles de Laubier

Gouvernance des autorités pour l’AI Act : multiplier les régulateurs pourrait être contreproductif

La France va se doter – si une loi était adoptée en 2026 – d’une gouvernance sectorielle pour l’IA, pilotée par la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Mais la multiplicité des régulateurs pourrait compliquer la tâche des entreprises.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

La Direction générale des entreprises (DGE), qui dépend du ministère de l’Economie et des Finances, a publié le 9 septembre 2025 un projet de désignation des autorités nationales chargées de la mise en œuvre en France du règlement européen sur l’intelligence artificielle (AI Act). Sous la coordination de la DGE et de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF), ce projet instaure un schéma décentralisé et sectoriel de gouvernance s’appuyant sur les régulateurs existants en France.

La DGCCRF centralise la coordination
Ce modèle s’inscrit dans le cadre de l’AI Act (1) et des dispositions de son article 70 qui impose la désignation d’autorités nationales de notification et de surveillance du marché dans chaque Etat membre. Cette proposition de gouvernance sectorielle et décentralisée doit être présentée au Parlement sous la forme d’un projet de loi. Il ne sera donc définitif qu’après un vote législatif, très probablement dans le courant du premier semestre 2026. Le schéma retenu par le gouvernement prévoit que la mise en œuvre effective de ce règlement européen sur l’IA sera supervisée par plusieurs autorités compétentes, conformément aux orientations proposées par cet AI Act. Dès lors, les administrations, agences et autorités spécialisées – selon leur secteur d’intervention – auront la charge de contrôler les systèmes d’intelligence artificielle, une fois mis sur le marché ou en service.
La DGCCRF centralisera la coordination opérationnelle entre diverses autorités sectorielles impliquées dans le contrôle des systèmes d’IA. Elle sera ainsi l’interlocuteur principal pour les autorités européennes et facilitera l’échange d’informations et la coopération entre les différents régulateurs nationaux. Elle agira comme un point de contact unique, pour la France auprès des instances européennes, sur les questions liées à la surveillance du marché de l’IA. Ce rôle de coordination s’inscrit dans une organisation bicéphale où la DGCCRF assurera la supervision pratique sur le terrain, tandis que la DGE apportera son soutien à la mise en œuvre de l’AI Act. A ce titre, la DGE jouera un rôle-clé dans l’organisation de la gouvernance nationale de ce règlement européen, notamment en (suite) assurant la représentation française et en veillant à un alignement dans l’application des règles sur tout le territoire national, au sein du Comité européen de l’IA. Cet « AI Board » (2), dont le secrétariat est assuré par le Bureau de l’IA (« AI Office ») de la Commission européenne (3), est une instance qui rassemble les représentants des autorités nationales compétentes pour coordonner l’application – justement harmonisée – du règlement européen « établissant des règles harmonisées concernant l’intelligence artificielle ».
Le souhait du gouvernement français est de permettre une surveillance adaptée, mobilisant les compétences spécifiques de chaque autorité en fonction des usages et risques associés aux systèmes d’IA concernés. Les autorités nationales s’inscriraient ainsi comme des acteurs pivots dans la chaîne de surveillance et de contrôle. En pratique, chaque entreprise ou organisation continuera de s’adresser prioritairement à son régulateur de secteur pour respecter les exigences de l’AI Act. Pour les aspects techniques, l’Agence nationale de la sécurité des systèmes d’information (Anssi) et le Pôle d’expertise de la régulation numérique (PEReN) fourniront un appui transversal aux régulateurs qui bénéficieront d’un « socle mutualisé d’expertises ». Ils pourront ainsi les accompagner dans l’analyse technique, la cybersécurité et l’audit des algorithmes d’IA. La Commission nationale de l’informatique et des libertés (Cnil) et l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) figurent comme des interlocuteurs majeurs pour les enjeux relatifs à la protection des données et à la régulation des contenus auprès des collectivités publiques. Bercy n’a pas publié le 9 septembre 2025 de rapport complet (4) mais un aperçu du schéma proposé – accompagné d’un graphique (5)) qui identifie le périmètre d’intervention des autorités compétentes selon quatre critères : les pratiques interdites (6), les obligations spécifiques de transparence (7), les systèmes d’IA à haut risque (8), les systèmes d’IA à haut risque (9).

Au titre des pratiques interdites
La DGCCRF et l’Arcom veillent au respect de l’interdiction des systèmes d’IA qui utilisent des techniques subliminales, manipulatrices ou trompeuses, et qui exploitent les vulnérabilités liées à l’âge, au handicap ou à la situation sociale ou économique. La Cnil et la DGCCRF contrôlent le respect de l’interdiction sur les systèmes d’IA dédiés à l’évaluation, la classification ou notation sociale. La Cnil joue un rôle central dans le contrôle des pratiques interdites puisqu’elle est seule chargée du contrôle des autres pratiques interdites : police prédictive, création de bases de données de reconnaissance faciale via moissonnage non ciblé, inférence des émotions sur lieu de travail et établissements d’enseignement, catégorisation biométrique, identification biométrique à distance en temps réel à des fins répressives.

Transparence et IA à haut risque
La DGCCRF et Arcom contrôlent les systèmes d’IA interagissant directement avec les personnes ou générant des contenus synthétiques et hypertrucages. L’Arcom surveille également les systèmes générant ou manipulant des textes destinés à informer le public sur des questions d’intérêt public. La Cnil contrôle, quant à elle, le respect des obligations de transparence concernant les systèmes de reconnaissance des émotions et de catégorisation biométrique. Les autorités de surveillance du marché compétentes pour les systèmes d’IA à haut risque voient leur périmètre élargi pour le contrôle de l’intégration de l’IA dans ces produits classés « à haut risque » selon l’annexe I du règlement IA. Ainsi, par exemple, la DGCCRF est en charge de veiller à la sécurité des jouets, et avec l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) pour les dispositifs médicaux.
Pour les systèmes d’IA à haut risque relevant de l’annexe III, les Hauts fonctionnaires de défense et de sécurité (HFDS) des ministères économiques, financiers, industriels et écologiques contrôlent les IA liées aux infrastructures critiques. L’Autorité de contrôle prudentiel et de résolution (ACPR) contrôle les IA destinées à être utilisées pour évaluer la solvabilité des personnes physiques, établir les notes de crédit, et évaluer les risques et la tarification en matière d’assurance-vie et d’assurance maladie. Le Conseil d’Etat, la Cour de cassation et la Cour des comptes supervisent, quant à eux, les systèmes d’IA mis en service ou utilisés par les autorités judiciaires à des fins d’administration de la justice. Enfin, la Cnil contrôle les IA dans l’enseignement, la formation professionnelle (avec la DGCCRF), les processus démocratiques (avec l’Arcom), la biométrie, la gestion des ressources humaines, les usages répressifs, la migration, l’asile, ainsi que le contrôle des frontières. Le schéma « DGE-DGCCRF » proposé vise à éviter la création d’une superstructure, tout en valorisant l’expertise existante au sein des autorités déjà en place.
Le gouvernement français mise ainsi sur les autorités déjà opérationnelles, qui disposent chacune d’une expertise fine dans leurs domaines respectifs. Cette gouvernance « IA » devrait permettre d’apporter une proximité sectorielle avec les acteurs régulés, ainsi qu’une meilleure compréhension des pratiques spécifiques pour une régulation adaptée et un contrôle plus efficace. Pour autant, et c’est là que le bât blesse, cette gouvernance morcelée pourrait générer une complexité accrue pour les entreprises multi-secteurs, avec des points de contacts multiples et une articulation parfois difficile entre exigences sectorielles et obligations transversales de l’AI Act. Ainsi, les PME risquent d’être confrontées à une multiplicité d’interlocuteurs et à une compréhension plus complexe des règles applicables. En effet, les sociétés devront entreprendre des démarches spécifiques selon leur secteur d’activité, rajoutant alors des points de complexité dans leur mise en conformité aux exigences de l’AI Act. Cette gouvernance éclatée pourrait également entraîner une charge administrative accrue, des difficultés de compréhension des exigences applicables et un risque d’interprétations divergentes entre autorités.
Si la DGCCRF joue un rôle d’orientation clé, la multiplication des intervenants et la fragmentation normative s’avèrent particulièrement complexes pour les PME, qui disposent souvent de ressources juridiques limitées pour mener des programmes de mise en conformité de leurs pratiques. La multiplicité des organismes implique aussi un risque de dilution des responsabilités, surtout en cas d’incidents ou de litiges impliquant différents aspects de l’IA (par exemple, un système de scoring biométrique utilisé à des fins publicitaires). En l’absence d’un chef de file unique clairement identifié, cette configuration peut retarder la prise de décision ou compliquer la coordination des sanctions.
Le Conseil d’Etat, dans une étude publiée en 2022 intitulée « Intelligence artificielle et action publique : construire la confiance, servir la performance » (10), avait préconisé une transformation profonde de la Cnil en autorité nationale de contrôle responsable de la régulation des systèmes d’IA. Il soulignait que pour garantir la cohérence et la sécurité juridique, il serait préférable d’adosser la gouvernance de l’IA à une autorité unique renforcée, la Cnil étant le choix naturel compte tenu de son expérience reconnue en matière de protection des données personnelles et de régulation numérique. Confronté à la diversité des secteurs d’application de l’IA, cette piste a été écartée. La mise en œuvre de l’AI Act et la gouvernance proposée imposent donc aux entreprises une coordination et une gestion rigoureuse de leurs risques. Elles doivent concilier les exigences spécifiques à chaque secteur d’activité tout en assurant une sécurité juridique dans un environnement réglementaire à la fois complexe et en constante évolution.

Les entreprises attendues au tournant
Face aux enjeux de l’intelligence artificielle, les entreprises et organisation devront mettre en place un pilotage rigoureux de leurs pratiques. A ce titre, elles devront identifier et évaluer les risques liés à leurs systèmes d’IA, documenter leur fonctionnement, assurer la transparence des interactions, mettre en place un contrôle humain et des procédures de gestion des incidents, tout en respectant des échéances progressives jusqu’en 2026 pour assurer leur conformité à l’AI Act. Sinon, gare aux sanctions. @

* Antoine Gravereaux est avocat associé chez FTPA Avocats,
au département « Technologies, Data & Cybersécurité ».

Boosté par le cloud et l’IA, Microsoft conteste à Apple sa première place mondiale des capitalisations boursières

Le capitalisme a ses icônes, et la seconde est Microsoft. La valorisation boursière de la firme de Redmond, que dirige Satya Nadella depuis près de dix ans, atteint – au 1er décembre 2023 – les 2.816 milliards de dollars et pourrait bientôt détrôner Apple de la première place mondiale. Merci aux nuages et à l’IA.

(Cet article est paru le lundi 4 décembre 2023 dans Edition Multimédi@. L’AG annuelle des actionnaires de Microsoft s’est déroulée comme prévu le 7 décembre)

La prochaine assemblée générale annuelle des actionnaires de Microsoft, qui se tiendra le 7 décembre et cette année en visioconférence (1), se présente sous les meilleurs auspices. L’année fiscale 2022/2023 s’est achevée le 30 juin avec un chiffre d’affaires de 211,9 milliards de dollars, en augmentation sur un an (+ 7 %). Le bénéfice net a été de 72,4 milliards de dollars, en légère diminution (- 1 %). Et les résultats du premier trimestre de l’année 2023/2024, annoncé en fanfare le 24 octobre dernier, ont encore tiré à des records historiques le cours de Bourse de Microsoft – coté depuis plus de 37 ans. A l’heure où nous bouclons ce numéro de Edition Multimédi@, vendredi 1er décembre, la capitalisation boursière du titre « MSFT » – actuelle deuxième mondiale – affiche 2.816 milliards de dollars (2) et talonne celle du titre « AAPL » d’Apple dont la première place, avec ses 2.954 milliards de dollars (3), est plus que jamais contestée. Depuis la nomination il y a près de dix ans de Satya Nadella (photo) comme directeur général (4) pour succéder à Steve Ballmer, Microsoft a ainsi vu sa capitalisation boursière multiplié par presque dix. Les actionnaires de la firme de Redmond (Etat de Washington, près de Seattle) en ont pour leur argent (voir graphique), depuis vingt ans qu’elle s’est résolue à leur distribuer des dividendes – ce qui n’était pas le cas avec son cofondateur et premier PDG Bill Gates.

Assemblée générale annuelle le 7 décembre
Après avoir mis Microsoft sur les rails du cloud en faisant d’Azure – dont il était vice-président avant de devenir directeur général du groupe (5) – sa première vache à lait (87,9 milliards de dollars de chiffre d’affaires lors du dernier exercice annuel), Satya Nadella a commencé à faire de l’IA générative le moteur de tous ses produits et services. « Avec les copilotes, nous rendons l’ère de l’IA réelle pour les gens et les entreprises du monde entier. Nous insufflons rapidement l’IA dans chaque couche de la pile technologique et pour chaque rôle et processus métier afin de générer des gains de productivité pour nos clients », a déclaré fin octobre cet Indo-américain (né à Hyderabad en Inde), qui est aussi président de Microsoft depuis près de deux ans et demi (6).

« Copilotes » (copilots) est le terme qu’il emploie volontiers pour désigner les outils alimentés par l’IA destinés à être intégrés à tous les produits et services de l’éditeur du système d’exploitation Windows, des logiciels Office 365, du cloud Azure et des serveurs associés, du navigateur Edge, du moteur de recherche Bing, de la console de jeux vidéo Xbox et de son Cloud Gaming, ou encore du réseau social professionnel LinkedIn.

La Française Catherine MacGregor
Bref, Microsoft mise plus que jamais sur l’IA générative, directement issue de son partenariat à quelque 13 milliards de dollars (49 % du capital inclus) avec la société californienne OpenAI que redirige à nouveau Sam Altman depuis le 22 novembre (7), grâce aux interventions intéressées de Satya Nadella (8). Ces « copilotes » sont appelés à devenir la nouvelle interface des utilisateurs, particuliers ou entreprises. A 56 ans, le PDG de Microsoft présidera le 7 décembre une assemblée générale annuelle des actionnaires qui s’annonce la plus révolutionnaire et « intelligente » en termes technologique pour l’entreprise, laquelle fêtera son demi-siècle d’existence en avril 2025. Mais Satya Nadella devra aussi donner des gages à ses actionnaires sur la bonne utilisation de l’IA déployées tous azimuts. « Nous reconnaissons également [notre] responsabilité de veiller à ce que cette technologie[de l’IA] qui change le monde soit utilisée de façon responsable. Le travail de Microsoft sur l’IA est guidé par un ensemble de principes fondamentaux : l’équité, la fiabilité et la sécurité, la confidentialité et la sécurité, l’inclusion, la transparence et la responsabilité », ont déclaré les membres du conseil d’administration dans une lettre aux actionnaires datée du 19 octobre (9), en prévision de la prochaine assemblée générale. D’ailleurs, quatre jours avant d’évincer – le 17 novembre et à la surprise générale – son patron Sam Altman (10), l’ancien conseil d’administration d’OpenAI avait reçu une lettre de chercheurs l’avertissant que « l’IA pouvait menacer l’humanité » (11), alors que son patron (réintégré le 22 novembre) développe un projet de super-IA baptisé « Q* » (prononcez « Q-Star ») et relevant de la catégorie des surpuissantes AGI (Artificial General Intelligence). Quoi qu’il en soit, OpenAI aura plus que jamais besoin des superordinateurs de Microsoft accessibles dans le cloud pour lui apporter la puissance de calcul nécessaire.
Plus largement, la gouvernance de Microsoft joue la carte de la diversité des activités et des profils. Sur les 12 membres du conseil d’administration, la plupart candidats au renouvellement de leur mandat, 11 sont indépendants. Parmi les deux nouveaux administrateurs indépendants soumis au vote des actionnaires le 7 décembre : une Française, en la personne de Catherine MacGregor (51 ans), née Catherine Fiamma au Maroc, directrice générale de l’énergéticien français Engie, ex-GDF Suez (dans le capital duquel l’Etat français détient toujours une golden share et compte deux administrateurs). Ingénieure CentraleSupélec, elle a passé onze ans chez Schlumberger (devenu SLB). « [Catherine MacGregor] apportera à Microsoft des informations importantes et une expérience mondiale », se félicite déjà le conseil d’administration. C’est la première personnalité française qui entre au conseil d’administration du « M » de GAFAM. Mais elle n’aura pas de rôle opérationnel au sein de la firme de Redmond, dont le seul « Frenchie » à avoir atteint le plus haut niveau de direction chez Microsoft est JeanPhilippe Courtois (près de 40 ans de maison), actuel viceprésident en charge des partenariats nationaux de transformation et membre du comité exécutif. Il fut le deuxième dirigeant le mieux payé de Microsoft (12)
Les actionnaires de Microsoft auront, le 7 décembre, un tout premier bilan de la stratégie IA de Microsoft depuis l’accord financier et technologiques avec OpenAI annoncé en janvier dernier (13). Du « ChatGPT » a été injecté partout dans les produits Microsoft, y compris avec l’offre « OpenAI Service ». Avec l’IA, Satya Nadella pense pouvoir atteindre son objectif de «faire d’Azure “l’ordinateur du monde” », le chiffre d’affaires de l’activité cloud ayant dépassé les 110 milliards de dollars sur l’exercice 2022/2023 et Azure représentant plus de 50 % du total. @

Charles de Laubier