Le moteur de recherche Qwant, « dont vous êtes l’utilisateur, pas le produit ! », joue la transparence

Basé en France, Qwant revendique être « l’un des premiers moteurs de recherche indépendants en Europe » et assure ne pas conserver les données de recherche ni les vendre. Son PDG, Olivier Abecassis, se veut transparent, y compris vis-à-vis de l’Arcom dans le cadre du DSA.

L’Arcom (1) a indiqué le 12 janvier qu’elle avait été « dans l’incapacité de trouver un rapport de transparence RSN [en référence au règlement européen sur les services numériques, ou DSA, ndlr] » pour au moins une douzaine de plateformes de « services intermédiaires » qu’elle doit superviser en France, parmi lesquels Qwant. Pourtant, le Digital Services Act (2) leur impose des obligations en matière de rapports de transparence qu’ils doivent mettre « à la disposition du public […] au moins une fois par an […] sur les éventuelles activités de modération des contenus auxquelles ils se sont livrés au cours de la période concernée » (3) : injonctions reçues, activités de modération, réclamations reçues, moyens automatisés utilisés, …

DSA : des obligations de transparence
Contacté par Edition Multimédi@ sur cette absence de rapport de transparence qu’a pointée le régulateur (4), le PDG de Qwant, Olivier Abecassis (photo), nous apporte l’explication suivante : « En effet, notre rapport était rédigé mais n’était pas en ligne, ce qui a été fait dès que l’Arcom nous l’a rappelé ». Le premier rapport de transparence du moteur de recherche français a donc finalement été publié le 14 janvier sur le site web de l’entreprise basée à Paris (5). Tenant sur une page, ce document fait état d’une (suite) douzaine d’injonctions de retrait ou de désactivation de contenus illicites : onze concernant des « jeux de hasard illégaux » et une portant sur le « respect des lois internes ».
Il est précisé que le traitement des injonctions des autorités s’est fait dans un délai de 72 heures. En revanche, il n’y a pas eu d’« injonction de communication d‘informations sur des utilisateurs », ni de « modération de contenu exercée à l’initiative de Qwant », ni encore de « signalements reçus ». Qwant précise en outre qu’il n’y a pas d’outils de modération. Ces indications de transparence ont été portées à la connaissance de l’Arcom, qui est – au regard du DSA – un coordinateur pour les services numériques (CSN) chargé d’assurer la cohérence de la mise en œuvre de ce règlement à l’échelon national. A ce titre, l’Arcom fait partie du Comité européen des services numériques (EBDS), que préside la Commission européenne et où siègent les CSN de chacun des vingt-sept Etats membres de l’UE (6). Le moteur de recherche français aux ambitions européennes, fondé sur la confidentialité des données et la souveraineté technologique, ne tombe pas sous le contrôle direct de la Commission européenne, dans la mesure où il est encore loin d’atteindre les 45 millions d’utilisateurs mensuels requis pour être classé VLOSE – Very Large Online Search Engines (7).
Pour l’heure, Qwant – société rachetée en juin 2023 par Octave Klaba (président d’OVH) et son frère Miroslaw Klaba pour 14 millions d’euros via l’entreprise Synfonium créée à cette occasion avec la Banque des Territoires de la CDC (8) – dépasse à peine les 25 millions de visiteurs par mois. A précisément 25,1 millions d’utilisateurs si l’on se réfère à son audience de décembre 2025 mesurée par Similarweb, tous pays confondus – dont 52,5 % provenant de France et près de 10 % de l’Allemagne (9). Le nom de domaine qwant.com concentre l’essentiel du trafic, qwant.fr restant marginal et qwantjunior.com et qwantjunior.fr redirigeant vers l’adresse principale. Pour la France, Qwant n’est ni audité par Médiamétrie ni par l’Alliance pour les chiffres de la presse et des médias (ACPM), et la société ne publie pas elle-même de chiffres certifiés. « Nous ne souscrivons pas au panel dans chaque pays, mais surtout notre modèle privacy/B2B (10) sous-évalue notre couverture. Nous suivons nos requêtes quotidiennes. Nous restons majoritairement en France (80 %), puis l’Allemagne (7-8 %) et les USA (5 %) », nous précise Olivier Abecassis. Pour fournir ses résultats de recherche, Qwant a recours en partie depuis 2016 à la technologie de Bing, le moteur de recherche de Microsoft, mais accuse ce dernier d’abuser à la fois de sa position dominante à son détriment. Pour autant, l’Autorité de la concurrence a rejeté le 27 novembre 2025 sa plainte (11).

Accord avec une partie de la presse française
Qwant se veut aussi transparent envers la presse française, avec une partie de laquelle – via l’Alliance de la presse d’information générale (Apig) – un accord a été annoncé le 15 janvier sur les droits voisins, couvrant les moteurs Qwant, Qwant Junior et Lilo. « Ce nouvel accord […] prouve la pertinence de la négociation collective », s’est félicité Pierre Louette, alors président de l’Apig. Cet accord – négocié par la Sacem (12) – définit « les conditions générales de rémunération des contenus, permettant ensuite à chaque éditeur membre de conclure sa propre licence individuelle [avec] sa liberté de négociation » (13). Et ce, alors que le « Chat IA » est disponible depuis le 29 janvier sur Qwant et Lilo. @

Charles de Laubier

La présomption d’exploitation des contenus culturels par les IA reste incertaine voire inconstitutionnelle

La proposition de loi instaurant une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle » a été déposée au Sénat le 12 décembre 2025. Ce projet de texte ne fait pas l’unanimité, ni en France ni au Parlement européen, et soulève des questions.

(La commission juridique du Parlement européen a voté le 28 janvier 2026 pour le rapport de l’eurodéputé Alex Voss, mais expurgé de l’irrebuttable presumption of use).

La proposition de loi instaurant une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle », déposée au Sénat le 12 décembre 2025, sera-t-elle examinée en ce début 2026 ? Rien n’est moins sûr, car ce texte – concocté en plein lobbying d’organisations d’ayants droits et sur recommandation d’une mission du ministère de la Culture conduite par le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – soulève des questions et des réserves de la part des entreprises visées et du gouvernement.

Les deux objectifs poursuivis par le Sénat
Pour les sénatrices Agnès Evren (LR) et Laure Darcos (Indépendants) ainsi que le sénateur Pierre Ouzoulias (communiste/CRCE), qui ont publié le 9 juillet 2025 un rapport d’information intitulé « Création et IA : de la prédation au partage de la valeur » (1), il s’agit d’instaurer une inversion de la charge de la preuve ou tout du moins d’alléger la charge de la preuve pesant sur les ayants droit lorsque ces derniers forment un recours. En clair : ce serait aux entreprises de systèmes d’IA de démontrer qu’elles n’utilisent pas de contenus culturels pour l’entraînement de leurs systèmes d’IA.
« La présomption proposée ici est dite simple ou réfragable [réfutable, pouvant être contredits, ou mis en défaut par un raisonnement ou une preuve, ndlr]. Elle peut donc être renversée par la preuve contraire, c’est-à-dire la démonstration au juge que le ou les contenus n’ont pas été utilisés », justifient les sénateurs emmenés par Laure Darcos (photo). D’autant que pour les auteurs de la proposition de loi, « il serait difficilement audible de soutenir que la charge de la preuve, qui incombe aujourd’hui aux titulaires de droits, alors qu’ils n’ont pas la maîtrise technique de l’outil IA, est trop lourde pour des professionnels de l’exploitation de la donnée ». La proposition de loi vise donc à instaurer cette présomption légale, en poursuivant un double objectif comme (suite) cela est expliqué dans les motifs (2) :
Le premier objectif est de restaurer l’effectivité des droits en allégeant la charge de la preuve. Au lieu de la preuve de l’exploitation d’un contenu culturel pour entraîner un modèle d’IA, quasi impossible à rapporter sans une transparence totale de la part des fournisseurs d’IA, le mécanisme de présomption requiert la preuve d’un fait connu, plus simple à rapporter.
Le second objectif de cette présomption est de dissuader les acteurs de l’intelligence artificielle d’adopter certains comportements ou, à l’inverse, de les inciter à en suivre d’autres. La règle de droit a un effet prophylactique. Aussi, la présomption n’est pas qu’un outil contentieux. Elle a également pour objectif de favoriser l’émergence d’un marché éthique et compétitif, conciliant soutien à l’innovation et préservation de la culture, hors de tout procès, par le simple effet incitatif de la règle.
Mais qu’est-ce que la présomption ? « La présomption est fondée sur la vraisemblance de ce qui advient le plus souvent. Lorsqu’une IA générative produit un contenu à la manière d’un contenu protégé ou dans le style d’un créateur ou d’un auteur, il est vraisemblable qu’elle a utilisé les contenus de ce dernier. Il en est de même lorsque l’IA “régurgite” des extraits ou des éléments d’une œuvre ou d’un objet protégé, lorsqu’elle en développe une analyse, ou lorsqu’il existe des ressemblances entre l’objet protégé et le contenu généré », expliquent les sénateurs pour justifier leur proposition de loi qui inverse la charge de la preuve.
Quoi qu’il en soit, la France devra notifier cette mesure législative à la Commission européenne, via le Tris (Technical Regulation Information System), avant son éventuelle adoption – donc avant l’examen parlementaire. Cette procédure déclencherait alors une période de statu quo de trois mois, durant laquelle le texte ne peut pas être adopté. Selon les constatations de Edition Multimédi@, la base Tris (3) ne fait pas encore état d’une notification de la France sur ce texte.

De Laure Darcos à l’eurodéputé Axel Voss
« Par cette proposition de loi, le législateur français entend être précurseur et susciter un élan auprès de ses partenaires européens pour rééquilibrer le rapport de force entre titulaires de droits et fournisseurs d’IA », assurent les porteurs de la proposition de loi. Le lobbying des ayants droits s’est d’ailleurs intensifié au niveau de de l’Union européenne, où l’idée d’une présomption d’utilisation des contenus culturels par les fournisseurs d’IA est poussée par député européen Axel Voss (photo ci-dessous). Ce démocrate-chrétien allemand – membre de la CDU dans son pays et membre du PPE (4) au Parlement européen – est l’un des principaux architectes des politiques européennes sur le droit d’auteur (ex- rapporteur de la directive droit d’auteur de 2019), la régulation numérique et l’IA, ainsi que sur la protection des données. Il est régulièrement perçu comme proche des positions des ayants droit.

Vote européen incertain le 9 mars 2026
C’est Axel Voss qui suggère au Parlement européen d’introduire le principe de « présomption irréfragable d’utilisation » (irrebuttable presumption of use) de contenus protégés par le droit d’auteur utilisés pour la formation des systèmes d’IA, lorsque les obligations de transparence complètes n’ont pas été pleinement respectées. Porte-parole du PPE au sein de la commission des affaires juridiques (Juri) du Parlement européen, il est l’auteur du rapport « Copyright et IA générative – opportunités et challenges » (5) pour cette dernière qui examine le rapport « Voss » amendé, contenant cette disposition de présomption, en vue d’un vote en plénière prévu initialement le 19 janvier 2026 mais renvoyé au 9 mars. Il recommande à la Commission européenne de « proposer l’établissement d’une présomption irréfragable selon laquelle, pour tout modèle ou système d’IA à usage général (GenAI) mis sur le marché de l’Union, les œuvres et autres objets protégés par le droit d’auteur ou les droits voisins ont été utilisés pour sa formation lorsque les obligations légales de transparence énoncées dans la présente résolution n’ont pas été pleinement respectées » (6). Ainsi, lorsque les fournisseurs ou les diffuseurs d’IA ne font pas preuve d’une transparence complète, cela donne lieu à une présomption irréfragable selon laquelle toute œuvre protégée par un droit d’auteur ou tout autre objet protégé pertinent a été utilisé à des fins de formation (7). Le rapport « Voss » recommande en outre que « lorsqu’un titulaire de droits obtient gain de cause dans une procédure judiciaire, soit sur la base de cette présomption, soit en présentant des preuves, tous les frais de justice et autres dépenses raisonnables et proportionnés engagés […] sont à la charge du fournisseur du modèle ou système d’IA ».
Qu’est-ce que la transparence des systèmes d’IA ? Le rapport « Copyright & GenAI » estime que cette transparence doit consister en « une liste détaillée identifiant chaque contenu protégé par le droit d’auteur utilisé pour la formation » et cette même exigence devrait « s’appliquer mutatis mutandis à toute utilisation ultérieure du contenu à des fins d’inférence, de génération augmentée par récupération ou de fine-réglage non seulement par les fournisseurs de modèles d’IA, comme le stipule [l’AI Act (8)], mais aussi par les fournisseurs ou les déploiements de systèmes d’IA ». Il suggère en outre qu’une telle transparence pourrait être facilitée par un intermédiaire de confiance, tel que l’Office de l’Union européenne pour la propriété intellectuelle (EUIPO), lequel serait chargé d’informer les titulaires de droits de l’utilisation de leur contenu, leur permettant ainsi de faire valoir des revendications en lien avec son utilisation pour la formation des systèmes d’IA (9).
Mais les débats en commission Juri du Parlement européen, avant le vote en plénière le 19 janvier, ont révélé de sérieuses divergences sur le rapport « Voss » et sur les nombreux amendements déposés et consignés le 15 septembre 2025 dans un document de… 193 pages – en lien ici (10), environ 300 selon le rapporteur Axel Voss. Sans préjuger de l’issu des travaux législatifs européens, les titulaires de droits français, eux, se sont réjouis le 17 décembre 2025 du dépôt au Sénat de la proposition de loi « Présomption d’exploitation des contenus culturels par les fournisseurs de systèmes d’IA » : « Ce dépôt s’inscrit dans la droite ligne de l’impulsion donnée par la ministre de la Culture, Rachida Dati, depuis son arrivée rue de Valois en matière de défense du droit d’auteur et des droits voisins, en venant traduire l’une des principales recommandations de la mission confiée par le CSPLA à la professeure Alexandra Bensamoun (11) sur la rémunération des contenus culturels utilisés par les systèmes d’intelligence artificielle (volet juridique) », ont acclamé une quinzaine d’organisations professionnels (12) telles que la SACD (13), la Sacem (14), l’Apig (15), la Scam (16) ou encore le SNE (17). Mais cette présomption légale d’exploitation des contenus culturels par les IA génératives soulève des questions constitutionnelles au regard du droit français.

La présomption IA : anticonstitutionnelle ?
C’est ce que se demande Vincent Fauchoux, avocat associé chez Deprez Guignot Associés (DDG), et président de l’International Law Association for Artificial Intelligence (ILAAI). « Si la jurisprudence constitutionnelle admet le recours à des présomptions légales, c’est à la condition qu’elles soient réfragables, proportionnées à l’objectif poursuivi et qu’elles ne portent pas une atteinte excessive aux droits de la défense, à la présomption d’innocence et à la liberté d’entreprendre. […] L’avenir normatif de cette proposition apparaît, à tout le moins, incertain », prévient-il dans une note juridique publiée le 19 décembre (18). Les start-up françaises de l’IA, Mistral AI en tête, s’inquiètent d’une telle mesure, tandis que les ministères de la Culture et du Numérique s’interrogent sur la viabilité juridique de cette présomption IA. @

Charles de Laubier

Artistes et auteurs interpellent le Sommet de l’IA

En fait. Le 21 janvier, six organisations d’artistes et d’auteurs – Sacem, Scam, Adami, Spedidam, ADAGP et SGDL – ont demandé à leurs quelque 363.700 membres de signer une « tribune collective » pour interpeller les chefs d’Etat et dirigeants qui se réuniront les 10 et 11 février au Sommet de l’IA à Paris.

En clair. Selon les informations de Edition Multimédi@, six organisations d’artistes, d’auteurs, de compositeurs, de créateurs ou encore d’éditeurs ont écrit le 21 janvier à leurs membres respectifs, soit à environ 363.700 au total, pour leur demander de signer une « tribune collective » afin de « faire entendre [leur] voix » lors du Sommet pour l’action sur l’intelligence artificielle (IA) qui se tiendra les 10 et 11 février à Paris à l’initiative de l’Elysée.
« Il est de notre devoir de nous mobiliser pour défendre les droits des créateurs et veiller à ce que les politiques publiques, ainsi que les grandes entreprises d’IA, respectent et valorisent nos contributions », justifie Patrick Sigwalt, président du conseil d’administration de la Société des auteurs, compositeurs et éditeurs de musique (Sacem). Ses membres ainsi que ceux de la Société civile des auteurs multimédias (Scam), de l’Administration des droits des artistes et musiciens interprètes (Adami), de la Société de gestion des droits des artistes interprètes (Spedidam), de la Société des auteurs dans les arts graphiques et plastiques (ADAGP) et de la Société des gens de lettres (SGDL) avaient jusqu’à ce 3 février pour signer cet « appel commun ». Il s’agit d’interpeller les (suite)

centaines de chefs d’Etat et de gouvernement, d’universitaires ou encore de dirigeants d’entreprises qui seront présents à ce 3e Sommet sur l’IA pour, écrit Patrick Sigwalt (1), « demander des mesures claires pour préserver nos droits face à l’IA ».
Orchestré par Emmanuel Macron (lire en Une), ce sommet diplomatique sur l’IA sera donc interpellé sur le copyright et l’opt-out (2), notamment le week-end du 8 et 9 février consacré à la culture et l’IA justement (3). Ensemble, auteurs et artistes souhaitent que « [ce sommet] se penche sur la question centrale du droit d’auteur et des droits voisins », tout en précisant que « [leur] démarche ne s’inscrit pas dans une opposition inévitablement stérile entre les acteurs de l’IA et ceux de la culture ». Cette tribune va rappeler que « l’utilisation sans [leur] consentement de [leur] talent et de [leur] travail pour l’entraînement de l’IA générative représente une atteinte inacceptable au respect de [leurs] œuvres et de [leur] travail artistique ». Ils pointeront également l’absence de « contrepartie financière » en l’absence d’autorisation et un « risque de substitution » induit par les contenus générés par l’IA. @

La société DStorage continue de défendre la licéité de son service d’hébergement 1fichier.com

La société DStorage, fondée il y a 15 ans par son actuel PDG Nessim Yohan Tordjman, défend inlassablement la légalité de son service d’hébergement 1fichier.com qualifié à tort de « site illicite ». Dernière action en date : un droit de réponse publié par l’Alpa dans la dernière étude de Médiamétrie. La société vosgienne DStorage fête ses 15 ans, ayant été créée le 9 avril 2009 par son PDG Nessim Yohan Tordjman, un ancien administrateur systèmes et réseaux de chez Free durant dix ans. Elle exploite notamment le site d’hébergement 1fichier.com, qui est souvent désigné depuis plus de dix ans comme « site illicite » ou « site illégal » par les ayants droit. Mais que cela soit devant la justice ou auprès des médias, DStorage ne cesse de défendre la légalité de son service de stockage. « Pas plus illicite que Wetransfer ou Google Drive » Ce fut encore le cas fin mars, DStorage ayant obtenu de l’Association de la lutte contre la piraterie audiovisuelle (Alpa) un « droit de réponse » qui, selon les constatations de Edition Multimédi@, a été inséré dans sa dernière étude « Audience des sites illicites dédiés à la consommation vidéo en France ». Celle-ci montre l’évolution du piratage audiovisuel sur Internet de décembre 2021 à décembre 2023. Cette étude mise en ligne le 7 mars dernier a été commanditée auprès de Médiamétrie par l’Alpa, présidée depuis plus de 20 ans par Nicolas Seydoux (photo). Le site 1fichier.com y est désigné comme étant en tête du « Top 10 » des « sites illégaux les plus utilisés », avec plus de 1,3 million de visites uniques sur le mois de décembre 2023, devant Yggtorrent.qa (0,65 million) ou encore Wawacity.autos (0,5 million). Toujours en décembre 2023, 1fichier.com dépasse même le site légal Paramount+ en termes d’audience. Le droit de réponse est apparu dans l’étude quelques jours après sa publication, soit fin mars (1), à la demande de l’avocat de la société DStorage, Ronan Hardouin. « La société DStorage souhaite attirer l’attention du lecteur de cette étude sur les largesses de qualification juridique que s’autorise l’Alpa en ciblant le service de cloud storage 1fichier.com comme un site illicite. Le service 1fichier.com n’est pas plus illicite que les services de cloud storage comme Wetransfer ou Google Drive. Il ne peut être assimilé à des fermes de liens », assure l’entreprise de Nessim Yohan Tordjman. Et son droit de réponse de poursuivre : « Aucune juridiction n’a d’ailleurs considéré 1fichier.com comme un service illicite malgré les tentatives d’ayants droit appuyant leurs prétentions en étroite collaboration avec l’Alpa. Les efforts de la société DStorage dans la lutte contre les contenus illicites ne peuvent ainsi être éludés : procédure de retrait des contenus – interdiction d’utiliser le service pour porter atteinte aux droits de propriété intellectuelle de tiers ». Le droit de réponse de la société vosgienne se termine ainsi : « Le service 1fichier.com est donc un service d’hébergement licite soumis au régime de responsabilité limitée prévu par la loi pour la confiance dans l’économie numérique [la LCEN de 2004, ndlr] et ne peut être qualifié de manière discrétionnaire par l’Alpa de “site illicite” ». A noter qu’une autre demande d’exercice d’un droit de réponse avait parallèlement été envoyé au directeur de la publication de Edition Multimédi@, qui, dans son n°318 daté du 25 mars, avait mentionné 1fichier.com comme étant, d’après Médiamétrie, un « site illégal » (2). « La société DStorage, qui dispose d’un siège social en France, prohibe dans ses conditions d’utilisation (3) tout usage portant atteinte aux droits de propriété intellectuelle et informe depuis ses pages sur les conditions de retrait d’un contenu », nous a notamment précisé Me Ronan Hardouin. Or, dans la nouvelle étude à janvier 2024 parue en avril, le droit de réponse n’apparaît plus ni la mention « sites illégaux » (4). Cette mise au point n’est pas la première pour DStorage qui a eu maille à partir avec l’ancienne Hadopi (fondue depuis dans l’Arcom), mais aussi depuis quelques années avec la justice. Devant les tribunaux, la société domiciliée à La Chapelle-aux-Bois (Grand-Est) revendique à chaque fois son statut d’hébergeur « à responsabilité limitée » consacré par la loi française LCEN de 2004, laquelle a transposé il y a 20 ans maintenant la directive européenne « E-commerce » de 2000 qui protège les hébergeurs. Affaires « Nintendo » et « Nancy » en cassation Ainsi, DStorage a croisé le fer judiciaire à Nancy en 2021 avec les membres de l’Alpa (audiovisuel et cinéma), la Fédération nationale des éditeurs de films (FNEF), la Société des auteurs, compositeurs et éditeurs de musique (Sacem) ou encore la Société civile des producteurs phonographiques (SCPP). Dans un arrêt daté du 25 septembre 2023, la cour d’appel de Nancy a condamné DStorage. Avec Nintendo cette fois, la cour d’appel de Paris a confirmé – dans un arrêt du 12 avril 2023 – la condamnation de DStorage. Dans ces deux affaires, Me Ronan Hardouin nous indique que la société DStorage s’est pourvue en cassation. Et depuis 2015, la société vosgienne se bat contre la Société Générale qui l’avait bannie pour « contrefaçon » sur les signalements de l’éditeur indien Zee Entertainment. Cette affaire suit aussi son cours. @

Charles de Laubier

Les enjeux du droit d’auteur à l’ère de l’intelligence artificielle (IA) : entre exceptions et interprétations

La propriété intellectuelle est entrée dans une zone de turbulences provoquées par les IA génératives. L’utilisation d’œuvres reste soumise à l’autorisation des auteurs, mais le droit d’auteur est limité dans certains cas comme la fouille de textes et de données. L’AI Act sera à interpréter.

Par Jade Griffaton et Emma Hanoun, avocates, DJS Avocats*

La récente législation européenne sur l’intelligence artificielle (IA) – l’AI Act dans sa dernière version de compromis final datée du 26 janvier 2024 (1) (*) (**) – adopte une définition flexible de « système d’IA », désigné comme « un système basé sur des machines conçues pour fonctionner avec différents niveaux d’autonomie et d’adaptabilité après leur déploiement et qui, à partir des données qu’il reçoit, génère des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels » (2).

Exception de « fouille de textes et de données »
La question de la relation entre le droit de la propriété littéraire et artistique et l’IA est une préoccupation ancienne. Lors de la phase d’entraînement, le système d’IA reçoit des données. A ce stade, se pose la question de l’intégration de contenus protégés par le droit d’auteur aux fins du développement du système. Lors de la phase de génération, le système d’IA génère des résultats, voire des créations, à la demande de l’humain. Se pose alors la question de l’encadrement juridique de ces créations générées, en tout ou partie, par un système d’IA. Ces problématiques juridiques actuelles doivent être envisagées à la lumière des nouveaux textes destinés à réguler le domaine de l’IA, et notamment la récente proposition de règlement européen sur l’IA, et la proposition de loi française visant à encadrer l’utilisation de l’IA par le droit d’auteur (3).
De nouveaux contours de la possibilité d’utiliser des œuvres pour entraîner l’IA ? Les systèmes d’IA ont besoin, au stade de leur apprentissage et développement, d’avoir accès à de grands volumes de textes, images, vidéos et autres données. Ces contenus sont susceptibles d’être protégés par le droit d’auteur. L’objectif principal du règlement IA, dévoilé en 2021 par la Commission européenne, consiste à réguler les systèmes d’IA introduits sur le marché européen, en adoptant une approche axée sur les risques et en assurant un niveau élevé de protection des droits fondamentaux, de la santé publique, de la sécurité et de l’environnement.

Ainsi, l’AI Act n’a pas vocation à traiter les questions relatives au droit d’auteur. Et pourtant, il n’ignore pas totalement leur importance en présence d’un système d’IA. A ce propos, le règlement renvoie à une exception – au principe d’obtention d’une autorisation de l’auteur pour toute utilisation de son œuvre – issue du droit de l’Union européenne (UE), celle de la fouille de textes et de données (text and data mining ou TDM). Cette exception – non spécifique aux systèmes d’IA – permet, semble-t-il, de justifier juridiquement l’utilisation de contenus protégés par le droit d’auteur en dispensant les opérateurs d’IA d’obtenir l’autorisation des auteurs qui ne se sont pas opposés expressément. Elle n’est pas nouvelle. C’est la directive européenne « Droit d’auteur et les droits voisins dans le marché unique numérique » de 2019 (4) qui a voulu rendre obligatoire pour les Etats membres de prévoir une exception aux droits de reproduction d’une œuvre et d’extraction d’une base de données, à des fins d’utilisation de technologies de fouille de textes et de données – technologies qui permettent une analyse informatique automatisée de textes, sons, images ou données sous forme numérique, en grande quantité, en vue d’acquérir de nouvelles connaissances. En y faisant ce renvoi, la proposition de règlement confirme, semble-t-il, que cette exception s’applique aux systèmes d’IA mais n’apporte aucune nouveauté en la matière. La proposition de loi française – dont l’objet même est, contrairement à la proposition européenne, d’encadrer l’IA par le droit d’auteur – envisage d’incorporer dans le code de propriété intellectuelle (CPI), au sein de l’article L.131-3, un alinéa prévoyant que l’intégration d’œuvres protégées par le droit d’auteur dans le système d’IA est soumise « à une autorisation par les auteurs ». Une telle formulation – « L’intégration par un logiciel d’intelligence artificielle d’œuvres de l’esprit protégées par le droit d’auteur dans son système et a fortiori leur exploitation est soumise aux dispositions générales du présent code et donc à autorisation des auteurs ou ayants droit » (5) – pourrait recevoir diverses interprétations.

Question de l’« autorisation des auteurs »
L’intégration des œuvres dans un système d’IA est un nouveau mode d’exploitation que la proposition semble avoir voulu prendre en compte. Doit-on comprendre que l’intégration dans une IA est une forme de reproduction de l’œuvre à laquelle s’applique, comme pour toutes formes de reproduction, l’exception de fouilles de textes et de données ? Dans ce cas, le régime actuel est inchangé : donc, les développeurs d’IA peuvent encore intégrer des œuvres à la phase d’entraînement, sauf opposition des auteurs. Doit-on plutôt comprendre que cette formulation veut rompre avec le régime actuel en consacrant expressément une exigence d’obtention d’autorisation de auteurs en écartant l’exception de fouilles de textes et de données ? Dans ce cas, le nombre d’œuvres pouvant être intégrées dans les systèmes d’IA serait réduit à celles dont une autorisation a été donnée, et non celles ne faisant pas l’objet d’opposition. La première interprétation semble la plus appropriée, notamment eu égard à la formulation de l’alinéa précisant que « [l’intégration] est soumise aux dispositions générales du présent code et donc à autorisation des auteurs », et à sa place dans le CPI (6).

Pays de « common law » et pays de « civil law »
Nouvelle exigence de transparence lorsque des œuvres sont utilisées par l’IA. La proposition AI Act, bien qu’elle n’ait pas vocation à traiter de la question du droit d’auteur, exige des fournisseurs de systèmes d’IA une certaine transparence lorsque des contenus protégés par un droit d’auteur ont été utilisés au stade du développement dudit système. En effet, le texte contraint les fournisseurs de modèles d’IA à finalité générale (« general purpose IA models ») à mettre en place une politique pour respecter le droit d’auteur de l’UE, et à rendre public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à finalité générale (7). La mise en place de la politique aurait pour objectif d’identifier et respecter les réservations de droits – ou oppositions – au titre de l’exception de fouilles de textes et de données.
La publication du résumé suffisamment détaillé devrait se faire à partir d’un modèle publié par l’Office de l’intelligence artificiel (OIA, ou AI Office), organe instauré par la proposition de législation. Il aurait pour objet – sans être techniquement détaillé – « par exemple d’énumérer les principales collections ou ensembles de données qui ont servi à la formation du modèle, tels que les grandes bases de données privées ou publiques ou les archives de données, et en fournissant une explication narrative sur les autres sources de données utilisées » (8). De telles exigences en termes de transparence témoignent de la prise en compte des exigences posées par le droit d’auteur. D’autant que le règlement IA prévoit que les obligations de transparences ne s’appliquent pas aux fournisseurs de systèmes d’IA rendant accessibles au public, sous licence libre ou ouverte, les modèles d’IA (9) sauf celles liées au droit d’auteur. Sortir les exigences de transparence liées au droit d’auteur de l’exception générale témoigne encore de leur importance.
Vers une remise en cause de la non-« protégeabilité » des créations issues d’un système d’IA ? Alors que les pays de « common law » comme le Royaume Uni et les Etats-Unis admettent la « protégeabilité » des œuvres générées par des machines (10) – notamment parce que l’œuvre est placée au centre et les auteurs obtiennent une protection indirecte à travers la protection directe de la propriété créée –, les pays de « civil law » ont tendance à refuser qu’une œuvre au sens juridique du terme puisse être créée par une machine dès lors que la protection est attachée directement à la personne de l’auteur. Traditionnellement, l’originalité s’entend en droit français et européen de l’empreinte de la personnalité de l’auteur en manifestant ses choix libres et créatifs (11). Une telle conception exclut a priori toute originalité d’une œuvre conçue par une IA du fait du défaut de personnalité de l’IA. Si, le règlement IA ne traite pas de la question de la « protégeabilité » des « créations » générées par l’IA, la proposition de loi française, a contrario, tente de plonger au cœur du sujet. Elle envisage d’intégrer au sein de l’article L.321-2 du CPI le cas précis d’une « œuvre créée par une intelligence artificielle sans intervention humaine directe » (12). Par cette disposition, le droit français semble admettre qu’une œuvre puisse être créée par une machine, et non un être humain. Dans ce cas, la proposition de loi désigne comme titulaires des droits, non pas les personnes ayant développé le système ou ayant commandé la création à la machine, mais les auteurs des œuvres intégrées au système d’IA lors de la phase d’entraînement.
L’œuvre serait-elle alors empreinte de la personnalité des auteurs des œuvres premières ayant servi à entraîner le système d’IA ? Ces auteurs seraient à la fois titulaires de droits sur leur œuvre première – sans difficulté – et de droits sur les œuvres générées par l’IA lorsque leur œuvre première aurait été exploitée au stade de développement de l’IA. La problématique qui se pose d’emblée en pratique est celle de la multitude de titulaires d’une œuvre générée par un système d’IA. La proposition de loi envisage alors que les droits soient gérés par des organismes de gestion collective (comme la Scam ou la Sacem) qui percevront la rémunération ou une taxation versée par la société qui exploite le système d’IA lorsque l’œuvre est engendrée par l’intégration d’œuvres dont l’origine ne peut être déterminée. La proposition de loi exige aussi que soit apposée la mention « Œuvre générée par IA » et inséré le nom des auteurs des œuvres premières.

Protection des œuvres générées par l’IA
En revanche, la protection accordée aux œuvres générées par l’IA ne semble pas aussi complète que celle accordée aux œuvres « classiques » : la proposition de loi française ne traite pas plus du droit moral ni des autres droits patrimoniaux que de celui de la rémunération juste et équitable des auteurs. Peut-être que cela s’explique par l’ambition de la proposition de loi « Encadrer l’intelligence artificielle par le droit d’auteur » de garantir une rémunération juste et équitable de l’exploitation des œuvres et de garantir une traçabilité des auteurs et artistes. Il reste à voir comment seront appréhendées en pratique de telles évolutions juridiques. @

* Article écrit avec la collaboration
de Camille Rodriguez, DJS Avocats