Entraînement de modèles d’IA grâce aux données collectées par web scraping : les règles à suivre

Les plaintes à l’encontre de fournisseurs de systèmes d’IA se multiplient, que ce soit pour violation des droits de propriété intellectuelle ou pour manquements en matière de données à caractère personnel, notamment en lien avec leurs pratiques de collecte de données en ligne (web scraping).

Par Sandra Tubert et Laura Ziegler avocates associées, Algo Avocats

Afin de développer un système d’intelligence artificielle (IA) performant, il est nécessaire d’entraîner en amont les modèles qui le composent au moyen de vastes ensemble de données. Constituer ces ensembles de données d’entraînement représente donc un enjeu majeur pour les fournisseurs de systèmes d’IA. Plusieurs alternatives s’offrent à eux : utiliser les bases de données dont ils disposent en interne ; obtenir des licences auprès de titulaires de droits de propriété intellectuelle sur des contenus pertinents ; ou recourir au web scraping pour récupérer des données accessibles en ligne sur différents sites Internet.

Exception de Text and Data Mining
Cette troisième option, le web scraping (« moissonnage des données »), a connu un essor important ces dernières années. Pour autant, bon nombre d’acteurs récupèrent des données en ligne pour entraîner leurs modèles sans appréhender tous les enjeux et problématiques qui y sont attachés. Alors que plusieurs plaintes ou enquêtes d’autorités visent des fournisseurs de modèles d’IA à usage général pour des allégations de violation des droits de propriété intellectuelle ou de manquements au règlement général sur la protection des données (RGPD), l’entrée en vigueur prochaine du règlement européen sur l’intelligence artificielle – l’AI Act dont le texte final (1) a été signé le 13 juin 2024 – pourrait mettre en évidence les problématiques entourant les sources de données utilisées pour entraîner les modèles.

En effet, l’article 53 et l’annexe XI de l’AI Act imposent, entre autres, aux fournisseurs de modèles d’IA à usage général (2) de mettre à disposition des informations sur les données utilisées pour l’entraînement de ces modèles, au moyen d’un document-type qui sera mis à disposition par le bureau de l’IA (AI Office). Ils doivent notamment indiquer comment ces données ont été obtenues et sélectionnées, ainsi que toutes les mesures prises pour détecter les sources de données inadéquates. Pour pouvoir se conformer de manière sereine à ces nouvelles exigences (3), il est indispensable de s’assurer que les données d’entraînement ont été récupérées et collectées dans le respect des droits de propriété intellectuelle et du RGPD, sous peine de risquer des actions en contrefaçon ou des procédures de sanction devant les autorités de contrôle (4). En effet, le contenu d’un site Internet qu’un acteur entend scrapper (« moissonner ») pour constituer une base de données d’entraînement peut à la fois contenir des données à caractère personnel, mais également être protégé au titre du droit d’auteur (5) ou du droit des bases de données (6). Or, par principe, toute reproduction et utilisation d’un contenu protégé par un droit de propriété intellectuelle nécessite d’obtenir l’autorisation du titulaire des droits concernés. Néanmoins, afin de favoriser le développement de l’IA, le code de la propriété intellectuelle (CPI) a introduit, pour le droit d’auteur et le droit des producteurs de bases de données, les exceptions de fouilles de textes et de données (dites de Text and Data Mining) qui permettent de scrapper des données à des fins d’entraînement des modèles, sous réserve de respecter un certain nombre de conditions. Il y a en réalité deux régimes : la fouille de textes et de données à des fins de recherche scientifique (7) et celle à des fins diverses (8).
L’exception de fouille à des fins de recherches scientifique présente l’avantage d’être un droit absolu (le titulaire des droits ne peut pas s’y opposer), sous réserve que l’accès aux données soit réalisé de manière licite (9). Néanmoins, son périmètre est relativement restreint puisque seuls peuvent s’en prévaloir certains acteurs limitativement énumérés (10). La plupart des fournisseurs de systèmes d’IA ne peut donc pas mobiliser cette exception et doit se rabattre sur l’exception générale dite à des fins diverses. Pour pouvoir invoquer le bénéfice de cette exception générale, le fournisseur de système d’IA doit accéder aux données de manière licite et s’assurer que le titulaire des droits de propriété intellectuelle ne s’y est pas opposé.

« Moissonnage » et données personnelles
Les textes précisent que l’opposition du titulaire des droits « n’a pas à être motivée et peut être exprimée par tout moyen », notamment « au moyen de procédés lisibles par machine, y compris des métadonnées, et par le recours à des conditions générales d’utilisation » (11). Pour l’opposition via des procédés techniques, plusieurs outils existent (Robot.txt, AI.txt, TDMRep, …). En pratique, cela signifie que pour pouvoir scrapper les données des sites Internet à des fins d’entraînement des modèles, les fournisseurs de systèmes d’IA ne doivent pas contourner les éventuels dispositifs de protection existants (par exemple un accès restreint par un compte utilisateur) et doivent s’assurer, au moment de l’extraction des données, que les conditions générales d’utilisation (CGU) et/ou mentions légales du site Internet ne contiennent pas de clause interdisant l’extraction des données et que les métadonnées du site Internet n’expriment pas non plus une telle interdiction. L’AI Act confirme ce dernier point (12).
Lorsqu’un titulaire de droits s’est opposé à l’extraction de ses données, le fournisseur de système d’IA n’a d’autre choix que d’obtenir une autorisation expresse (13) au moyen d’un accord de licence ou de partenariat, comme ont récemment pu le faire OpenAI avec Le Monde, Die Welt et El País (14). Une fois ces vérifications opérées, le fournisseur de système d’IA devra suivre des étapes supplémentaires si le contenu qu’il souhaite « moissonner » contient des données à caractère personnel, afin de respecter le RGPD.

Base légale de l’intérêt légitime
Ces derniers mois, la Cnil a publié plusieurs fiches pour guider les fournisseurs de systèmes d’IA (15) au sein desquelles elle clarifie comment appliquer les principes clefs aux spécificités de l’IA. Elle y admet qu’il est possible de fonder les traitements d’entraînement des modèles d’IA sur la base légale de l’intérêt légitime, notamment lorsque les données sont collectées à partir de sources publiques (16), sous réserve de mener une analyse au cas par cas permettant de documenter la légitimité de l’intérêt poursuivi, sa nécessité et le fait qu’il n’y a pas d’atteinte disproportionnée aux intérêts, droits et libertés des personnes. Pour autant, en juin 2024, Noyb a porté plainte – auprès de onze « Cnil » en Europe – contre Meta dont il conteste la faculté de se fonder sur l’intérêt légitime pour récupérer les données de Facebook et Instagram afin d’entraîner ses modèles d’IA. Dans l’attente, Meta a stoppé son projet (17).
La première étape avant de scrapper des données à caractère personnel est de définir la finalité du traitement, à partir de laquelle l’analyse de conformité aux principes de protection des données personnelles pourra être réalisée. A partir de cette finalité (créer une base de données afin d’entraîner des modèles d’IA permettant d’évaluer l’appréciation d’œuvres par le public, développer un LLM capable de répondre à des questions, générer du texte, effectuer des résumés, etc,…), le fournisseur de modèles d’IA devra s’assurer du respect du principe de minimisation, en ne collectant que les données pertinentes et nécessaires pour atteindre son objectif. Concrètement, cela signifie qu’il doit s’interroger en amont sur les catégories de données nécessaires pour l’entraînement du modèle d’IA. En pratique, il devra définir les catégories de données à collecter et mettre en place des filtres permettant d’exclure la collecte de certaines données. Dans sa fiche dédiée au web scraping (18), la Cnil précise que dans l’hypothèse où des données non pertinentes seraient collectées malgré les filtres mis en place, il convient de supprimer ces données, immédiatement après leur collecte ou dès elles ont été identifiées. Elle appelle également à la prudence sur la collecte automatique de données sensibles en invitant les fournisseurs à appliquer des filtres permettant d’écarter la collecte de données sensibles (19) non pertinentes ou à exclure de leurs activités de scraping certains sites comportant par nature ce type de données.
Respecter le RGPD suppose, par ailleurs, d’informer les personnes concernées et de faciliter l’exercice de leurs droits. La Cnil reconnaît (20) qu’en cas de collecte parweb scraping, une information individuelle des personnes pourrait, dans certains cas, être disproportionnée et donc non obligatoire. Elle recommande alors au fournisseur du système d’IA de fournir une information générale (par exemple au sein de sa politique de confidentialité) contenant notamment les catégories de sites sources utilisés avec des liens hypertextes vers ceux-ci, en proposant un modèle dédié. Pour les droits des personnes, elle rappelle qu’un responsable du traitement n’a pas à conserver ou collecter des informations supplémentaires qui ne lui sont pas nécessaires dans le seul but de permettre l’exercice des droits. La Cnil propose néanmoins des exemples de mesures que les fournisseurs de modèles d’IA pourraient mettre en place pour faciliter l’exercice des droits (comme la conservation de métadonnées ou d’informations sur la source des données pour faciliter la recherche d’une personne au sein de la base ou l’indication aux personnes des données à fournir pour les identifier).
La Cnil propose enfin de mettre en place des mesures supplémentaires pour garantir l’équilibre attendu de ces traitements basés sur l’intérêt légitime. Certaines mesures découlant des règles précédemment citées semblent réalisables : exclure par défaut la collecte à partir de certains sites contenant des données intrusives ; prévoir la possibilité de s’opposer au traitement de manière discrétionnaire ; appliquer des procédés d’anonymisation ou de pseudonymisation après la collecte des données. D’autres semblent moins pragmatiques.

AI Office : recommandations très attendues
Certains acteurs pourraient ainsi saisir l’opportunité de remonter leurs questionnements, difficultés pratiques, appréciation des règles dans le cadre de la consultation publique à laquelle sont soumises certaines fiches jusqu’au 15 septembre 2024 (21) ou répondre au questionnaire (22). A l’aune de l’entrée en vigueur de l’AI Act, les fournisseurs de modèles d’IA à usage général attendront donc les précieuses recommandations et modèles du bureau de l’IA, tout récemment créé (23), sur les documents à produire pour les sources de données d’entraînement, afin de leur permettre d’engager les travaux nécessaires à la compilation de ces informations. @

Vie privée : comment l’IA de Bercy traque les fraudeurs du fisc jusque sur les réseaux sociaux

Du 23 mai au 6 juin 2024, les Français doivent déclarer leur impôts (revenus, immobilier, …). C’est l’occasion pour Edition Multimédi@ de faire le point sur l’utilisation de l’intelligence artificielle (IA) par le gouvernement dans sa lutte contre la fraude fiscale — jusque sur les réseaux sociaux.

Le Premier ministre Gabriel Attal (photo de gauche) en avait fait son cheval de bataille lorsqu’il était encore ministre délégué chargé des Comptes publics : la lutte contre la fraude fiscale, sociale et douanière. Et depuis son entrée à Matignon le 9 janvier 2024, il continue de suivre de près cette traque aux fraudeurs que son successeur Thomas Cazenave (photo de droite) intensifie grâce à l’IA et aux réseaux sociaux. « Contre la fraude fiscale, je m’étais engagé à renforcer les moyens humains : 281 agents ont été recrutés l’an dernier, et 350 supplémentaires le seront en 2024 », avait assuré Gabriel Attal lors de la présentation le 20 mars dernier du plan de lutte contre les fraudes aux finances publiques (1).

Traque aux bâtis et piscines non déclarés
Le plus jeune Premier ministre de la Ve République (35 ans) a aussi garanti qu’« en 2027, nous aurons recruté [1.500 agents supplémentaires dédiés à la lutte contre la fraude fiscale], 1.000 agents sur la fraude sociale, formé 450 cyber enquêteurs, [redéployé 100 équivalents temps pleins sur le contrôle douanier du e-commerce],et investi plus de 1 milliard d’euros pour moderniser nos outils numériques de détection et de lutte contre les fraudes » (2). Le plan de lutte contre la fraude aux impôts se dote d’un Office national anti-fraude aux finances publiques (ONAF), dont la création a été actée par décret du 18 mars. Issu en fait de la transformation du service d’enquête judiciaire et fiscal (SEJF), ce « service à compétence nationale » est notamment chargé de « recueillir, centraliser et exploiter tout renseignement ou information entrant dans son domaine d’intervention à des fins stratégiques, opérationnelles ou documentaires » (3).
Ce bras armé de Bercy et de sa Direction générale des finances publiques (DGFiP) sera « pleinement opérationnel dès le 1er juillet » prochain pour mener des enquêtes et des poursuites judiciaires, le nombre d’officiers judiciaires devant doubler d’ici l’année prochaine à 80 agents.

Parmi les outils numériques déployés pour traquer les mauvais payeurs, l’IA appliquée aux réseaux sociaux figure en bonne place. Google et Capgemini sont mis à contribution depuis 2021 pour mettre en scène l’IA et le data mining au service des agents du fisc qui utilisent un logiciel issu de ce partenariat. Le premier apporte « l’infrastructure “cloud” ainsi que ses services pour les prestations de développement des modèles d’intelligence artificielle, qui s’appuient sur les briques technologiques développées open source »(dixitla DGFiP), et le second déploie son expertise en « intelligence de la donnée » via l’Union des groupements d’achats publics (Ugap), la centrale d’achat publique française. Cette détection des fraudes par l’IA consiste concrètement à « extraire les contours des immeubles bâtis ainsi que des piscines » sur la base des images aériennes publiques de l’IGN (4). Le traitement informatique dopé à l’IA vérifie si les éléments ainsi détectés sur les images sont correctement imposés aux impôts directs locaux comme la taxe foncière. Sinon, un courrier de demande de régularisation est envoyé aux propriétaires indélicats. « L’administration fiscale a désormais la maîtrise des modèles algorithmiques d’intelligence artificielle développés ainsi que leur propriété intellectuelle », se targue la DGFiP. Ce dispositif intelligent baptisé « Foncier innovant » (5) a montré son efficacité lors d’un premier bilan de « l’IA au service de la lutte contre la fraude » (6) établi en août 2022, et a donc été généralisé l’an dernier à l’ensemble de la France métropolitaine (7). Et ce, pour deux ans consentis par la loi de finances 2024 malgré les fortes réserves de la Cnil (8). A mars 2024, l’IA a permis de repérer 140.000 piscines non déclarées et de récupérer 40 millions d’euros pour les collectivités locales.
La traque à la fraude fiscale à l’ère du numérique prend aussi de l’ampleur sur les réseaux sociaux où bon nombre de Français exposent leur train de vie. Des entreprises fraudeuses sont aussi repérées en ligne. « Nous avons également pérennisé et étendu le webscrapping, c’est-à-dire l’utilisation de données sur les réseaux sociaux, ce qui nous permet notamment de contrôler l’exercice d’activités occultes non déclarées », a expliqué pour sa part Thomas Cazenave lors du bilan printanier (9).

L’Etat déficitaire récupère des milliards
Le ministre délégué chargé des Comptes publics (10) a indiqué que la DGFiP est habilitée à « mener des enquêtes sous pseudonyme », à travers le déploiement de cyber enquêteurs. Ce sont ainsi près de 800 agents qui pourront cyber-enquêter, épaulés par 50 agents habilités à s’infiltrer auprès des fraudeurs sur Internet. L’année 2024 pourrait battre un nouveau record historique de redressement fiscaux, par rapport au précédent de 2023 qui avait rapporté 15,2 milliards d’euros dans les caisses de l’Etat déficitaire. Auxquels se sont ajoutés 1,2 milliard d’euros de redressements Urssaf. @

Charles de Laubier