TikTok n’est plus censuré en Nouvelle-Calédonie, mais la décision de son blocage reste contestée

« La censure de TikTok en Nouvelle-Calédonie […] semble illégale », titrions-nous dans Edition Multimédi@ n°322 daté du 27 mai. Le même jour, La Quadrature du Net déposait devant le Conseil d’Etat – lequel a rejeté le 23 mai son précédent recours – un recours en excès de pouvoir cette fois.

« Bien que le blocage de TikTok soit levé [depuis le 29 mai 2024, ndlr], le précédent politique et juridique existe désormais. Nous pensons qu’il faut tout faire pour que celui-ci ne se reproduise pas et reste un cas isolé. Que ce soit par la Cour européenne des droits de l’homme ou par le Comité des droits de l’homme des Nations unies, ce type de censure est unanimement condamné. Nous ne pouvons donc pas laisser le Conseil d’Etat se satisfaire de ce blocage et devons exiger de lui qu’il rappelle le droit et sanctionne le gouvernement », a expliqué le 5 juin La Quadrature du Net (LQDN), l’association de promotion et de défense des libertés fondamentales dans l’environnement numérique.

Recours d’urgence versus mesure d’urgence
Le recours de près d’une trentaine de pages (1) daté du 27 mai 2024 et signé par Alexis Fitzjean Ó Cobhthaigh (photo), avocat au barreau de Paris, demande au Conseil d’Etat d’annuler la décision attaquée, à savoir celle prise le 14 mai dernier par le Premier ministre qui a ordonné le blocage de TikTok sur l’ensemble de la Nouvelle-Calédonie. Et ce, dans un contexte de sérieux troubles sur l’archipel où l’état d’urgence avait été décrété – pour douze jours légaux maximum – le 15 mai et l’armée déployée pour sécuriser les ports et aéroport de Nouvelle-Calédonie (2). De nombreuses voix se sont exprimées sur le réseau social en Nouvelle-Calédonie contre la réforme constitutionnelle visant à élargir le corps électoral de ce territoire, projet contesté par les indépendantistes. Des émeutes et des violences ont eu lieu.
Le blocage sans précédent en France (tous territoires confondus) avait aussitôt été attaqué en justice par deux organisations, La Quadrature du Net (LQDN) et la Ligue des droits de l’homme (LDH), ainsi que par trois Néo-Calédoniens. Ces premiers recours distincts en urgence devant le Conseil d’Etat avaient été déposés le 17 mai. Le juge des référés de la haute juridiction administrative avait ensuite le 21 mai donné 24 heures au gouvernement pour apporter les preuves écrites et/ou visuelles (images, vidéo, …) pouvant justifier le blocage de TikTok pour des raisons en rapport avec des « actes de terrorisme ». Le Premier ministre Gabriel Attal pourrait-il vraiment s’appuyer sur la loi du 3 avril 1955 sur l’état d’urgence justement, dont l’article 11 prévoit que « le ministre de l’Intérieur peut prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne, provoquant à la commission d’actes de terrorisme ou en faisant l’apologie » (3) ?

Dans notre précédent article juridique paru dans Edition Multimédi@ n°322 daté du 27 mai, nous avons fait état d’un sérieux doute sur la légalité de la décision de Matignon, mise en œuvre sur le « Caillou » ou en « Kanaky », c’est selon. « La censure de TikTok en Nouvelle-Calédonie par son Haut-commissaire de la République semble illégale », avions-nous titré (4). La censure de TikTok avait été mise en œuvre par le « préfet hors-classe » (grade le plus élevé) Louis Le Franc (5), haut-commissaire de la République en Nouvelle-Calédonie, représentant de l’Etat français de cette collectivité sui generis (6) située en Océanie, et à ce titre délégué du gouvernement représentant le Premier ministre et chacun des ministres français.
Le 23 mai, le Conseil d’Etat a rejeté les recours en référé de LQDN, de la LDH et des trois Néo-Calédoniens (MFD, CB et EA). « Les requérants n’apportent aucun élément permettant de caractériser l’urgence à l’intervention du juge des référés […] et se bornent à soutenir que l’atteinte portée par la décision attaquée aux libertés d’expression, de communication, d’accéder à des services de communication en ligne, de la presse et au pluralisme d’expression des courants de pensées et d’opinions, eu égard à sa gravité, constitue en elle-même une situation d’urgence. Cependant, [puisque les requérants n’apportent pas d’éléments pour démontrer que ce blocage a des conséquences immédiates et concrètes sur leur situation et leurs intérêts], l’atteinte à une liberté fondamentale ne saurait suffire pour caractériser une situation d’urgence », a jugé la haute autorité administrative (7).

« Retour sur un fiasco démocratique » (LQDN)
En outre, le Conseil d’Etat a décidé qu’il n’y avait pas lieu de renvoyer au Conseil constitutionnel les questions prioritaires de constitutionnalité soulevées par LQDN et la LDH. Quant à l’association Mouvement Kanak, qui avait demandé à pouvoir plaider en soutien de la LDH, elle a néanmoins vu son intervention jugée recevable. « Pour justifier cette décision inique, le juge des référés a affirmé qu’il n’y aurait pas d’urgence à statuer puisque ce blocage serait, selon les dires du gouvernement, bientôt levé. Il aura fallu attendre plus de 24 heures après la levée de l’état d’urgence pour que le réseau social soit de nouveau accessible », a fustigé LQDN le 5 juin dans un post intitulé « Blocage de TikTok en Nouvelle-Calédonie : retour sur un fiasco démocratique » (8). Le 27 mai, TikTok était toujours bloqué. Ce n’est que le lendemain que son interdiction a été levée, selon l’indication donnée le 29 mai par les services de l’Etat en Nouvelle-Calédonie (9). De son côté, la LDH a pointé le 30 mai le fait que « le juge refuse non seulement d’examiner la proportionnalité de la mesure, mais il se garde même de rechercher si les circonstances étaient à ce point exceptionnelles qu’elles permettaient à l’exécutif d’agir en dehors de tout cadre légal ». Et la Ligue des droits de l’homme de préciser : « Le recours au fond demeure pendant » (10).

La décision « anti-TikTok » non formalisée
Dans son recours « en excès de pouvoir » contre cette décision, La Quadrature du Net, elle, dénonce pêle-mêle : l’atteinte grave et manifeste illégale à la liberté d’expression, de communication des idées et des opinions, et d’accès à l’information ; la violation de l’article 10 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales (CESDH) ; le défaut de base légale ; l’absence de nécessité de l’atteinte dans une société démocratique ; l’atteinte nullement nécessaire, radicalement inadaptée et manifestement disproportionnée. Un détail souvent passé inaperçu dans les médias, mais qu’ont relevé les deux associations LQDN et LDH, c’est que la fameuse « décision du 14 mai » n’a pas été « formalisée », bien qu’elle ait été annoncée par le Premier ministre Gabriel Attal le 15 mai – l’Agence France-Presse (AFP) ayant publié ce jour-là une dépêche à ce propos. Contacté ce même jour par Numerama, Matignon a répondu que « TikTok a effectivement été interdit mercredi [15 mai] par le PM [Premier ministre, ndlr] et le gouvernement en raison des ingérences et de la manipulation dont fait l’objet la plateforme dont la maison mère est chinoise » et a justifié la décision en affirmant que « l’application est utilisée en tant que support de diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers, et relayé par les émeutiers » (11). Bien que non formalisée, la décision du 14 mai a bien été appliquée par le haut-commissaire de la République en Nouvelle-Calédonie car LQDN verse au dossier le fait que les « sondes Atlas » – du Rip régional (12) chargé de l’attribution de ressources Internet comme les adresses IP – présentes en Nouvelle-Calédonie montrent l’absence de blocage de TikTok le 15 mai 2024 à 23 heures 04 (heure de Paris), « alors que le 16 mai 2024 à 9 heures 49 (heure de Paris) le blocage commençait à être effectif ». Et d’apporter une indication supplémentaire : « Le 27 mai 2024, ce blocage était toujours effectif », n’ayant été levé, nous l’avons vu, que le 28 mai. Même si elle est non formalisée, cette décision administrative « anti-TikTok » peut être révélée par ses effets ou par des déclarations des pouvoirs publics, comme dans le cas présent, et peut donc « être déférée à la censure du Conseil d’Etat ».
Ainsi, dans le nouveau recours du 27 mai, cette fois pour excès de pouvoir, il est souligné que le blocage litigieux est « particulièrement grave et totalement inédit en France, en Europe et dans les autres pays démocratiques » et qu’il y a dans cette affaire « des illégalités graves et manifestes ». Dans la démonstration produite par Alexis Fitzjean Ó Cobhthaigh, avocat de LQDN, il est reproché au Conseil d’Etat d’avoir fondé sa décision de rejet en référé le 23 mai « sur la circonstance que le gouvernement “fai[sait] valoir” que le blocage aurait contribué à la baisse des tensions, sans exiger toutefois, ainsi qu’il aurait pourtant dû le faire, la moindre démonstration à cet égard, et alors que les pièces produites en défense démontraient manifestement le contraire. Autrement dit, il s’est contenté de donner foi aux allégations controuvées du Premier ministre, alors même qu’elles étaient directement contredites par ses propres pièces » (13). La Quadrature du Net met d’abord en avant dans son recours le fait que la décision attaquée méconnaît gravement l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789, l’article 10 de la CESDH de 1950 déjà mentionnée et l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) de 1966. Et ce, « en ce qu’elle porte une atteinte nullement nécessaire, radicalement inadaptée et manifestement disproportionnée à liberté d’expression, de communication des idées et des opinions, et d’accès à l’information ».
Ensuite, la décision attaquée méconnaît gravement la liberté d’expression, de communication des idées et des opinions, et d’accès à l’information – liberté protégée par l’article 11 de la Déclaration de 1789, l’article 10 de la CESDH, et l’article 19 du PIDCP. Et cette décision du 14 mai 2014 n’ayant pas été formalisée « revêt, dès lors, un caractère arbitraire et, d’autre part et surtout, en ce qu’elle est dépourvue de toute base légale ».

Faire sortir le Conseil d’Etat de « sa torpeur »
« Avec le blocage arbitraire de TikTok, une nouvelle étape a été franchie », s’inquiète LQDN. En contestant à nouveau la décision administrative du 14 mai 2024 devant le Conseil d’Etat, l’association de promotion et de défense des libertés fondamentales dans l’environnement numérique, notamment de la liberté d’expression, s’attend à une procédure longue qui prendra un à deux ans. « Nous espérons que le Conseil d’Etat sortira de sa torpeur et confirmera que le blocage était illégal. Car pour bloquer TikTok, le gouvernement ne s’est vu opposer aucun obstacle, aucun garde-fou, et n’a jamais eu à justifier sa mesure », insiste LQDN dirigée par un collège solidaire. @

Charles de Laubier

Elections européennes : le numérique au programme

En fait. Le dimanche 9 juin, les Français élisent leurs 81 députés européens (dès le 8 juin pour certains territoires ultra-marins et Français de l’étranger). Il n’y a pas moins de 38 listes pour ces élections européennes. Edition Multimédi@ a sélectionné quelques mesures-phare pour le numérique, dont l’IA.

En clair. Nous nous sommes concentrés sur le « Top 5 » des listes arrivant en tête des sondages (1), en allant de la cinquième position à la première (2).
« Europe écologie » (Marie Toussaint) : « Lancer un Digital Green and Social Deal qui place les technologies numériques au service de la réalisation d’une vie décente pour tous·tes dans les limites de la planète » ; « Passer une nouvelle étape dans la réglementation des cryptomonnaies » ; « Encadrer les consommations des datacenters sur le sol européen » ; « Briser le monopole des GAFAM en Europe en garantissant l’interopérabilité des services numériques » ; « Taxer les GAFAM ».
« La France insoumise » (Manon Aubry) : « Réglementer les IA » ; « Garantir un euro numérique 100 % public » ; « Reprendre le contrôle sur les multinationales du numérique » ; « Inscrire la neutralité du Net dans la Charte des droits fondamentaux de l’Union européenne » ; « Renforcer la réglementation sur l’IA, en interdisant les identifications biométriques et les technologies répressives » ; « Encadrer l’usage de l’IA dans les secteurs culturels et créatifs notamment par la transparence des algorithmes » ; « Réguler les “coffres à butin” (loot box) en jeux d’argent ».

« Parti socialiste » (Raphaël Glucksmann) : « Créer un fonds souverain pour investir dans le numérique, en imposant des obligations de financement sur le territoire européen aux géants étrangers (les GAFAM et les BATX) […] et en poussant un accord international sur l’IA » ; « Lutter contre la fracture numérique » ; « S’assurer qu’un contrôle humain et une approche non-discriminatoire sont appliqués à l’ensemble des services numériques faisant appel à l’IA » ; « Multiplier par 10 le budget de l’Agence de cyberdéfense européenne ENISA ».
« Renaissance » (Valérie Hayer) : « Mettre en œuvre un plan Europe 2030 [notamment en] 5 ans pour des capacités de calcul de rang mondial, dont trois des cinq supercalculateurs parmi les plus puissants au monde » ; « Mieux protéger nos enfants avec la majorité numérique à 15 ans sur les réseaux sociaux et le contrôle parental par défaut sur les mobiles ».
« Rassemblement nationale » (Jordan Bardella) : « Revoir les règles de la concurrence européenne pour autoriser la concentration des acteurs et créer des champions européens du numérique » ; « Défendre la constitution d’un cloud souverain européen » ; « Créer un environnement complet en faveur de l’IA ». @

Vie privée : comment l’IA de Bercy traque les fraudeurs du fisc jusque sur les réseaux sociaux

Du 23 mai au 6 juin 2024, les Français doivent déclarer leur impôts (revenus, immobilier, …). C’est l’occasion pour Edition Multimédi@ de faire le point sur l’utilisation de l’intelligence artificielle (IA) par le gouvernement dans sa lutte contre la fraude fiscale — jusque sur les réseaux sociaux.

Le Premier ministre Gabriel Attal (photo de gauche) en avait fait son cheval de bataille lorsqu’il était encore ministre délégué chargé des Comptes publics : la lutte contre la fraude fiscale, sociale et douanière. Et depuis son entrée à Matignon le 9 janvier 2024, il continue de suivre de près cette traque aux fraudeurs que son successeur Thomas Cazenave (photo de droite) intensifie grâce à l’IA et aux réseaux sociaux. « Contre la fraude fiscale, je m’étais engagé à renforcer les moyens humains : 281 agents ont été recrutés l’an dernier, et 350 supplémentaires le seront en 2024 », avait assuré Gabriel Attal lors de la présentation le 20 mars dernier du plan de lutte contre les fraudes aux finances publiques (1).

Traque aux bâtis et piscines non déclarés
Le plus jeune Premier ministre de la Ve République (35 ans) a aussi garanti qu’« en 2027, nous aurons recruté [1.500 agents supplémentaires dédiés à la lutte contre la fraude fiscale], 1.000 agents sur la fraude sociale, formé 450 cyber enquêteurs, [redéployé 100 équivalents temps pleins sur le contrôle douanier du e-commerce],et investi plus de 1 milliard d’euros pour moderniser nos outils numériques de détection et de lutte contre les fraudes » (2). Le plan de lutte contre la fraude aux impôts se dote d’un Office national anti-fraude aux finances publiques (ONAF), dont la création a été actée par décret du 18 mars. Issu en fait de la transformation du service d’enquête judiciaire et fiscal (SEJF), ce « service à compétence nationale » est notamment chargé de « recueillir, centraliser et exploiter tout renseignement ou information entrant dans son domaine d’intervention à des fins stratégiques, opérationnelles ou documentaires » (3).
Ce bras armé de Bercy et de sa Direction générale des finances publiques (DGFiP) sera « pleinement opérationnel dès le 1er juillet » prochain pour mener des enquêtes et des poursuites judiciaires, le nombre d’officiers judiciaires devant doubler d’ici l’année prochaine à 80 agents.

Parmi les outils numériques déployés pour traquer les mauvais payeurs, l’IA appliquée aux réseaux sociaux figure en bonne place. Google et Capgemini sont mis à contribution depuis 2021 pour mettre en scène l’IA et le data mining au service des agents du fisc qui utilisent un logiciel issu de ce partenariat. Le premier apporte « l’infrastructure “cloud” ainsi que ses services pour les prestations de développement des modèles d’intelligence artificielle, qui s’appuient sur les briques technologiques développées open source »(dixitla DGFiP), et le second déploie son expertise en « intelligence de la donnée » via l’Union des groupements d’achats publics (Ugap), la centrale d’achat publique française. Cette détection des fraudes par l’IA consiste concrètement à « extraire les contours des immeubles bâtis ainsi que des piscines » sur la base des images aériennes publiques de l’IGN (4). Le traitement informatique dopé à l’IA vérifie si les éléments ainsi détectés sur les images sont correctement imposés aux impôts directs locaux comme la taxe foncière. Sinon, un courrier de demande de régularisation est envoyé aux propriétaires indélicats. « L’administration fiscale a désormais la maîtrise des modèles algorithmiques d’intelligence artificielle développés ainsi que leur propriété intellectuelle », se targue la DGFiP. Ce dispositif intelligent baptisé « Foncier innovant » (5) a montré son efficacité lors d’un premier bilan de « l’IA au service de la lutte contre la fraude » (6) établi en août 2022, et a donc été généralisé l’an dernier à l’ensemble de la France métropolitaine (7). Et ce, pour deux ans consentis par la loi de finances 2024 malgré les fortes réserves de la Cnil (8). A mars 2024, l’IA a permis de repérer 140.000 piscines non déclarées et de récupérer 40 millions d’euros pour les collectivités locales.
La traque à la fraude fiscale à l’ère du numérique prend aussi de l’ampleur sur les réseaux sociaux où bon nombre de Français exposent leur train de vie. Des entreprises fraudeuses sont aussi repérées en ligne. « Nous avons également pérennisé et étendu le webscrapping, c’est-à-dire l’utilisation de données sur les réseaux sociaux, ce qui nous permet notamment de contrôler l’exercice d’activités occultes non déclarées », a expliqué pour sa part Thomas Cazenave lors du bilan printanier (9).

L’Etat déficitaire récupère des milliards
Le ministre délégué chargé des Comptes publics (10) a indiqué que la DGFiP est habilitée à « mener des enquêtes sous pseudonyme », à travers le déploiement de cyber enquêteurs. Ce sont ainsi près de 800 agents qui pourront cyber-enquêter, épaulés par 50 agents habilités à s’infiltrer auprès des fraudeurs sur Internet. L’année 2024 pourrait battre un nouveau record historique de redressement fiscaux, par rapport au précédent de 2023 qui avait rapporté 15,2 milliards d’euros dans les caisses de l’Etat déficitaire. Auxquels se sont ajoutés 1,2 milliard d’euros de redressements Urssaf. @

Charles de Laubier

France Médias : numérisation de l’audiovisuel public

En fait. Le 23 mai a été repoussé à fin juin l’examen par l’Assemblée nationale de la proposition de loi contestée de « réforme de l’audiovisuel public et souveraineté audiovisuelle ». Au delà de la future holding France Médias, c’est toute la numérisation de la télé et la radio publiques qui est en marche.

En clair. La fusion de France Télévisions, Radio France et l’Ina (1), voire France Médias Monde (RFI, France 24), chapeautés par la future holding France Médias, fait toujours débat (2). Après l’adoption par le Sénat de la proposition de loi sur la réforme de l’audiovisuel public et la souveraineté audiovisuelle (3), l’examen par l’Assemblée nationale a été repoussé à fin juin. Cette réforme contestée s’accompagnera d’une numérisation à tous les étages de la télé et de la radio publiques. « Il ne s’agit pas de faire des économies de moyens mais de renforcer les synergies entre les entités de l’audiovisuel public, de permettre à celui-ci de déployer une stratégie numérique unifiée et puissante […] », a assuré le 14 mai dernier la députée (Re) Fabienne Colboc, corapporteure de la proposition de loi à l’Assemblée nationale.
Ce regroupement renforcera les synergies numériques. « La création d’une holding vise aussi à investir le champ du numérique, notamment le streaming. L’évolution des usages et l’apparition de nouvelles technologies favorisent l’avènement de médias à 360 degrés », a justifié le député (LR) JeanJacques Gaultier, corapporteur. Deux plateformes montrent la voie : Francetvinfo.fr (englobant télé et radio avec depuis août 2016 l’ancien site Franceinfo.fr) et Ici (nouveau média issu du rapprochement de la télé France 3 et de la radio France Bleu depuis octobre 2023, avec le site commun Francebleu.fr).

La holding France Médias ne préfigurerait-elle pas une plateforme commune à France Télévisions, Radio France et l’Ina, voire à France Médias Monde ? « Nous serons beaucoup plus forts en ayant une stratégie numérique commune, tout comme nous serons beaucoup plus visibles en proposant aux utilisateurs un moteur de recherche et des identifiants uniques », a affirmé le corapporteur. La numérisation de l’audiovisuel public apparaît inéluctable car il n’y a pas que les jeunes qui regardent bien plus Internet que la TNT. « Le bouleversement numérique se traduit par un vieillissement des audiences de la radio comme de la télévision », a relevé la ministre de la Culture, Rachida Dati. Chaîne jeunesse, France 4 devait disparaître de la TNT en août 2020 au profit de la plateforme web Okoo. Mais elle a finalement été maintenue, contrairement à France Ô qui a cessé d’émettre pour passer le relais au portail La1ere.francetvinfo.fr. @

IA génératives, contrefaçons, exceptions au droit d’auteur et opt out : où se situent les limites ?

Adopté par les eurodéputés le 13 mars 2024, l’AI Act – approuvé par les Etats membres en décembre 2023 – va être définitivement voté en plénière par le Parlement européen. Mais des questions demeurent, notamment sur les limites du droit d’auteur face aux intelligences artificielles génératives.

Par Vanessa Bouchara, avocate associée, et Claire Benassar, avocate collaboratrice, Bouchara & Avocats.

Si l’utilisation des intelligences artificielles (1) est désormais largement répandue, ces techniques et technologies capables de simuler l’intelligence humaine restent au cœur de nombreux questionnements – tant éthiques que juridiques. Alors même que le projet de règlement européen visant à encadrer l’usage et la commercialisation des intelligences artificielles au sein de l’Union européenne, dit AI Act (2), a été adopté en première lecture le 13 mars 2024 par le Parlement européen (3), c’est l’intelligence artificielle générative – IAg, AIG ou GenAI – qui est aujourd’hui sujette à controverse.

Droit d’auteur et procès en contrefaçon
A l’origine du débat les concernant, il importe de rappeler que les systèmes d’IAg ont pour particularité de générer du contenu (textes, images, vidéos, musiques, graphiques, etc.) sur la base, d’une part, des informations directement renseignées dans l’outil par son utilisateur, et, d’autre part et surtout, des données absorbées en amont par l’outil pour enrichir et entraîner son système. Les systèmes d’intelligence artificielle générative sont ainsi accusés d’être à l’origine d’actes de contrefaçon, et pour cause : l’ensemble des données entrantes dont ils se nourrissent peuvent potentiellement être protégées par des droits de propriété intellectuelle. Où se situe donc la limite entre l’utilisation licite de ces données et la caractérisation d’un acte de contrefaçon ? Si, par principe, la reproduction de telles données est interdite, le droit européen semble désormais entrouvrir la possibilité d’utiliser celles-ci dans le seul cadre de l’apprentissage de l’IAg.

L’interdiction de reproduction de données protégées par le droit d’auteur. L’auteur d’une œuvre de l’esprit (4) jouit sur cette œuvre, du seul fait de sa création, de l’ensemble des droits conférés aux auteurs par le Code de la propriété intellectuelle (CPI). A ce titre, l’auteur d’une œuvre peut notamment s’opposer à toute reproduction de celle-ci, c’est-à-dire à toute fixation matérielle quelle qu’elle soit de son œuvre par tous procédés qui permettent de la communiquer au public d’une manière indirecte. Si l’IAg utilise en grande partie des données publiques, se pose tout de même la question de l’utilisation de ces données lorsqu’elles constituent de telles œuvres de l’esprit bénéficiant de la protection offerte par le droit d’auteur. La collecte et l’intégration de telles données dans les outils d’intelligence artificielle constituent-ils toutefois de tels actes de reproduction ? Eu égard à la définition très large du droit de reproduction, il semblerait qu’il faille répondre à cette question par la positive. En effet, la définition qui en est donnée par le législateur incite à considérer qu’en principe, tout acte de reproduction d’une œuvre doit faire l’objet d’une autorisation préalable de son auteur.
Aussi, en l’absence d’autorisation de la part de leurs auteurs, l’intégration des données d’apprentissage protégées par le droit d’auteur dans l’outil d’IAg pourrait aisément matérialiser un acte de contrefaçon par reproduction. C’est d’ailleurs à ce titre que plusieurs procédures sont en cours aux Etats-Unis. Plusieurs recours collectifs ont dernièrement été déposés en 2023 contre OpenAI et Microsoft, notamment par un regroupement d’écrivains américains – soutenus par la Authors Guild (5) – qui soutiennent que l’algorithme entraînant le robot ChatGPT manie leurs œuvres en violation de leurs droits d’auteur. Le New York Times a lui aussi porté plainte contre OpenAI et Microsoft (6). Il en est de même pour la banque d’images Getty Images qui accuse l’outil Stable Diffusion, développé par Stability AI, de violer ses droits d’auteur. Les procès se multiplient contre les IAg. Si la législation applicable est toute autre aux Etats-Unis, il nous semble toutefois que le dénouement des litiges en cours puisse potentiellement nous aiguiller sur le possible positionnement des juges français.

Exceptions, citations, extraits, …
Intelligence artificielle générative, fair use et exception de courte citation. Si les défendeurs outre Atlantique excipent généralement du concept de fair use, lequel permet l’utilisation loyale d’une œuvre par un tiers, les exceptions au droit d’auteur en France sont strictement délimitées et encadrées par les dispositions du CPI. Aussi, si les droits conférés aux auteurs d’une œuvre de l’esprit sont particulièrement étendus, le législateur les a de longue date assortis d’une liste exhaustive conséquente d’exceptions venant faire obstacle aux droits d’auteur. Parmi celles-ci, à défaut de fair use, certains entendent ainsi défendre l’IAg sur la base de l’exception de courte citation, permettant à tout tiers d’exploiter de courts extraits de l’œuvre dans la mesure où cette exploitation serait notamment justifiée par le caractère pédagogique, scientifique ou d’information de l’œuvre à laquelle elles sont incorporées. Seulement, encore faut-il que le tiers invoquant cette exception indique clairement le nom de l’auteur et la source. Ce que les outils d’IAg ne font pas, et ne peuvent pas faire eu égard à la masse de données sur laquelle se fonde leur entraînement, et surtout au regard du recoupement de l’ensemble de ces informations, lequel rend presque impossible de sourcer chacun des auteurs dont les œuvres sont utilisées.

Fouille de textes et de données limitée
L’évolution des techniques utilisées rend ainsi indispensable l’évolution du droit actuel et de la jurisprudence qui en découlera.
La limitation du droit d’auteur pour la fouille de textes et de données. Sans même anticiper l’arrivée fulgurante de l’intelligence artificielle au début des années 2020, le législateur européen est venu introduire en 2019 – via la directive « Droit d’auteur dans le marché unique numérique » (7) – une nouvelle exception au droit d’auteur en autorisant la fouille de textes et de données (« text and data mining » ou TDM), laquelle trouve ainsi à s’appliquer lorsque les reproductions d’œuvres réalisées ne remplissent pas toutes les conditions de l’exception pour les actes de reproduction provisoires. Seulement, les défenseurs de l’IAg se sont engouffrés dans cette brèche et ont entendu appliquer cette exception à la collecte et à la reproduction des données disponibles en ligne par les systèmes d’intelligence artificielle, afin de légitimer leur utilisation par ces derniers.
C’est ainsi, dans cette logique, que l’AI Act s’approprie le texte de 2019 et applique l’exception aux fins de fouille de textes et de données aux outils d’IAg. Néanmoins, exception à l’exception, le texte prévoit que tout auteur peut anticiper l’utilisation de ses œuvres par l’IA et s’opposer à cette exploitation en l’indiquant par tout moyen (droit de retrait ou opt out), auquel cas l’exception de « text and data mining » ne trouvera plus à s’appliquer. En pareille hypothèse, les systèmes d’IA seront ainsi à nouveau soumis l’obligation d’obtenir l’autorisation expresse de l’auteur afin de procéder à l’exploration de textes et de données sur ses œuvres de façon licite. Pour autant, le considérant 105 de l’AI Act, précise que les détenteurs de droits peuvent choisir de réserver leurs droits sur leurs œuvres ou autres objets pour empêcher l’exploration de texte et de données, « sauf si cela est fait à des fins de recherche scientifique ». Et dans l’article 2 du même AI Act, le sixième point prévoir que « le présent règlement ne s’applique pas aux systèmes d’IA ou aux modèles d’IA, y compris leur production, spécifiquement développés et mis en service aux seules fins de la recherche et du développement scientifiques ».
Nous nous interrogeons toutefois sur la pertinence de ce système d’« opt out » proposé aux auteurs, dans la mesure où il apparaît difficile – voire impossible – de contrôler son respect par les outils d’IA. En effet, comment un auteur peut-il contrôler que son œuvre n’est pas utilisée pour entraîner une intelligence artificielle ? A charge pour l’AI Office – le Bureau européen de l’IA créé par l’AI Act (8) – de rendre public un « résumé des contenus utilisées pour l’entraînement » de chaque IA à usage général (considérants 107 et 108 de l’AI Act, et articles 53d et 56b).
En dépit de sa volonté protectrice, et alors même qu’il n’est pas entré en vigueur, l’AI Act semble donc d’ores et déjà confronté aux difficultés inhérentes aux avancées techniques issues de l’intelligence artificielle.
Contenu généré par l’IAg et contrefaçon. Cela étant, quand bien même la fouille de données est autorisée en vertu du droit européen, cette exception reste cantonnée au seul entraînement des systèmes d’IA, et ne permet pas pour autant à l’outil de générer en fin de processus des données contrefaisantes. Aussi, dans la mesure où les données générées reproduiraient à tout le moins en partie les caractéristiques originales des données d’entraînement, elles ne pourront pas être exploitées sans l’autorisation préalable des auteurs des données d’entraînement, sauf à caractériser un acte de contrefaçon. En effet, il n’est en pratique jamais exclu que l’on puisse reconnaître tout ou partie des éléments issus des données entrantes, et il apparaît ainsi en théorie probable que des contrefaçons par imitation puissent être caractérisées. Néanmoins, dans quelle mesure l’utilisateur de l’IAg sera-t-il averti que la donnée générée contrefait une œuvre antérieure ?

Quid de la rémunération des contenus ?
S’il existe nécessairement une limite au-delà de laquelle les tribunaux pencheront en faveur de la contrefaçon, il est fort à parier que les utilisateurs des outils d’IAg la franchiront bien avant les développeurs à l’origine de ces outils. Les interrogations restent en tout cas nombreuses, comme en témoignent les deux missions lancées en France le 12 avril dernier par le Conseil supérieur de la propriété littéraire et artistique (CSPLA), d’une part sur la rémunération des contenus culturels utilisés par les IA (9) et d’autre part sur la mise en œuvre de l’AI Act (10). @