Tournant judiciaire aux Etats-Unis en faveur du droit d’auteur d’artistes contre des IA génératives

Dans la torpeur de l’été, le juge d’un tribunal de Californie a donné raison à des artistes qui ont porté plainte contre des IA génératives – Stable Diffusion de Stability AI en tête – qui utilisent leurs images sans autorisation et au mépris du copyright. Ce jugement constitue une étape majeure.

C’est une première victoire des artistes aux Etats-Unis contre les IA génératives qui utilisent des milliards d’images pour répondre aux requêtes de millions d’internautes dans le monde. Le juge fédéral américain William Orrick (photo), officiant au tribunal du district nord de la Californie, a décidé le 12 août 2024 que les plaintes des artistes – contre les sociétés Stability AI (avec son IA générative Stable Diffusion), Midjourney (avec son IA générative du même nom), Runway AI (IA génératives multimédias à l’aide de DreamUp) et DeviantArt (réseau social de créatifs) – étaient recevables.

Stability, Midjourney, Runway, DeviantArt
Dans son ordonnance de 33 pages (1), le juge Orrick reconnaît qu’il y a violation du droit d’auteur et de marques déposées dès lors que les IA génératives ont été construites – lors de leur entraînement – sur des milliards d’images protégées et sans l’autorisation de leurs auteurs et artistes. La plainte examinée a été déposée l’an dernier et se focalise sur la grande base de données LAION – Large-scale Artificial Intelligence Open Network (2) – qui a été constituée à partir de 5 milliards d’images, lesquels auraient été récupérées sur Internet et exploitées par Stability AI, Midjourney, Runway AI et DeviantArt.
Les artistes à l’origine de la plainte affirment que « l’ensemble des données “LAION-5B” contient seulement des URL d’images d’entraînement, et non pas les images réelles d’entraînement ». Par conséquent, affirment-ils, « quiconque souhaite utiliser LAION-5B pour former son propre modèle d’apprentissage automatique doit d’abord acquérir des copies des images de formation réelles à partir de ses URL en utilisant l’ensemble de données ‘’img2dataset’’ ou un autre outil similaire ».

Ils estiment qu’il y a « infraction directe », en faisant référence à la diffusion guidée par CLIP (Contrastive Language- Image Pre-training) dans la phase d’entraînement mais aussi dans l’utilisation, après la formation. Il s’agit en fait d’un modèle d’IA développé par OpenAI, la société à l’origine de ChatGPT, qui associe des images et des textes pour permettre une compréhension et une génération plus avancées de contenu visuel et textuel. Le juge est allé dans le sens des artistes en concluant que l’IA générative Stable Diffusion de Satability AI a été construite à partir d’images protégées par le droit d’auteur et que « la façon dont le produit fonctionne fait nécessairement appel à des copies ou à des éléments protégés de ces œuvres ». Dans leur class action formée en 2023, les artistes accusent la société Stability AI de violation directe du droit d’auteur d’œuvres enregistrées provenant de la base de donnée « LAION-5B » en formant ses modèles – ou LLM (Large Language Model) – d’intelligence artificielle générative que sont notamment Stable Diffusion 2.0 et Stable Diffusion X. Ils l’accusent aussi d’« inciter à la violation du droit d’auteur en distribuant gratuitement Stable Diffusion 2.0 et Stable Diffusion XL », tout en violant aussi le Digital Millennium Copyright Act (DMCA), à savoir la loi américaine sur le droit d’auteur à l’ère du numérique, « en supprimant et en modifiant les renseignements sur la gestion des droits d’auteur » (3) des images pour l’entraînement de ses IA génératives. Et ce, en s’enrichissant de façon injustifiée.
La société Runway AI est elle aussi accusée de violation directe du droit d’auteur des œuvres enregistrées de la « LAION-5B » en formant ses propres modèles, y compris Stable Diffusion. Parmi les artistes dont les œuvres ont été utilisées illégalement, il y a par exemple Karla Ortiz qui a travaillé sur « Black Panther » ou encore « Avengers: Infinity War ». La société Midjourney est elle aussi dans le collimateur de la justice américaine pour, là aussi, violation directe du droit d’auteur des œuvres enregistrées de la base d’entraînement « LAION-400M » pour cette fois, pour former ses modèles, y compris la version 1 de Midjourney, ainsi que de la « LAION-400M5B » pour la version 5.2 de Midjourney. Quant à la communauté artistique DeviantArt, elle est poursuivie aussi pour violation directe du droit d’auteur en copiant le modèle DreamUp-CompVis et en l’incorporant dans DreamUp.

Depuis 2023, les artistes ont précisé les faits
« En octobre 2023, j’avais largement fait droit aux requêtes en rejet présentées par les défendeurs Stability, Midjourney et DeviantArt. La seule réclamation qui a survécu est la réclamation d’infraction directe contre Stability AI, fondée sur la création et l’utilisation présumées d’“images d’entraînement” saisies dans les ensembles de données du LAION et utilisées pour former Stable Diffusion », a rappelé William Orrick, en laissant aux artistes de la class action la possibilité de modifier leur plainte « pour clarifier leurs théories sur la façon dont chaque [entreprises accusées] a violé leurs droits d’auteur, supprimé ou modifié les renseignements sur la gestion de leur droit d’auteur, ou a violé leurs droits à la publicité et des faits plausibles à l’appui ». Les artistes ont donc depuis clarifié leur demande concernant les copies compressées des images d’entraînement et pour étayer les faits sur la façon dont Stable Diffusion – « un programme open source, du moins en partie » – fonctionne par rapport aux images d’entraînement. Ils ont pour cela ajouté la plainte contre Runway AI et sept nouveaux artistes en plus des premiers à l’origine de la plainte.

Cependant, pas de violation du DMCA
« Les demandeurs ont raison de dire que l’autorisation de modifier [leur plainte] est “librement accordée”, surtout au début d’une affaire », « […] Je vais accorder la permission et répondre aux arguments des défenseurs contre les demandes et les plaignants [qui ont été] ajoutés », a estimé le juge, élargissant de ce fait l’affaire. Concernant Stable Diffusion, les artistes ont fait état d’une déclaration du PDG de Stability AI, Emad Mostaque (son fondateur), selon laquelle la société avait pris 100.000 Gigaoctets d’images et les a compressées dans un fichier de 2 Gigaoctets qui peut « recréer » n’importe quelle de ces images. La start-up créée il y a cinq ans a répondu que « l’usage “isolé” du mot “créer” par son PDG ne peut démontrer qu’il a eu pour but de favoriser l’infraction » et que « les plaignants ne contestent pas que Stable Diffusion est capable d’utilisations non violentes substantielles, comme la création d’œuvres à partir de données qui ne font pas référence à des artistes particuliers ou n’invoquent pas les styles d’artistes particuliers ou qui présentent une similitude substantielle avec les œuvres des [artistes] demandeurs ». Quoi qu’il en soit, le juge a estimé que « les allégations de violation induite sont suffisantes », renvoyant « à une date ultérieure » la question de savoir si c’est le résultat d’un problème technique (comme le prétend Stability AI) ou par dessein (argument des artistes). Concernant les éventuelles violations du DMCA, la loi américaine sur le droit d’auteur numérique, le juge William Orrick avait déjà rejeté en octobre 2023 ces accusations dans la mesure ou les plaignants n’avaient pas identifié le type exact de CMI (Copyright Management Information) inclus dans leurs œuvres numériques qui aient été en ligne et qu’ils croyaient de bonne foi avoir été « scraped » (comprenez « moissionnées » ou aspirées en ligne) dans la base de données LAION (4) ou autres « datasets » utilisés pour entraîner Stable Diffusion. « Il n’y a rien dans la plainte au sujet du texte CMI présent dans les images que les plaignants nommément nommés ont incluses avec leurs images en ligne et qu’ils affirment avoir été dépouillées ou modifiées en violation du DMCA pendant la formation de Stable Diffusion ou l’utilisation des produits finaux », avait constaté le juge. Les demandes d’indemnisation au titre de la violation supposée du DMCA ont donc été rejetées en août 2024 comme elles le furent en octobre 2023, tout comme sont écartées les accusations d’enrichissement sans cause.
Quant à la société Runway AI, l’accusée supplémentaire dans cette affaire, elle se voit reprochée d’avoir formé ou aidé à former au moins Stable Diffusion 1.5, en utilisant des images d’entraînement provenant de l’ensemble de données de LAION. « Comme pour Stability AI, puisque Runway AI ne conteste pas l’utilisation des images à des fins d’entraînement, je n’ai pas besoin de parler des autres théories de violation directe, a tenu à préciser le juge de Californie. Toutefois, je note que la théorie du modèle et la théorie de la distribution de l’atteinte directe dépendent de la question de savoir si les œuvres protégées des demandeurs sont contenues, d’une certaine façon, dans Stable Diffusion telle qu’elle est distribuée et exploitée. Le fait que ces œuvres puissent être contenues dans Stable Diffusion sous forme de représentations algorithmiques ou mathématiques – et soient donc fixées sur un support différent de celui dans lequel elles ont été produites initialement – n’est pas un obstacle à la revendication à ce stade ». En fin de discussion, le juge a tranché : « La requête de Runway visant à rejeter les demandes d’infraction directe est refusée. […]. La requête en rejet de Runway est refusée sur les demandes d’infraction, [mais] accordée à l’encontre des demandes du DMCA et accordée avec autorisation de modifier la demande d’enrichissement sans cause ».

Midjourney et les recours en vertu du DMCA
Midjourney soutient pour sa part – à l’égard de trois des artistes que sont Sarah Andersen, Julia Kaye et Gerald Brom – que la preuve de leur enregistrement d’oeuvres nouvellement identifiées et protégées par le droit d’auteur est insuffisante. Et ce, étant donné qu’un sous-ensemble des oeuvres d’artistes identifiées – comme étant à la fois protégées par le droit d’auteur et inclues dans les ensembles de données du LAION utilisés pour entraîner les produits d’IA – sont des compilations. Or, souligne le juge, « il est […] incontestable que chacun des [artistes], qui réclament que leurs œuvres protégées par le droit d’auteur ont été incluses dans les ensembles de données LAION, a au moins une œuvre dont l’enregistrement est valide ». Et d’ajouter plus loin : « L’identification de ces œuvres ne prouve peut-être pas la responsabilité en vertu DMCA, mais elle appuie la plausibilité des théories du demandeur au sujet DMCA ». Aussi : « A ce stade, les recours en vertu DMCA survivent contre Midjourney et les autres défendeurs ». @

Charles de Laubier

Pourquoi le Conseil constitutionnel a censuré le délit d’« outrage en ligne » dans la loi SREN

La loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (SREN) a été publiée le lendemain au Journal Officiel, après avoir été expurgé des articles censurés par le Conseil constitutionnel. Les sages de la République ont jugé le délit d’outrage en ligne d’inconstitutionnel.

Par Antoine Gravereaux, avocat associé*, FTPA Avocats

En invalidant cinq articles de la loi, dont le délit d’« outrage en ligne » (1), le Conseil constitutionnel – par décision du 17 mai 2024 (2) – a contraint le législateur à revoir son approche de la régulation de l’espace numérique. La loi visant à sécuriser et à réguler l’espace numérique (SREN) introduisait le délit d’outrage en ligne, qui aurait été puni d’un an d’emprisonnement et de 3.750 euros d’amende forfaitaire en cas de diffusion en ligne de tout contenu portant atteinte à la dignité d’une personne ou présentant un caractère injurieux, dégradant, humiliant, ou créant une situation intimidante, hostile ou offensante.

Un délit qui manquait d’objectivité
Le Conseil constitutionnel, qui avait été saisi par deux groupes de députés différents (respectivement les 17 et 19 avril 2024), a jugé que les faits réprimés par cette nouvelle infraction étaient déjà couverts par des qualifications pénales existantes, y compris lorsque ces abus sont commis en ligne. Ainsi par exemple, les sages de la République ont relevé que la diffamation et l’injure sont réprimées par les articles 32 et 33 de la loi du 29 juillet 1881 sur la liberté de la presse (3), les violences psychologiques par le code pénal (4), et le harcèlement par le code pénal également (5).
Rappelons que la diffamation se définit comme toute allégation ou imputation d’un fait portant atteinte à l’honneur ou à la considération de la personne auquel le fait est imputé, lorsqu’elle est commise publiquement. Tandis que l’injure se définit comme toute expression outrageante, termes de mépris ou invective qui ne renferme l’imputation d’aucun fait, lorsqu’elle est proférée publiquement. En outre, le Conseil constitutionnel a relevé que cette nouvelle infraction de délit d’« outrage en ligne » manquait d’objectivité et créait un climat d’incertitude attentatoire à la liberté, en nécessitant une appréciation subjective du ressenti de la personne visée (« incertitude sur la licéité des comportements incriminés »). « Les dispositions contestées font dépendre la caractérisation de l’infraction de l’appréciation d’éléments subjectifs tenant à la perception de la victime. Elles font ainsi peser une incertitude sur la licéité des comportements réprimés », estime notamment le Conseil Constitutionnel. Il a donc jugé que cette disposition portait atteinte à la liberté d’expression et de communication de manière non nécessaire, non adaptée et disproportionnée.

L’introduction du délit spécifique d’outrage en ligne avait été proposé par le sénateur (Union centriste) Loïc Hervé. Cette mesure n’était pas soutenue par le gouvernement et était rejetée par la quasi-totalité des groupes parlementaires, malgré des modifications en commission mixte paritaire. « Inspiré du délit d’outrage sexiste et sexuel », ce nouveau délit d’« outrage en ligne » introduit comme nouvelle infraction, aurait apporté une réponse aux « difficultés posées, en matière de harcèlement en ligne, par la réponse pénale classique », au moyen d’une « sanction immédiate par une amende forfaitaire délictuelle », selon les porteurs de l’amendement (6). Divers arguments pouvaient justifier l’introduction du délit d’outrage en ligne dans le code pénal. Cette nouvelle infraction aurait comblé un vide juridique laissé par les qualifications pénales existantes comme l’injure ou la diffamation, tout en permettant de lutter contre les comportements abusifs en ligne, souvent perpétrés sous couvert d’anonymat – lequel est en fait de la pseudonymisation (7).
En offrant un délai de prescription plus long (six ans au lieu de trois mois à compter de la publication), elle aurait mieux convenu aux justiciables victimes de comportements répréhensibles sur Internet. Il est vrai que ces infractions, bien que pertinentes, ne couvrent pas toujours les nuances spécifiques des abus en ligne, souvent anonymes et diffusés à grande échelle. L’objectif, que nous pourrions considérer comme louable, était donc de créer une infraction qui s’adapte mieux aux réalités numériques actuelles, offrant ainsi une réponse pénale plus appropriée.

Gros risque pour la liberté d’expression
La levée de l’anonymat aurait été facilitée par l’obtention de l’adresse IP des auteurs, en raison de la peine d’emprisonnement d’un an encourue. Et l’on sait que les démarches pour obtenir ces informations peuvent être complexes et nécessiter une coopération internationale dans certains cas. De plus, le délit d’outrage en ligne aurait aidé à limiter l’escalade de la violence, les insultes, menaces ou intimidations pouvant progressivement s’intensifier et mener à des actes de violence physique. En quelque sorte, le texte soulignait ici un aspect préventif dans la lutte contre les violences physiques. Mais le Conseil constitutionnel a considéré que l’introduction de ce nouveau délit d’outrage en ligne portait un risque trop important d’atteinte aux libertés d’expression et de communication. Notons que les conditions de mise en œuvre de cette nouvelle infraction n’étaient pas aisées puisqu’en matière de cyberharcèlement, l’identification des auteurs peut impliquer la mise en place d’enquêtes poussées, ce qui n’est pas toujours compatible avec une amende forfaitaire.

La SREN, 20 ans après la LCEN
Le Conseil constitutionnel a également censuré quatre autres articles de la loi, qualifiés de cavaliers législatifs, c’est-à-dire sans rapport direct avec le texte initial. Ces articles ont été écartés en raison de leur irrégularité au regard de l’article 45 de la Constitution de 1958 (navette législative). L’un des autres articles censurés visait à offrir à 100 % des Français une identité numérique gratuite d’ici le 1er janvier 2027 (8). L’ambition était, selon le rapporteur général du texte à l’Assemblée nationale, le député (non inscrit) Paul Midy, de mettre fin à l’anonymat en ligne. Lors des débats, la perspective de la généralisation de l’identité numérique en France a été considérée comme « liberticide » (9).
En censurant le délit d’outrage en ligne, l’une des mesures phares et controversées de la loi SREN, le Conseil constitutionnel se pose en défenseur des libertés fondamentales, protégeant la liberté d’expression et de communication contre des atteintes disproportionnées. Il prive ainsi les autorités d’un moyen supplémentaire pour sanctionner certains comportements abusifs en ligne. Bien que le délit d’outrage en ligne ait été invalidé, la majorité des articles de la loi SREN ont été jugés conformes à la Constitution française.
La loi SREN renforce et modernise le cadre juridique établi par la loi de 2004 pour « la confiance dans l’économie numérique », dite LCEN (10), en matière de régulation de l’Internet. Elle vise notamment à améliorer la sécurité en ligne, particulièrement pour les plus jeunes face à la pornographie, et à lutter contre les contenus illicites. Parmi les principales mesures, la loi introduit un « filtre anti-arnaque » (11) destiné à protéger les utilisateurs contre les cyberattaques comme le phishing (hameçonnage pour obtenir des données personnelles à des fins d’usurpation d’identité). Cette mesure, qui s’impose aux navigateurs web (12), a été critiquée par la Cnil et La Quadrature du Net en raison des risques de censure et de surveillance (13), et de l’efficacité contestée de ce filtre. Ainsi, le potentiel risque de censure et de surveillance excessive devra être soigneusement considéré pour éviter toute atteinte disproportionnée aux libertés individuelles. S’agissant de l’efficacité réelle de ce filtre, une évaluation – dans le temps, rigoureuse et continue de son impact – sera nécessaire.
L’Arcom, elle, voit son rôle renforcé, notamment pour bloquer et déréférencer les sites pornographiques ne disposant pas d’un dispositif efficace de contrôle d’accès des mineurs. Elle est également chargée de mettre en place des modalités techniques pour vérifier l’âge des internautes accédant à ces sites Internet. La protection des mineurs face à la pornographie et la lutte contre les contenus illicites sont des préoccupations légitimes et urgentes. La mise en place de ce nouveau dispositif est essentielle pour garantir un Internet plus sûr pour des personnes vulnérables.
En outre, la loi SREN met en œuvre plusieurs règlements européens du « paquet numérique » : le Data Governance Act (DGA (14)), le Digital Markets Act (DMA (15)) et le Digital Services Act (DSA (16)). Ces règlements visent à favoriser une meilleure circulation des données dans un environnement protégé et à renforcer la protection des internautes. La Cnil voit ses pouvoirs étendus et devient l’autorité compétente pour contrôler les « organisations altruistes en matière de données » (OAD, ou DAO en anglais pour Data Altruism Organisations), gérer le registre national des ces dernières et instruire les plaintes à leur encontre (17). La Cnil doit également veiller au respect des obligations de transparence en matière de publicité ciblée, en interdisant le profilage basé sur des données sensibles et le profilage des mineurs.
De plus, la loi SREN introduit des dispositions pour réguler le marché de l’informatique en nuage (cloud), imposant des obligations d’interopérabilité et de limitation des frais de transfert pour les fournisseurs de services cloud. L’Arcep reçoit de nouvelles missions pour réguler ces services et les prestataires d’intermédiation de données, qui devront se faire labelliser.

Une actualisation de la SREN envisageable
En définitive, la loi SREN apporte des avancées significatives dans la sécurisation de l’Internet, où la coopération entre régulateurs et acteurs du secteur du numérique sera cruciale pour lutter contre les contenus illicites et assurer la protection des mineurs, là où la LCEN avait pu poser les bases de la régulation de l’économie numérique en France. Toutefois, avec l’évolution rapide des technologies et des usages d’Internet, dont l’IA, une mise à jour s’imposerait pour répondre aux nouveaux défis du numérique. @

* Antoine Gravereaux est avocat associé chez FTPA Avocats, au
département « Technologies, Data & Cybersécurité »

Entraînement de modèles d’IA grâce aux données collectées par web scraping : les règles à suivre

Les plaintes à l’encontre de fournisseurs de systèmes d’IA se multiplient, que ce soit pour violation des droits de propriété intellectuelle ou pour manquements en matière de données à caractère personnel, notamment en lien avec leurs pratiques de collecte de données en ligne (web scraping).

Par Sandra Tubert et Laura Ziegler avocates associées, Algo Avocats

Afin de développer un système d’intelligence artificielle (IA) performant, il est nécessaire d’entraîner en amont les modèles qui le composent au moyen de vastes ensemble de données. Constituer ces ensembles de données d’entraînement représente donc un enjeu majeur pour les fournisseurs de systèmes d’IA. Plusieurs alternatives s’offrent à eux : utiliser les bases de données dont ils disposent en interne ; obtenir des licences auprès de titulaires de droits de propriété intellectuelle sur des contenus pertinents ; ou recourir au web scraping pour récupérer des données accessibles en ligne sur différents sites Internet.

Exception de Text and Data Mining
Cette troisième option, le web scraping (« moissonnage des données »), a connu un essor important ces dernières années. Pour autant, bon nombre d’acteurs récupèrent des données en ligne pour entraîner leurs modèles sans appréhender tous les enjeux et problématiques qui y sont attachés. Alors que plusieurs plaintes ou enquêtes d’autorités visent des fournisseurs de modèles d’IA à usage général pour des allégations de violation des droits de propriété intellectuelle ou de manquements au règlement général sur la protection des données (RGPD), l’entrée en vigueur prochaine du règlement européen sur l’intelligence artificielle – l’AI Act dont le texte final (1) a été signé le 13 juin 2024 – pourrait mettre en évidence les problématiques entourant les sources de données utilisées pour entraîner les modèles.

En effet, l’article 53 et l’annexe XI de l’AI Act imposent, entre autres, aux fournisseurs de modèles d’IA à usage général (2) de mettre à disposition des informations sur les données utilisées pour l’entraînement de ces modèles, au moyen d’un document-type qui sera mis à disposition par le bureau de l’IA (AI Office). Ils doivent notamment indiquer comment ces données ont été obtenues et sélectionnées, ainsi que toutes les mesures prises pour détecter les sources de données inadéquates. Pour pouvoir se conformer de manière sereine à ces nouvelles exigences (3), il est indispensable de s’assurer que les données d’entraînement ont été récupérées et collectées dans le respect des droits de propriété intellectuelle et du RGPD, sous peine de risquer des actions en contrefaçon ou des procédures de sanction devant les autorités de contrôle (4). En effet, le contenu d’un site Internet qu’un acteur entend scrapper (« moissonner ») pour constituer une base de données d’entraînement peut à la fois contenir des données à caractère personnel, mais également être protégé au titre du droit d’auteur (5) ou du droit des bases de données (6). Or, par principe, toute reproduction et utilisation d’un contenu protégé par un droit de propriété intellectuelle nécessite d’obtenir l’autorisation du titulaire des droits concernés. Néanmoins, afin de favoriser le développement de l’IA, le code de la propriété intellectuelle (CPI) a introduit, pour le droit d’auteur et le droit des producteurs de bases de données, les exceptions de fouilles de textes et de données (dites de Text and Data Mining) qui permettent de scrapper des données à des fins d’entraînement des modèles, sous réserve de respecter un certain nombre de conditions. Il y a en réalité deux régimes : la fouille de textes et de données à des fins de recherche scientifique (7) et celle à des fins diverses (8).
L’exception de fouille à des fins de recherches scientifique présente l’avantage d’être un droit absolu (le titulaire des droits ne peut pas s’y opposer), sous réserve que l’accès aux données soit réalisé de manière licite (9). Néanmoins, son périmètre est relativement restreint puisque seuls peuvent s’en prévaloir certains acteurs limitativement énumérés (10). La plupart des fournisseurs de systèmes d’IA ne peut donc pas mobiliser cette exception et doit se rabattre sur l’exception générale dite à des fins diverses. Pour pouvoir invoquer le bénéfice de cette exception générale, le fournisseur de système d’IA doit accéder aux données de manière licite et s’assurer que le titulaire des droits de propriété intellectuelle ne s’y est pas opposé.

« Moissonnage » et données personnelles
Les textes précisent que l’opposition du titulaire des droits « n’a pas à être motivée et peut être exprimée par tout moyen », notamment « au moyen de procédés lisibles par machine, y compris des métadonnées, et par le recours à des conditions générales d’utilisation » (11). Pour l’opposition via des procédés techniques, plusieurs outils existent (Robot.txt, AI.txt, TDMRep, …). En pratique, cela signifie que pour pouvoir scrapper les données des sites Internet à des fins d’entraînement des modèles, les fournisseurs de systèmes d’IA ne doivent pas contourner les éventuels dispositifs de protection existants (par exemple un accès restreint par un compte utilisateur) et doivent s’assurer, au moment de l’extraction des données, que les conditions générales d’utilisation (CGU) et/ou mentions légales du site Internet ne contiennent pas de clause interdisant l’extraction des données et que les métadonnées du site Internet n’expriment pas non plus une telle interdiction. L’AI Act confirme ce dernier point (12).
Lorsqu’un titulaire de droits s’est opposé à l’extraction de ses données, le fournisseur de système d’IA n’a d’autre choix que d’obtenir une autorisation expresse (13) au moyen d’un accord de licence ou de partenariat, comme ont récemment pu le faire OpenAI avec Le Monde, Die Welt et El País (14). Une fois ces vérifications opérées, le fournisseur de système d’IA devra suivre des étapes supplémentaires si le contenu qu’il souhaite « moissonner » contient des données à caractère personnel, afin de respecter le RGPD.

Base légale de l’intérêt légitime
Ces derniers mois, la Cnil a publié plusieurs fiches pour guider les fournisseurs de systèmes d’IA (15) au sein desquelles elle clarifie comment appliquer les principes clefs aux spécificités de l’IA. Elle y admet qu’il est possible de fonder les traitements d’entraînement des modèles d’IA sur la base légale de l’intérêt légitime, notamment lorsque les données sont collectées à partir de sources publiques (16), sous réserve de mener une analyse au cas par cas permettant de documenter la légitimité de l’intérêt poursuivi, sa nécessité et le fait qu’il n’y a pas d’atteinte disproportionnée aux intérêts, droits et libertés des personnes. Pour autant, en juin 2024, Noyb a porté plainte – auprès de onze « Cnil » en Europe – contre Meta dont il conteste la faculté de se fonder sur l’intérêt légitime pour récupérer les données de Facebook et Instagram afin d’entraîner ses modèles d’IA. Dans l’attente, Meta a stoppé son projet (17).
La première étape avant de scrapper des données à caractère personnel est de définir la finalité du traitement, à partir de laquelle l’analyse de conformité aux principes de protection des données personnelles pourra être réalisée. A partir de cette finalité (créer une base de données afin d’entraîner des modèles d’IA permettant d’évaluer l’appréciation d’œuvres par le public, développer un LLM capable de répondre à des questions, générer du texte, effectuer des résumés, etc,…), le fournisseur de modèles d’IA devra s’assurer du respect du principe de minimisation, en ne collectant que les données pertinentes et nécessaires pour atteindre son objectif. Concrètement, cela signifie qu’il doit s’interroger en amont sur les catégories de données nécessaires pour l’entraînement du modèle d’IA. En pratique, il devra définir les catégories de données à collecter et mettre en place des filtres permettant d’exclure la collecte de certaines données. Dans sa fiche dédiée au web scraping (18), la Cnil précise que dans l’hypothèse où des données non pertinentes seraient collectées malgré les filtres mis en place, il convient de supprimer ces données, immédiatement après leur collecte ou dès elles ont été identifiées. Elle appelle également à la prudence sur la collecte automatique de données sensibles en invitant les fournisseurs à appliquer des filtres permettant d’écarter la collecte de données sensibles (19) non pertinentes ou à exclure de leurs activités de scraping certains sites comportant par nature ce type de données.
Respecter le RGPD suppose, par ailleurs, d’informer les personnes concernées et de faciliter l’exercice de leurs droits. La Cnil reconnaît (20) qu’en cas de collecte parweb scraping, une information individuelle des personnes pourrait, dans certains cas, être disproportionnée et donc non obligatoire. Elle recommande alors au fournisseur du système d’IA de fournir une information générale (par exemple au sein de sa politique de confidentialité) contenant notamment les catégories de sites sources utilisés avec des liens hypertextes vers ceux-ci, en proposant un modèle dédié. Pour les droits des personnes, elle rappelle qu’un responsable du traitement n’a pas à conserver ou collecter des informations supplémentaires qui ne lui sont pas nécessaires dans le seul but de permettre l’exercice des droits. La Cnil propose néanmoins des exemples de mesures que les fournisseurs de modèles d’IA pourraient mettre en place pour faciliter l’exercice des droits (comme la conservation de métadonnées ou d’informations sur la source des données pour faciliter la recherche d’une personne au sein de la base ou l’indication aux personnes des données à fournir pour les identifier).
La Cnil propose enfin de mettre en place des mesures supplémentaires pour garantir l’équilibre attendu de ces traitements basés sur l’intérêt légitime. Certaines mesures découlant des règles précédemment citées semblent réalisables : exclure par défaut la collecte à partir de certains sites contenant des données intrusives ; prévoir la possibilité de s’opposer au traitement de manière discrétionnaire ; appliquer des procédés d’anonymisation ou de pseudonymisation après la collecte des données. D’autres semblent moins pragmatiques.

AI Office : recommandations très attendues
Certains acteurs pourraient ainsi saisir l’opportunité de remonter leurs questionnements, difficultés pratiques, appréciation des règles dans le cadre de la consultation publique à laquelle sont soumises certaines fiches jusqu’au 15 septembre 2024 (21) ou répondre au questionnaire (22). A l’aune de l’entrée en vigueur de l’AI Act, les fournisseurs de modèles d’IA à usage général attendront donc les précieuses recommandations et modèles du bureau de l’IA, tout récemment créé (23), sur les documents à produire pour les sources de données d’entraînement, afin de leur permettre d’engager les travaux nécessaires à la compilation de ces informations. @

Droit de la consommation, propriété intellectuelle et droit pénal : les enjeux juridiques du métavers

Les défis juridiques posés par les métavers ne sont pas inédits. Mais la clé pour instaurer un climat de confiance dans le monde virtuel réside dans une adaptation proactive du cadre réglementaire actuel pour faciliter l’intégration harmonieuse et sécurisée du métavers dans notre société.

Par Arnaud Touati, avocat associé, et Dany Sawaya, juriste, Hashtag Avocats.

Le métavers est un environnement fictif en 3D, interactif et immersif, qui combine le monde réel avec des mondes virtuels. A l’intérieur, les individus peuvent incarner des avatars et interagir avec d’autres personnes ou avec des objets numériques. Imaginons un immense jeu vidéo multijoueur en ligne, regroupant divers univers de jeu où il est possible de naviguer librement. Une illustration saisissante de cette vision a été présentée dans le film « Ready Player One » de Steven Spielberg, sorti en 2018.

L’avatar, sujet de droit indépendant ?
Le métavers suit une trajectoire similaire aux enjeux soulevés par le Web, et plus récemment par la blockchain (chaîne de blocs, en français). Il est indéniable que, même dans un monde virtuel, la règle de droit continue à s’appliquer. Le métavers, tout comme la blockchain et Internet de manière générale, revêt une dimension intrinsèquement internationale. Le métavers est également un terrain de jeu fertile pour l’innovation et le développement. La France, consciente de cette opportunité, cherche à faire du métavers une priorité et envisage d’utiliser les Jeux Olympiques de 2024 à Paris (du 26 juillet au 11 août 2024) comme catalyseur pour rassembler les acteurs français des métavers. Toutefois, le développement du métavers soulève des questions juridiques complexes dans divers domaines tels que le droit de la consommation, la propriété intellectuelle, et le droit pénal. L’anticipation et l’encadrement juridique du métavers sont indispensables pour instaurer un climat de confiance et garantir une utilisation responsable et sécurisée de cette nouvelle frontière numérique.

Défis et considérations juridiques du métavers en matière de consommation. Le métavers pose des défis inédits en matière de droit de la consommation. Par exemple, comment qualifier les contrats conclus entre avatars ? La capacité juridique de l’avatar repose-t-elle dans celle de l’utilisateur qui se trouve « derrière » ou l’avatar peut-il être reconnu comme un sujet de droit indépendant ? Dans ce monde virtuel, les règles de vente et de prestation de services ne sont pas encore clairement définies. Bien que le code de la consommation reconnaisse l’absence de présence physique simultanée des parties contractantes et l’utilisation de « techniques de communication à distance » pour qualifier un contrat à distance (1), la question se pose de savoir si cela est suffisant pour appréhender une transaction dans le métavers. On peut envisager que la capacité juridique de l’avatar repose dans celle de l’utilisateur qui le contrôle, faisant de l’avatar une extension légale de l’utilisateur, ou que l’avatar soit reconnu en tant que sujet de droit indépendant. La validité des contrats conclus entre avatars soulève également des interrogations quant à leur qualification juridique. Concernant la qualification du contrat comme « à distance », cela implique l’absence de présence physique simultanée des parties et « le recours exclusif à une ou plusieurs techniques de communication à distance jusqu’à la conclusion du contrat », cette qualification peut être appliquée dans le contexte du métavers. Ainsi, on peut envisager que les avatars qui recourent à un mode virtuel de communication au sein du métavers représentent une autre forme de « technique de communication à distance ». Quant à la qualification du contrat comme « hors établissement », qui repose sur l’exigence de « la présence physique simultanée des parties »soit au lieu de la conclusion soit au lieu de la sollicitation, elle n’est évidemment pas transposable dans le métavers.

Protection des droits de propriété intellectuelle dans le métavers. Le métavers fait émerger de nouvelles dynamiques économiques, accentuées par l’avènement des NFT, ces jetons non-fongibles (2) qui révolutionnent le concept de la propriété. Les achats dans le métavers peuvent être réalisés en devise nationale ou en cryptomonnaies, permettant l’achat, la vente, et la possession d’articles numériques uniques, inscrits sur une blockchain pour garantir leur authenticité.

Droit de marque : cas des NFT « Birkin »
Cependant, cette innovation soulève d’importantes questions quant à la nature et à l’étendue du droit de propriété dans le métavers, notamment en ce qui concerne le droit de marque et le droit d’auteur. En matière de droit de marque, le code de la propriété intellectuelle (CPI) dispose que « l’enregistrement de la marque confère à son titulaire un droit de propriété sur cette marque pour les produits ou services qu’il a désignés » (3). Ainsi, la protection de la marque s’applique uniquement aux produits et services spécifiés lors de l’enregistrement. La question est de savoir si un bien ou un service réel peut être considéré comme identique ou similaire à son équivalent virtuel. Un exemple notable est le cas de Mason Rothschild, de son vrai nom Sonny Estival : le 8 février 2023, le jury du tribunal de Manhattan a reconnu l’artiste américain coupable de contrefaçon de marque, de dilution de marque et de cybersquattage pour avoir vendu des NFT représentant des sacs Birkin d’Hermès (4) sans autorisation – dans le cadre de sa collection d’œuvres d’art numériques « MetaBirkins » (5).

Droits d’auteur et (meta)données personnelles
Concernant cette fois le droit d’auteur, le CPI protège les droits des auteurs sur toutes les œuvres de l’esprit, sans distinction de genre, de forme, de mérite ou de destination (6). Les œuvres de l’esprit ne sont pas précisément définies par la loi, mais le CPI fournit une liste non exhaustive des créations pouvant être protégées (7). Par ailleurs, le CPI dispose que « la transmission des droits de l’auteur est subordonnée à la condition que chacun des droits cédés fasse l’objet d’une mention distincte dans l’acte de cession et que le domaine d’exploitation des droits cédés soit délimité quant à son étendue et à sa destination, quant au lieu et quant à la durée » (8). Par conséquent, tout ce qui n’est pas expressément cédé dans le contrat reste acquis à l’auteur, ce qui pose un risque d’action en contrefaçon. Les contrats de cession doivent donc impérativement déterminer le domaine d’exploitation des droits incluant explicitement l’exploitation dans le métavers pour éviter toute ambiguïté.
Données personnelles et vie privée dans les univers virtuels. Du point de vue de la protection des données, l’émergence des métavers marque une évolution significative des pratiques d’accès et d’interaction. Ces technologies immersives permettent une acquisition d’informations allant au-delà des simples paroles pour inclure les mouvements et émotions, soulevant ainsi des préoccupations quant à la protection de la vie privée. Les métavers reposent sur la création d’avatars qui naviguent à travers des interfaces, générant des données personnelles. Ces derniers soulèvent des inquiétudes majeures quant à la collecte, la détection et l’interprétation des comportements oculaires et émotionnels. Par exemple, des casques comme le Quest Pro de Meta intègrent déjà des fonctionnalités telles que le suivi du regard – à l’instar du Vision Pro d’Apple – et la reconnaissance des expressions du visage. Les données sur le rythme cardiaque, les expressions faciales et les mouvements peuvent être exploitées à d’autres fins, telles que la personnalisation des contenus et la publicité ciblée, introduisant des formes avancées de marketing.
La collecte et le traitement des données dans ces univers ne diffèrent pas fondamentalement de ceux que nous connaissons, et les obligations des responsables de traitement demeurent les mêmes. Si les avatars sont interprétés comme des manifestations numériques des sujets de droit, il serait concevable d’appliquer sans difficulté des protections similaires à celles des données personnelles utilisées dans les mondes virtuels, comparables à celles existant dans le monde réel. Dans ce contexte, les données personnelles transitant seraient donc soumises au règlement général sur la protection des données (RGPD), avec les droits d’accès, modification et suppression des données. D’un point de vue technique, deux défis subsistent. Tout d’abord, l’application des principes de transparence et d’information, par exemple, l’identification des collecteurs de données peut être complexe dans les univers immersifs. Ensuite, la capacité des autorités de régulation à faire respecter les principes du RGPD dans les métavers peut également soulever des défis.
La régulation des traitements des données mentales, englobant toute information organisée et traitée pour déduire l’état d’esprit d’une personne, incluant ses états cognitif, affectif et conatif, est une nécessité. Cette catégorie englobe des aspects tels que les images cérébrales, les émotions, les souvenirs et les intentions. Il semble fort probable que ces données, qu’elles soient des signaux physiques extérieurs d’émotions ou leurs inférences, soient considérées comme des données à caractère personnel, en particulier si elles permettent de singulariser un individu. Cependant, la qualification actuelle des données sensibles définies par le RGPD ne couvre pas explicitement l’état d’esprit, l’état affectif ou les émotions. Se pose alors la question de savoir s’il serait judicieux d’étendre la portée de la définition énoncée à l’article 9 du RGPD afin d’y inclure ces types de données.
Dans tous les cas, la collecte de ces données n’est pas formellement interdite en soi. Cependant, les opérateurs opérant dans le métavers devront obligatoirement obtenir le consentement – explicite, libre et éclairé – de l’utilisateur pour traiter ce type de données. De plus, le responsable du traitement devra déterminer la finalité pour laquelle ces données sont traitées et limiter ce traitement aux seules finalités définies. Mis en perspective avec le règlement européen sur l’intelligence artificielle (AI Act), se pose également la question de savoir si ces traitements seront considérés comme présentant un niveau de risque inacceptable, les rendant ainsi interdits, ou élevé, nécessitant alors obligatoirement une étude d’impact.

Risque pénal, bien réel dans le métavers
Implications du droit pénal dans le métavers.
Du point de vue du droit pénal, les mêmes dérives observées dans le monde réel se manifestent également dans le métavers : vol, agressions, escroqueries, ainsi que les infractions de presse telles que l’injure, la diffamation et l’incitation à la haine, entre autres. Par exemple, le code pénal impose que la chose volée soit matérielle, c’est-à-dire, en principe un bien meuble corporel. Toutefois, la jurisprudence est venue assouplir cette interprétation en 2015, en admettant que les données informatiques puissent faire l’objet d’un vol (9). Ainsi, appliqué au métavers, cela suggère que cette infraction puisse s’adapter aux évolutions des pratiques dans le monde virtuel. A noter que la Cour suprême néerlandaise a, elle, déjà qualifié pénalement le vol virtuel (10). @

TikTok n’est plus censuré en Nouvelle-Calédonie, mais la décision de son blocage reste contestée

« La censure de TikTok en Nouvelle-Calédonie […] semble illégale », titrions-nous dans Edition Multimédi@ n°322 daté du 27 mai. Le même jour, La Quadrature du Net déposait devant le Conseil d’Etat – lequel a rejeté le 23 mai son précédent recours – un recours en excès de pouvoir cette fois.

« Bien que le blocage de TikTok soit levé [depuis le 29 mai 2024, ndlr], le précédent politique et juridique existe désormais. Nous pensons qu’il faut tout faire pour que celui-ci ne se reproduise pas et reste un cas isolé. Que ce soit par la Cour européenne des droits de l’homme ou par le Comité des droits de l’homme des Nations unies, ce type de censure est unanimement condamné. Nous ne pouvons donc pas laisser le Conseil d’Etat se satisfaire de ce blocage et devons exiger de lui qu’il rappelle le droit et sanctionne le gouvernement », a expliqué le 5 juin La Quadrature du Net (LQDN), l’association de promotion et de défense des libertés fondamentales dans l’environnement numérique.

Recours d’urgence versus mesure d’urgence
Le recours de près d’une trentaine de pages (1) daté du 27 mai 2024 et signé par Alexis Fitzjean Ó Cobhthaigh (photo), avocat au barreau de Paris, demande au Conseil d’Etat d’annuler la décision attaquée, à savoir celle prise le 14 mai dernier par le Premier ministre qui a ordonné le blocage de TikTok sur l’ensemble de la Nouvelle-Calédonie. Et ce, dans un contexte de sérieux troubles sur l’archipel où l’état d’urgence avait été décrété – pour douze jours légaux maximum – le 15 mai et l’armée déployée pour sécuriser les ports et aéroport de Nouvelle-Calédonie (2). De nombreuses voix se sont exprimées sur le réseau social en Nouvelle-Calédonie contre la réforme constitutionnelle visant à élargir le corps électoral de ce territoire, projet contesté par les indépendantistes. Des émeutes et des violences ont eu lieu.
Le blocage sans précédent en France (tous territoires confondus) avait aussitôt été attaqué en justice par deux organisations, La Quadrature du Net (LQDN) et la Ligue des droits de l’homme (LDH), ainsi que par trois Néo-Calédoniens. Ces premiers recours distincts en urgence devant le Conseil d’Etat avaient été déposés le 17 mai. Le juge des référés de la haute juridiction administrative avait ensuite le 21 mai donné 24 heures au gouvernement pour apporter les preuves écrites et/ou visuelles (images, vidéo, …) pouvant justifier le blocage de TikTok pour des raisons en rapport avec des « actes de terrorisme ». Le Premier ministre Gabriel Attal pourrait-il vraiment s’appuyer sur la loi du 3 avril 1955 sur l’état d’urgence justement, dont l’article 11 prévoit que « le ministre de l’Intérieur peut prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne, provoquant à la commission d’actes de terrorisme ou en faisant l’apologie » (3) ?

Dans notre précédent article juridique paru dans Edition Multimédi@ n°322 daté du 27 mai, nous avons fait état d’un sérieux doute sur la légalité de la décision de Matignon, mise en œuvre sur le « Caillou » ou en « Kanaky », c’est selon. « La censure de TikTok en Nouvelle-Calédonie par son Haut-commissaire de la République semble illégale », avions-nous titré (4). La censure de TikTok avait été mise en œuvre par le « préfet hors-classe » (grade le plus élevé) Louis Le Franc (5), haut-commissaire de la République en Nouvelle-Calédonie, représentant de l’Etat français de cette collectivité sui generis (6) située en Océanie, et à ce titre délégué du gouvernement représentant le Premier ministre et chacun des ministres français.
Le 23 mai, le Conseil d’Etat a rejeté les recours en référé de LQDN, de la LDH et des trois Néo-Calédoniens (MFD, CB et EA). « Les requérants n’apportent aucun élément permettant de caractériser l’urgence à l’intervention du juge des référés […] et se bornent à soutenir que l’atteinte portée par la décision attaquée aux libertés d’expression, de communication, d’accéder à des services de communication en ligne, de la presse et au pluralisme d’expression des courants de pensées et d’opinions, eu égard à sa gravité, constitue en elle-même une situation d’urgence. Cependant, [puisque les requérants n’apportent pas d’éléments pour démontrer que ce blocage a des conséquences immédiates et concrètes sur leur situation et leurs intérêts], l’atteinte à une liberté fondamentale ne saurait suffire pour caractériser une situation d’urgence », a jugé la haute autorité administrative (7).

« Retour sur un fiasco démocratique » (LQDN)
En outre, le Conseil d’Etat a décidé qu’il n’y avait pas lieu de renvoyer au Conseil constitutionnel les questions prioritaires de constitutionnalité soulevées par LQDN et la LDH. Quant à l’association Mouvement Kanak, qui avait demandé à pouvoir plaider en soutien de la LDH, elle a néanmoins vu son intervention jugée recevable. « Pour justifier cette décision inique, le juge des référés a affirmé qu’il n’y aurait pas d’urgence à statuer puisque ce blocage serait, selon les dires du gouvernement, bientôt levé. Il aura fallu attendre plus de 24 heures après la levée de l’état d’urgence pour que le réseau social soit de nouveau accessible », a fustigé LQDN le 5 juin dans un post intitulé « Blocage de TikTok en Nouvelle-Calédonie : retour sur un fiasco démocratique » (8). Le 27 mai, TikTok était toujours bloqué. Ce n’est que le lendemain que son interdiction a été levée, selon l’indication donnée le 29 mai par les services de l’Etat en Nouvelle-Calédonie (9). De son côté, la LDH a pointé le 30 mai le fait que « le juge refuse non seulement d’examiner la proportionnalité de la mesure, mais il se garde même de rechercher si les circonstances étaient à ce point exceptionnelles qu’elles permettaient à l’exécutif d’agir en dehors de tout cadre légal ». Et la Ligue des droits de l’homme de préciser : « Le recours au fond demeure pendant » (10).

La décision « anti-TikTok » non formalisée
Dans son recours « en excès de pouvoir » contre cette décision, La Quadrature du Net, elle, dénonce pêle-mêle : l’atteinte grave et manifeste illégale à la liberté d’expression, de communication des idées et des opinions, et d’accès à l’information ; la violation de l’article 10 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales (CESDH) ; le défaut de base légale ; l’absence de nécessité de l’atteinte dans une société démocratique ; l’atteinte nullement nécessaire, radicalement inadaptée et manifestement disproportionnée. Un détail souvent passé inaperçu dans les médias, mais qu’ont relevé les deux associations LQDN et LDH, c’est que la fameuse « décision du 14 mai » n’a pas été « formalisée », bien qu’elle ait été annoncée par le Premier ministre Gabriel Attal le 15 mai – l’Agence France-Presse (AFP) ayant publié ce jour-là une dépêche à ce propos. Contacté ce même jour par Numerama, Matignon a répondu que « TikTok a effectivement été interdit mercredi [15 mai] par le PM [Premier ministre, ndlr] et le gouvernement en raison des ingérences et de la manipulation dont fait l’objet la plateforme dont la maison mère est chinoise » et a justifié la décision en affirmant que « l’application est utilisée en tant que support de diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers, et relayé par les émeutiers » (11). Bien que non formalisée, la décision du 14 mai a bien été appliquée par le haut-commissaire de la République en Nouvelle-Calédonie car LQDN verse au dossier le fait que les « sondes Atlas » – du Rip régional (12) chargé de l’attribution de ressources Internet comme les adresses IP – présentes en Nouvelle-Calédonie montrent l’absence de blocage de TikTok le 15 mai 2024 à 23 heures 04 (heure de Paris), « alors que le 16 mai 2024 à 9 heures 49 (heure de Paris) le blocage commençait à être effectif ». Et d’apporter une indication supplémentaire : « Le 27 mai 2024, ce blocage était toujours effectif », n’ayant été levé, nous l’avons vu, que le 28 mai. Même si elle est non formalisée, cette décision administrative « anti-TikTok » peut être révélée par ses effets ou par des déclarations des pouvoirs publics, comme dans le cas présent, et peut donc « être déférée à la censure du Conseil d’Etat ».
Ainsi, dans le nouveau recours du 27 mai, cette fois pour excès de pouvoir, il est souligné que le blocage litigieux est « particulièrement grave et totalement inédit en France, en Europe et dans les autres pays démocratiques » et qu’il y a dans cette affaire « des illégalités graves et manifestes ». Dans la démonstration produite par Alexis Fitzjean Ó Cobhthaigh, avocat de LQDN, il est reproché au Conseil d’Etat d’avoir fondé sa décision de rejet en référé le 23 mai « sur la circonstance que le gouvernement “fai[sait] valoir” que le blocage aurait contribué à la baisse des tensions, sans exiger toutefois, ainsi qu’il aurait pourtant dû le faire, la moindre démonstration à cet égard, et alors que les pièces produites en défense démontraient manifestement le contraire. Autrement dit, il s’est contenté de donner foi aux allégations controuvées du Premier ministre, alors même qu’elles étaient directement contredites par ses propres pièces » (13). La Quadrature du Net met d’abord en avant dans son recours le fait que la décision attaquée méconnaît gravement l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789, l’article 10 de la CESDH de 1950 déjà mentionnée et l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) de 1966. Et ce, « en ce qu’elle porte une atteinte nullement nécessaire, radicalement inadaptée et manifestement disproportionnée à liberté d’expression, de communication des idées et des opinions, et d’accès à l’information ».
Ensuite, la décision attaquée méconnaît gravement la liberté d’expression, de communication des idées et des opinions, et d’accès à l’information – liberté protégée par l’article 11 de la Déclaration de 1789, l’article 10 de la CESDH, et l’article 19 du PIDCP. Et cette décision du 14 mai 2014 n’ayant pas été formalisée « revêt, dès lors, un caractère arbitraire et, d’autre part et surtout, en ce qu’elle est dépourvue de toute base légale ».

Faire sortir le Conseil d’Etat de « sa torpeur »
« Avec le blocage arbitraire de TikTok, une nouvelle étape a été franchie », s’inquiète LQDN. En contestant à nouveau la décision administrative du 14 mai 2024 devant le Conseil d’Etat, l’association de promotion et de défense des libertés fondamentales dans l’environnement numérique, notamment de la liberté d’expression, s’attend à une procédure longue qui prendra un à deux ans. « Nous espérons que le Conseil d’Etat sortira de sa torpeur et confirmera que le blocage était illégal. Car pour bloquer TikTok, le gouvernement ne s’est vu opposer aucun obstacle, aucun garde-fou, et n’a jamais eu à justifier sa mesure », insiste LQDN dirigée par un collège solidaire. @

Charles de Laubier