Droit de la consommation, propriété intellectuelle et droit pénal : les enjeux juridiques du métavers

Les défis juridiques posés par les métavers ne sont pas inédits. Mais la clé pour instaurer un climat de confiance dans le monde virtuel réside dans une adaptation proactive du cadre réglementaire actuel pour faciliter l’intégration harmonieuse et sécurisée du métavers dans notre société.

Par Arnaud Touati, avocat associé, et Dany Sawaya, juriste, Hashtag Avocats.

Le métavers est un environnement fictif en 3D, interactif et immersif, qui combine le monde réel avec des mondes virtuels. A l’intérieur, les individus peuvent incarner des avatars et interagir avec d’autres personnes ou avec des objets numériques. Imaginons un immense jeu vidéo multijoueur en ligne, regroupant divers univers de jeu où il est possible de naviguer librement. Une illustration saisissante de cette vision a été présentée dans le film « Ready Player One » de Steven Spielberg, sorti en 2018.

L’avatar, sujet de droit indépendant ?
Le métavers suit une trajectoire similaire aux enjeux soulevés par le Web, et plus récemment par la blockchain (chaîne de blocs, en français). Il est indéniable que, même dans un monde virtuel, la règle de droit continue à s’appliquer. Le métavers, tout comme la blockchain et Internet de manière générale, revêt une dimension intrinsèquement internationale. Le métavers est également un terrain de jeu fertile pour l’innovation et le développement. La France, consciente de cette opportunité, cherche à faire du métavers une priorité et envisage d’utiliser les Jeux Olympiques de 2024 à Paris (du 26 juillet au 11 août 2024) comme catalyseur pour rassembler les acteurs français des métavers. Toutefois, le développement du métavers soulève des questions juridiques complexes dans divers domaines tels que le droit de la consommation, la propriété intellectuelle, et le droit pénal. L’anticipation et l’encadrement juridique du métavers sont indispensables pour instaurer un climat de confiance et garantir une utilisation responsable et sécurisée de cette nouvelle frontière numérique.

Défis et considérations juridiques du métavers en matière de consommation. Le métavers pose des défis inédits en matière de droit de la consommation. Par exemple, comment qualifier les contrats conclus entre avatars ? La capacité juridique de l’avatar repose-t-elle dans celle de l’utilisateur qui se trouve « derrière » ou l’avatar peut-il être reconnu comme un sujet de droit indépendant ? Dans ce monde virtuel, les règles de vente et de prestation de services ne sont pas encore clairement définies. Bien que le code de la consommation reconnaisse l’absence de présence physique simultanée des parties contractantes et l’utilisation de « techniques de communication à distance » pour qualifier un contrat à distance (1), la question se pose de savoir si cela est suffisant pour appréhender une transaction dans le métavers. On peut envisager que la capacité juridique de l’avatar repose dans celle de l’utilisateur qui le contrôle, faisant de l’avatar une extension légale de l’utilisateur, ou que l’avatar soit reconnu en tant que sujet de droit indépendant. La validité des contrats conclus entre avatars soulève également des interrogations quant à leur qualification juridique. Concernant la qualification du contrat comme « à distance », cela implique l’absence de présence physique simultanée des parties et « le recours exclusif à une ou plusieurs techniques de communication à distance jusqu’à la conclusion du contrat », cette qualification peut être appliquée dans le contexte du métavers. Ainsi, on peut envisager que les avatars qui recourent à un mode virtuel de communication au sein du métavers représentent une autre forme de « technique de communication à distance ». Quant à la qualification du contrat comme « hors établissement », qui repose sur l’exigence de « la présence physique simultanée des parties »soit au lieu de la conclusion soit au lieu de la sollicitation, elle n’est évidemment pas transposable dans le métavers.

Protection des droits de propriété intellectuelle dans le métavers. Le métavers fait émerger de nouvelles dynamiques économiques, accentuées par l’avènement des NFT, ces jetons non-fongibles (2) qui révolutionnent le concept de la propriété. Les achats dans le métavers peuvent être réalisés en devise nationale ou en cryptomonnaies, permettant l’achat, la vente, et la possession d’articles numériques uniques, inscrits sur une blockchain pour garantir leur authenticité.

Droit de marque : cas des NFT « Birkin »
Cependant, cette innovation soulève d’importantes questions quant à la nature et à l’étendue du droit de propriété dans le métavers, notamment en ce qui concerne le droit de marque et le droit d’auteur. En matière de droit de marque, le code de la propriété intellectuelle (CPI) dispose que « l’enregistrement de la marque confère à son titulaire un droit de propriété sur cette marque pour les produits ou services qu’il a désignés » (3). Ainsi, la protection de la marque s’applique uniquement aux produits et services spécifiés lors de l’enregistrement. La question est de savoir si un bien ou un service réel peut être considéré comme identique ou similaire à son équivalent virtuel. Un exemple notable est le cas de Mason Rothschild, de son vrai nom Sonny Estival : le 8 février 2023, le jury du tribunal de Manhattan a reconnu l’artiste américain coupable de contrefaçon de marque, de dilution de marque et de cybersquattage pour avoir vendu des NFT représentant des sacs Birkin d’Hermès (4) sans autorisation – dans le cadre de sa collection d’œuvres d’art numériques « MetaBirkins » (5).

Droits d’auteur et (meta)données personnelles
Concernant cette fois le droit d’auteur, le CPI protège les droits des auteurs sur toutes les œuvres de l’esprit, sans distinction de genre, de forme, de mérite ou de destination (6). Les œuvres de l’esprit ne sont pas précisément définies par la loi, mais le CPI fournit une liste non exhaustive des créations pouvant être protégées (7). Par ailleurs, le CPI dispose que « la transmission des droits de l’auteur est subordonnée à la condition que chacun des droits cédés fasse l’objet d’une mention distincte dans l’acte de cession et que le domaine d’exploitation des droits cédés soit délimité quant à son étendue et à sa destination, quant au lieu et quant à la durée » (8). Par conséquent, tout ce qui n’est pas expressément cédé dans le contrat reste acquis à l’auteur, ce qui pose un risque d’action en contrefaçon. Les contrats de cession doivent donc impérativement déterminer le domaine d’exploitation des droits incluant explicitement l’exploitation dans le métavers pour éviter toute ambiguïté.
Données personnelles et vie privée dans les univers virtuels. Du point de vue de la protection des données, l’émergence des métavers marque une évolution significative des pratiques d’accès et d’interaction. Ces technologies immersives permettent une acquisition d’informations allant au-delà des simples paroles pour inclure les mouvements et émotions, soulevant ainsi des préoccupations quant à la protection de la vie privée. Les métavers reposent sur la création d’avatars qui naviguent à travers des interfaces, générant des données personnelles. Ces derniers soulèvent des inquiétudes majeures quant à la collecte, la détection et l’interprétation des comportements oculaires et émotionnels. Par exemple, des casques comme le Quest Pro de Meta intègrent déjà des fonctionnalités telles que le suivi du regard – à l’instar du Vision Pro d’Apple – et la reconnaissance des expressions du visage. Les données sur le rythme cardiaque, les expressions faciales et les mouvements peuvent être exploitées à d’autres fins, telles que la personnalisation des contenus et la publicité ciblée, introduisant des formes avancées de marketing.
La collecte et le traitement des données dans ces univers ne diffèrent pas fondamentalement de ceux que nous connaissons, et les obligations des responsables de traitement demeurent les mêmes. Si les avatars sont interprétés comme des manifestations numériques des sujets de droit, il serait concevable d’appliquer sans difficulté des protections similaires à celles des données personnelles utilisées dans les mondes virtuels, comparables à celles existant dans le monde réel. Dans ce contexte, les données personnelles transitant seraient donc soumises au règlement général sur la protection des données (RGPD), avec les droits d’accès, modification et suppression des données. D’un point de vue technique, deux défis subsistent. Tout d’abord, l’application des principes de transparence et d’information, par exemple, l’identification des collecteurs de données peut être complexe dans les univers immersifs. Ensuite, la capacité des autorités de régulation à faire respecter les principes du RGPD dans les métavers peut également soulever des défis.
La régulation des traitements des données mentales, englobant toute information organisée et traitée pour déduire l’état d’esprit d’une personne, incluant ses états cognitif, affectif et conatif, est une nécessité. Cette catégorie englobe des aspects tels que les images cérébrales, les émotions, les souvenirs et les intentions. Il semble fort probable que ces données, qu’elles soient des signaux physiques extérieurs d’émotions ou leurs inférences, soient considérées comme des données à caractère personnel, en particulier si elles permettent de singulariser un individu. Cependant, la qualification actuelle des données sensibles définies par le RGPD ne couvre pas explicitement l’état d’esprit, l’état affectif ou les émotions. Se pose alors la question de savoir s’il serait judicieux d’étendre la portée de la définition énoncée à l’article 9 du RGPD afin d’y inclure ces types de données.
Dans tous les cas, la collecte de ces données n’est pas formellement interdite en soi. Cependant, les opérateurs opérant dans le métavers devront obligatoirement obtenir le consentement – explicite, libre et éclairé – de l’utilisateur pour traiter ce type de données. De plus, le responsable du traitement devra déterminer la finalité pour laquelle ces données sont traitées et limiter ce traitement aux seules finalités définies. Mis en perspective avec le règlement européen sur l’intelligence artificielle (AI Act), se pose également la question de savoir si ces traitements seront considérés comme présentant un niveau de risque inacceptable, les rendant ainsi interdits, ou élevé, nécessitant alors obligatoirement une étude d’impact.

Risque pénal, bien réel dans le métavers
Implications du droit pénal dans le métavers.
Du point de vue du droit pénal, les mêmes dérives observées dans le monde réel se manifestent également dans le métavers : vol, agressions, escroqueries, ainsi que les infractions de presse telles que l’injure, la diffamation et l’incitation à la haine, entre autres. Par exemple, le code pénal impose que la chose volée soit matérielle, c’est-à-dire, en principe un bien meuble corporel. Toutefois, la jurisprudence est venue assouplir cette interprétation en 2015, en admettant que les données informatiques puissent faire l’objet d’un vol (9). Ainsi, appliqué au métavers, cela suggère que cette infraction puisse s’adapter aux évolutions des pratiques dans le monde virtuel. A noter que la Cour suprême néerlandaise a, elle, déjà qualifié pénalement le vol virtuel (10). @

TikTok n’est plus censuré en Nouvelle-Calédonie, mais la décision de son blocage reste contestée

« La censure de TikTok en Nouvelle-Calédonie […] semble illégale », titrions-nous dans Edition Multimédi@ n°322 daté du 27 mai. Le même jour, La Quadrature du Net déposait devant le Conseil d’Etat – lequel a rejeté le 23 mai son précédent recours – un recours en excès de pouvoir cette fois.

« Bien que le blocage de TikTok soit levé [depuis le 29 mai 2024, ndlr], le précédent politique et juridique existe désormais. Nous pensons qu’il faut tout faire pour que celui-ci ne se reproduise pas et reste un cas isolé. Que ce soit par la Cour européenne des droits de l’homme ou par le Comité des droits de l’homme des Nations unies, ce type de censure est unanimement condamné. Nous ne pouvons donc pas laisser le Conseil d’Etat se satisfaire de ce blocage et devons exiger de lui qu’il rappelle le droit et sanctionne le gouvernement », a expliqué le 5 juin La Quadrature du Net (LQDN), l’association de promotion et de défense des libertés fondamentales dans l’environnement numérique.

Recours d’urgence versus mesure d’urgence
Le recours de près d’une trentaine de pages (1) daté du 27 mai 2024 et signé par Alexis Fitzjean Ó Cobhthaigh (photo), avocat au barreau de Paris, demande au Conseil d’Etat d’annuler la décision attaquée, à savoir celle prise le 14 mai dernier par le Premier ministre qui a ordonné le blocage de TikTok sur l’ensemble de la Nouvelle-Calédonie. Et ce, dans un contexte de sérieux troubles sur l’archipel où l’état d’urgence avait été décrété – pour douze jours légaux maximum – le 15 mai et l’armée déployée pour sécuriser les ports et aéroport de Nouvelle-Calédonie (2). De nombreuses voix se sont exprimées sur le réseau social en Nouvelle-Calédonie contre la réforme constitutionnelle visant à élargir le corps électoral de ce territoire, projet contesté par les indépendantistes. Des émeutes et des violences ont eu lieu.
Le blocage sans précédent en France (tous territoires confondus) avait aussitôt été attaqué en justice par deux organisations, La Quadrature du Net (LQDN) et la Ligue des droits de l’homme (LDH), ainsi que par trois Néo-Calédoniens. Ces premiers recours distincts en urgence devant le Conseil d’Etat avaient été déposés le 17 mai. Le juge des référés de la haute juridiction administrative avait ensuite le 21 mai donné 24 heures au gouvernement pour apporter les preuves écrites et/ou visuelles (images, vidéo, …) pouvant justifier le blocage de TikTok pour des raisons en rapport avec des « actes de terrorisme ». Le Premier ministre Gabriel Attal pourrait-il vraiment s’appuyer sur la loi du 3 avril 1955 sur l’état d’urgence justement, dont l’article 11 prévoit que « le ministre de l’Intérieur peut prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne, provoquant à la commission d’actes de terrorisme ou en faisant l’apologie » (3) ?

Dans notre précédent article juridique paru dans Edition Multimédi@ n°322 daté du 27 mai, nous avons fait état d’un sérieux doute sur la légalité de la décision de Matignon, mise en œuvre sur le « Caillou » ou en « Kanaky », c’est selon. « La censure de TikTok en Nouvelle-Calédonie par son Haut-commissaire de la République semble illégale », avions-nous titré (4). La censure de TikTok avait été mise en œuvre par le « préfet hors-classe » (grade le plus élevé) Louis Le Franc (5), haut-commissaire de la République en Nouvelle-Calédonie, représentant de l’Etat français de cette collectivité sui generis (6) située en Océanie, et à ce titre délégué du gouvernement représentant le Premier ministre et chacun des ministres français.
Le 23 mai, le Conseil d’Etat a rejeté les recours en référé de LQDN, de la LDH et des trois Néo-Calédoniens (MFD, CB et EA). « Les requérants n’apportent aucun élément permettant de caractériser l’urgence à l’intervention du juge des référés […] et se bornent à soutenir que l’atteinte portée par la décision attaquée aux libertés d’expression, de communication, d’accéder à des services de communication en ligne, de la presse et au pluralisme d’expression des courants de pensées et d’opinions, eu égard à sa gravité, constitue en elle-même une situation d’urgence. Cependant, [puisque les requérants n’apportent pas d’éléments pour démontrer que ce blocage a des conséquences immédiates et concrètes sur leur situation et leurs intérêts], l’atteinte à une liberté fondamentale ne saurait suffire pour caractériser une situation d’urgence », a jugé la haute autorité administrative (7).

« Retour sur un fiasco démocratique » (LQDN)
En outre, le Conseil d’Etat a décidé qu’il n’y avait pas lieu de renvoyer au Conseil constitutionnel les questions prioritaires de constitutionnalité soulevées par LQDN et la LDH. Quant à l’association Mouvement Kanak, qui avait demandé à pouvoir plaider en soutien de la LDH, elle a néanmoins vu son intervention jugée recevable. « Pour justifier cette décision inique, le juge des référés a affirmé qu’il n’y aurait pas d’urgence à statuer puisque ce blocage serait, selon les dires du gouvernement, bientôt levé. Il aura fallu attendre plus de 24 heures après la levée de l’état d’urgence pour que le réseau social soit de nouveau accessible », a fustigé LQDN le 5 juin dans un post intitulé « Blocage de TikTok en Nouvelle-Calédonie : retour sur un fiasco démocratique » (8). Le 27 mai, TikTok était toujours bloqué. Ce n’est que le lendemain que son interdiction a été levée, selon l’indication donnée le 29 mai par les services de l’Etat en Nouvelle-Calédonie (9). De son côté, la LDH a pointé le 30 mai le fait que « le juge refuse non seulement d’examiner la proportionnalité de la mesure, mais il se garde même de rechercher si les circonstances étaient à ce point exceptionnelles qu’elles permettaient à l’exécutif d’agir en dehors de tout cadre légal ». Et la Ligue des droits de l’homme de préciser : « Le recours au fond demeure pendant » (10).

La décision « anti-TikTok » non formalisée
Dans son recours « en excès de pouvoir » contre cette décision, La Quadrature du Net, elle, dénonce pêle-mêle : l’atteinte grave et manifeste illégale à la liberté d’expression, de communication des idées et des opinions, et d’accès à l’information ; la violation de l’article 10 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales (CESDH) ; le défaut de base légale ; l’absence de nécessité de l’atteinte dans une société démocratique ; l’atteinte nullement nécessaire, radicalement inadaptée et manifestement disproportionnée. Un détail souvent passé inaperçu dans les médias, mais qu’ont relevé les deux associations LQDN et LDH, c’est que la fameuse « décision du 14 mai » n’a pas été « formalisée », bien qu’elle ait été annoncée par le Premier ministre Gabriel Attal le 15 mai – l’Agence France-Presse (AFP) ayant publié ce jour-là une dépêche à ce propos. Contacté ce même jour par Numerama, Matignon a répondu que « TikTok a effectivement été interdit mercredi [15 mai] par le PM [Premier ministre, ndlr] et le gouvernement en raison des ingérences et de la manipulation dont fait l’objet la plateforme dont la maison mère est chinoise » et a justifié la décision en affirmant que « l’application est utilisée en tant que support de diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers, et relayé par les émeutiers » (11). Bien que non formalisée, la décision du 14 mai a bien été appliquée par le haut-commissaire de la République en Nouvelle-Calédonie car LQDN verse au dossier le fait que les « sondes Atlas » – du Rip régional (12) chargé de l’attribution de ressources Internet comme les adresses IP – présentes en Nouvelle-Calédonie montrent l’absence de blocage de TikTok le 15 mai 2024 à 23 heures 04 (heure de Paris), « alors que le 16 mai 2024 à 9 heures 49 (heure de Paris) le blocage commençait à être effectif ». Et d’apporter une indication supplémentaire : « Le 27 mai 2024, ce blocage était toujours effectif », n’ayant été levé, nous l’avons vu, que le 28 mai. Même si elle est non formalisée, cette décision administrative « anti-TikTok » peut être révélée par ses effets ou par des déclarations des pouvoirs publics, comme dans le cas présent, et peut donc « être déférée à la censure du Conseil d’Etat ».
Ainsi, dans le nouveau recours du 27 mai, cette fois pour excès de pouvoir, il est souligné que le blocage litigieux est « particulièrement grave et totalement inédit en France, en Europe et dans les autres pays démocratiques » et qu’il y a dans cette affaire « des illégalités graves et manifestes ». Dans la démonstration produite par Alexis Fitzjean Ó Cobhthaigh, avocat de LQDN, il est reproché au Conseil d’Etat d’avoir fondé sa décision de rejet en référé le 23 mai « sur la circonstance que le gouvernement “fai[sait] valoir” que le blocage aurait contribué à la baisse des tensions, sans exiger toutefois, ainsi qu’il aurait pourtant dû le faire, la moindre démonstration à cet égard, et alors que les pièces produites en défense démontraient manifestement le contraire. Autrement dit, il s’est contenté de donner foi aux allégations controuvées du Premier ministre, alors même qu’elles étaient directement contredites par ses propres pièces » (13). La Quadrature du Net met d’abord en avant dans son recours le fait que la décision attaquée méconnaît gravement l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789, l’article 10 de la CESDH de 1950 déjà mentionnée et l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) de 1966. Et ce, « en ce qu’elle porte une atteinte nullement nécessaire, radicalement inadaptée et manifestement disproportionnée à liberté d’expression, de communication des idées et des opinions, et d’accès à l’information ».
Ensuite, la décision attaquée méconnaît gravement la liberté d’expression, de communication des idées et des opinions, et d’accès à l’information – liberté protégée par l’article 11 de la Déclaration de 1789, l’article 10 de la CESDH, et l’article 19 du PIDCP. Et cette décision du 14 mai 2014 n’ayant pas été formalisée « revêt, dès lors, un caractère arbitraire et, d’autre part et surtout, en ce qu’elle est dépourvue de toute base légale ».

Faire sortir le Conseil d’Etat de « sa torpeur »
« Avec le blocage arbitraire de TikTok, une nouvelle étape a été franchie », s’inquiète LQDN. En contestant à nouveau la décision administrative du 14 mai 2024 devant le Conseil d’Etat, l’association de promotion et de défense des libertés fondamentales dans l’environnement numérique, notamment de la liberté d’expression, s’attend à une procédure longue qui prendra un à deux ans. « Nous espérons que le Conseil d’Etat sortira de sa torpeur et confirmera que le blocage était illégal. Car pour bloquer TikTok, le gouvernement ne s’est vu opposer aucun obstacle, aucun garde-fou, et n’a jamais eu à justifier sa mesure », insiste LQDN dirigée par un collège solidaire. @

Charles de Laubier

La censure de TikTok en Nouvelle-Calédonie par son Haut-commissaire de la République semble illégale

Annoncée par le Premier ministre le 15 mai 2024, la décision sans précédent de bloquer TikTok en Nouvelle-Calédonie est attaquée en justice par deux organisations et des Néo-Calédoniens. Le 21 mai, la haute juridiction administrative a donné 24h au gouvernement pour se justifier.

Louis Le Franc (photo de gauche) est le haut-commissaire de la République en Nouvelle-Calédonie. En tant que représentant de l’Etat français de cette collectivité sui generis (ni département d’outre-mer ni territoire d’outre-mer) située en Océanie, et à ce titre délégué du gouvernement représentant le Premier ministre Gabriel Attal (photo de droite)et chacun des ministres français, ce « préfet hors-classe » (le grade le plus élevé) a la charge des intérêts nationaux et assure la direction des services de l’Etat sur le territoire. Il est en outre préfet de la zone de défense de Nouvelle-Calédonie et Wallis-et-Futuna (1).

La liberté d’expression, victime collatérale
C’est à lui qu’est revenue la responsabilité de mettre à exécution l’interdiction de TikTok dans l’archipel secoué quelques jours à partir du 13 mai par des émeutes et des violences, lesquelles sont en lien avec une réforme constitutionnelle visant à élargir le corps électoral, projet contesté par les indépendantistes. Le censure du réseau social du chinois ByteDance (2) a été annoncée le 15 mai par le Premier ministre Gabriel Attal, le haut-commissaire Louis Le Franc ayant de son côté « instauré un couvre-feu et interdit TikTok ». Ce blocage, bien que la décision concernant le réseau social n’avait pas encore été formalisée par un texte – est effectif uniquement sur les smartphones (dixit le cabinet du Premier ministre), mis en œuvre par l’Office des postes et télécommunications de Nouvelle-Calédonie (OPT-NC). C’est d’autant plus facile que cet établissement public gère lui-même l’unique opérateur mobile de l’archipel, Mobilis.

Le locataire de Matignon a aussi indiqué que l’état d’urgence venait d’entrer en vigueur sur l’archipel calédonien par décret du 15 mai (3) et que l’armée était déployée « pour sécuriser » les ports et l’aéroport de Nouvelle-Calédonie. « TikTok a effectivement été interdit mercredi[15 mai] par le PM[Premier ministre, ndlr] et le gouvernement en raison des ingérences et de la manipulation dont fait l’objet la plateforme dont la maison mère est chinoise. L’application est utilisée en tant que support de diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers [le ministre de l’Intérieur Gérald Darmanin accusant l’Azerbaïdjan, tandis que la Chine est suspectée, ndlr], et relayé par les émeutiers », a justifié le 16 mai le cabinet de Gabriel Attal, auprès de Numerama (4). Le lendemain, La Quadrature du Net et la Ligue des droits de l’homme ont déposé deux recours en référé distincts devant le Conseil d’Etat respectivement contre « un coup inédit et particulièrement grave à la liberté d’expression en ligne » (5) et pour « défendre la liberté de communication des idées et des opinions » (6). Tandis que trois NéoCalédoniens contestent aussi la légalité de la décision, d’après Libération (7). Le 21 mai, le juge des référés a donné 24 heures au gouvernement pour motiver le blocage de TikTok.
Le fondement juridique du décret « déclar[ant] l’état d’urgence sur l’ensemble du territoire de Nouvelle-Calédonie » réside dans la loi du 3 avril 1955 relative à l’état d’urgence justement, dont l’article 11 prévoit que « le ministre de l’Intérieur peut prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne, provoquant à la commission d’actes de terrorisme ou en faisant l’apologie » (8). Déclaré en conseil des ministres pour une durée maximum de douze jours (9), l’état d’urgence ne pourra être prolongé que par une loi adoptée par le Parlement, conformément à l’article 2 de la loi de 1955. « Cette mesure est prise en raison de “circonstances exceptionnelles” », affirme en ligne Matignon, « au juge administratif de contrôler les mesures prises » (10).
Or il y a une différence de taille entre ce que prévoit cette loi « Etat d’urgence » en matière de « provocation à la commission d’actes de terrorisme ou en faisant l’apologie » et ce que dit le cabinet du Premier ministre en parlant de « diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers, et relayé par les émeutiers ». Car entre incitation au terrorisme, d’une part, et diffusion de désinformation, d’autre part, il y a une grande nuance. « Aussi grave soit la situation, ce n’est *pas du tout* un motif prévu par la loi. Cette illégalité interroge », a commenté Nicolas Hervieu, professeur de droit public, sur X (ex-Twitter) le 16 mai (11). La veille, il avait déprimé des réserves sur le blocage de TikTok : « La légalité de cette décision de @Interieur_Gouv annoncée par @GabrielAttal est discutable. Car le lien avec le terrorisme est plus que douteux… » (12).

Bloquer TikTok en France est une première
Et Nicolas Hervieu d’enfoncer le clou : « Au passage, ce texte [le dernier alinéa de l’article 11 introduit dans la loi de 1955, ndlr] est né d’un amendement parlementaire inséré dans la loi du 20 novembre 2015 (laquelle a été votée en seulement deux jours). Avec uniquement “l’islamisme radical” et le “djihadisme” en ligne de mire… Il n’a jamais été contrôlé par le Conseil constitutionnel » (13). Ce professeur s’est aussi exprimé dans Le Figaro dans ce sens : « En somme, on permet au pouvoir administratif de limiter l’accès aux réseaux sociaux sur son interprétation du terrorisme. Une mesure qui interrogeait déjà en 2015, puisqu’il n’existe pas de réelle possibilité de la contester en tant que telle. […] sur l’illégalité manifeste de cette décision compte tenu du fait que le blocage n’est possible qu’en cas de provocation ou apologie du terrorisme au sens stricte » (14). A l’évidence, selon ce juriste, les raisons du gouvernement français en Nouvelle-Calédonie justifiant la censure de TikTok n’entreraient pas dans la définition de « terrorisme » au sens strict du droit.

Le chinois veut discuter avec le gouvernement
« Est-ce que c’est de façon légale que le gouvernement recouru à ce dispositif ou est-ce que c’est un détournement de pouvoir ? Est-ce que c’est un usage excessif d’un dispositif qui n’avait été prévu que pour lutter contre le terrorisme au sens strict du terme et tout particulièrement le terrorisme islamiste ? », a-t-il encore interrogé, cette fois sur France Inter.
Il ne s’agit en aucun cas de minimiser les faits graves qui ont eu lieu en Nouvelle-Calédonie – notamment la mort de six personnes à déplorer. Cette interdiction de TikTok en France – tous territoires confondus – constitue cependant une première pour la République française. La filiale française du chinois ByteDance n’a pas tardé à réagir à son bannissement du « Caillou », appelé aussi « Kanaky ». « Il est regrettable qu’une décision administrative de suspension du service de TikTok ait été prise sur le territoire de la Nouvelle-Calédonie, sans aucune demande ou question, ni sollicitation de retrait de contenu, de la part des autorités locales ou du gouvernement français », a indiqué le 16 mai TikTok France sur France Inter et le 17 mai à Edition Multimédi@ par la voix d’un porte-parole, lequel a ajouté : « Nos équipes de sécurité surveillent très attentivement la situation et veillent à ce que notre plateforme soit sûre. Nous nous tenons à la disposition des autorités pour engager des discussions ». Chez TikTok France, le directeur des politiques publiques et relations gouvernementales n’est autre, depuis septembre 2020 (15), que Eric Garandeau (photo ci-dessus), ancien conseiller culturel du président de la République Nicolas Sarkozy puis PDG du CNC (16).
Le gouvernement français et le haut-commissaire de la République en Nouvelle-Calédonie ont-ils outrepassé leurs droits régaliens ? Que des émeutiers aient utilisé TikTok pour se coordonner sur l’archipel et appeler à la rébellion, cela ne fait apparemment aucun doute au regard de certains comptes jusqu’alors actif sur le réseau social des jeunes. Mais de là à considérer les protestataires et les violents comme des terroristes, il y un pas que la France a sans doute franchi un peu trop vite au détriment ne serait-ce que de la liberté d’expression. « Personne n’est dupe : en réalité, le blocage de TikTok n’est absolument pas justifié par une quelconque présence sur la plateforme de contenus terroristes, mais bien par le fait qu’il s’agit d’une plateforme centrale dans l’expression en ligne des personnes qui en viennent aujourd’hui à se révolter », souligne La Quadrature du Net.
Mais les avis divergent entre juristes sur la question. « S’il s’avérait que les émeutiers utilisent TikTok pour provoquer à la rébellion armée et se coordonner, c’est une mesure qui peut être proportionnée à la nécessité de rétablir l’ordre et la sécurité publique », estime pour sa part l’avocat pénaliste parisien et bloggeur « Maître Eolas », pseudonyme de Christian Pelletier, le 15 mai sur son compte X aux 370.000 abonnés (17). Et d’expliquer sur X : « Ce qui se passe en Nouvelle-Calédonie n’est pas (juste) de “grosses manifs”. Ce sont des émeutes violentes. Un gendarme a été tué [un deuxième est mort aussi par la suite, ndlr] et renseignez-vous sur ce qui s’est passé là-bas en 1985 et 1988 ». Rappelons que de l’Elysée le 4 juillet 2023, après les émeutes déclenchées par le meurtre du jeune Nahel, Emmanuel Macron avait lancé : « Quand les choses s’emballent pour un moment, […] on se met peut-être en situation de les […] couper ». Ce propos digne d’un régime autoritaire à la Corée du Nord, à l’Iran ou à la Chine avait provoqué un tollé. La loi « Sécuriser et réguler l’espace numérique » (SREN), elle, prévoit bien une mesure de « bannissement numérique » – dixit Elisabeth Borne alors Première ministre (18) – consistant sur décision du juge à suspendre six mois (un an en cas de récidive) le compte en ligne d’un individu condamné pour des délits sur la plateforme numérique (ou réseau social) en question (19).

DSA : la Nouvelle-Calédonie pas concernée
Bien que la régulation des très grandes plateformes numériques (VLOP) relève désormais dans l’Union européenne (UE) du Digital Services Act (DSA), avec ses garde-fous en cas de blocage demandé par un Etat membre (Commission européenne, l’« Arcom » nationale et un juge), elle n’est pas applicable à TikTok en Nouvelle-Calédonie. « [Bloquer TikTok est] envisageable (en théorie) sur toute portion du territoire non soumise au droit de l’UE. [Mais] inopérante sur toute autre partie soumise au droit de l’UE, les services de la Commission européenne estimant que des troubles à l’ordre public dans un seul Etat ne peuvent fonder blocage de VLOP », a expliqué le 15 mai sur X l’avocat Alexandre Archambault (20), ancien directeur des affaires réglementaires de Free. @

Charles de Laubier

Acteurs de l’IA, la Cnil vous adresse ses premières recommandations : à vous de jouer !

La Commission nationale de l’informatique et des libertés (Cnil) a publié le 8 avril 2024 sept premières fiches « pour un usage de l’IA respectueux des données personnelles ». D’autres sont à venir. Ces règles du jeu, complexes, sont les bienvenues pour être en phase avec le RGPD et l’AI Act. Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats L’intelligence artificielle (IA) conduit à questionner de manière plus exigeante et approfondie la protection des données personnelles. Les principes fondateurs du RGPD (1) doivent non seulement être pleinement rappelés et appliqués, mais ils doivent même l’être de manière plus dynamique et exigeante. Un exemple : des données qui auraient précédemment pu être considérées pseudonymisées ou même anonymisées, pourront faire l’objet de calculs et de recoupements massifs, qui pourraient aboutir à identifier à nouveau les personnes, grâce à l’utilisation de l’IA. Sept premières fiches pratiques L’entraînement des IA appelle des données personnelles comme l’image et la voix des personnes, d’une quantité sidérale sans précédent. Il appartient aux entreprises et organisations nationales et internationales de procéder à la mise en conformité avec l’AI Act, lequel a été adopté 13 mars 2024 par le Parlement européen (2). Parallèlement et le même jour en France, la commission de l’IA – installée depuis septembre 2023 auprès du Premier ministre – a remis au président de la République son rapport (3) qui recommande notamment un assouplissement des contraintes liées à l’utilisation, par l’IA, de données personnelles. Cette commission IA appelle à « transformer notre approche de la donnée personnelle pour protéger tout en facilitant l’innovation au service de nos besoins ». Le 8 avril 2024, c’était au tour de la Cnil de publier des fiches pratiques consacrées à la phase de développement des systèmes d’IA. L’autorité administrative indépendante accompagne les acteurs de l’IA depuis deux ans déjà, comme elle ne manque pas de le rappeler dans son dernier rapport annuel (4), à travers notamment la création d’un service dédié, la publication de ressources et webinaires, ainsi que l’établissement d’une feuille de route articulée autour de quatre piliers : appréhender, guider, fédérer et accompagner, auditer. Ces recommandations font suite à la consultation publique entreprise en octobre 2023, laquelle a réuni une quarantaine de contributions d’acteurs divers (5). Afin de présenter ces fiches pratiques (6), un webinaire a été organisé par la Cnil le 23 avril dernier. L’occasion pour celle-ci d’apporter ses derniers éclairages. Concernant le périmètre d’application, il convient premièrement de préciser que ces fiches pratiques n’ont vocation à s’intéresser qu’à la phase de développement de systèmes d’IA (conception de base de données, entraînement, apprentissage) impliquant un traitement de données personnelles pour les cas d’usage pour lesquels le RGPD est applicable (7). Celles-ci n’ont donc pas vocation à régir la phase dite de « déploiement » d’un système d’IA. Retenant la même définition des « systèmes d’IA » que l’AI Act, sont notamment concernés par ces recommandations : les systèmes fondés sur l’apprentissage automatique, ceux fondés sur la logique et les connaissances (moteurs d’inférence, bases de connaissance, systèmes experts, …), ou encore les systèmes hybrides. Afin d’aider les professionnels dans leur mise en conformité, la Cnil a défini, à travers sept fiches de recommandations, les bonnes pratiques à respecter sans que celles-ci soient toutefois contraignantes. Ces recommandations tiennent compte des dispositions de l’AI Act et ont vocation à les compléter. La Cnil profite de ces lignes directrices pour rappeler les principes fondamentaux (licéité, transparence, minimisation, exactitude, limitation de conservation des données, …) et obligations majeures découlant du RGPD inhérentes à tout traitement, en les précisant et les adaptant au mieux à l’objet traité : les systèmes d’IA. Si les recommandations qui suivent concernent majoritairement les responsables de traitement, les sous-traitants ne sont pas délaissés, repartant également avec leur lot de bonnes pratiques. Peuvent à ce titre être cités : un respect strict des instructions du responsable de traitement, la conclusion d’un contrat de sous-traitance conforme à la réglementation en matière de données personnelles ou encore, l’obligation de s’assurer de la sécurité des données sous-traitées (8). Apports majeurs des recommandations Prenez soin de définir une finalité déterminée, explicite et légitime pour le traitement projeté. Deux situations sont clairement distinguées par la Cnil, selon que l’usage opérationnel en phase de déploiement du système d’IA est d’ores et déjà identifié, ou non, dès la phase de développement. Dans la première hypothèse, il est considéré que la finalité en phase de développement suivra celle poursuivie en phase de déploiement. De sorte que si celle-ci est suffisamment déterminée, explicite et légitime, alors la finalité en phase de développement le sera également. Dans la seconde hypothèse, et notamment en présence de systèmes d’IA à usage général, la Cnil insiste sur la nécessité de prévoir une finalité « conforme et détaillée ». Elle livre des exemples de finalités qu’elle considère, ou non conformes, précisant à ce titre que le simple « développement d’une IA générative » n’est pas une finalité conforme car jugée trop large et imprécise. Finalité conforme et responsabilités précises La méthode à suivre est alors révélée : une finalité ne sera conforme que si elle se réfère « cumulativement au“type” du système développé et aux fonctionnalités et capacités techniquement envisageables » (9). Le secteur de la recherche n’est bien sûr pas oublié. Une tolérance dans le degré de précision de l’objectif ou encore dans la spécification des finalités est évoquée, sans laisser de côté les éventuelles dérogations ou aménagements applicables. Déterminez votre rôle et vos responsabilités : suis-je responsable de traitement, sous-traitant, ou encore responsableconjoint ? Le développement d’un système d’IA peut nécessiter l’intervention de plusieurs acteurs. Dès lors, identifier son rôle au sens du RGPD peut être parfois délicat et les éclairages de la Cnil sur la question sont les bienvenus. Pour rappel, le responsable de traitement est « la personne […] qui, seul ou conjointement détermine les objectifs et moyens du traitement » (10). Cette qualité emporte son lot d’obligations et de responsabilités, d’où la nécessité de la déterminer avec précision. Les acteurs pourront se référer à la fiche donnant des exemples d’analyse permettant d’identifier son rôle au cas par cas (11). Effectuez un traitement licite et respectueux des principes fondamentaux. Un rappel des principes à respecter pour tout traitement ne mange pas de pain mais épargne bien des soucis en cas de contrôle. La Cnil s’attarde notamment sur l’obligation de choisir, parmi celles prévues par le RGPD, la base légale la plus adéquate au traitement projeté. Pour le développement de systèmes d’IA, elle explore cinq bases légales envisageables (12) : le consentement, l’intérêt légitime, l’obligation légale, la mission d’intérêt public ou encore le contrat. En cas de réutilisation de données, des vérifications seront à mener et, là encore, les recommandations de la Cnil différent selon l’hypothèse rencontrée et notamment en fonction de la source desdites données (données publiquement accessibles ou collectées par des tiers, …). A titre d’exemple, pour une réutilisation de données collectées par le fournisseur lui-même pour une finalité initiale différente, la Cnil impose, sous certaines conditions, un « test de comptabilité » (13) permettant de s’assurer que la finalité poursuivie est compatible avec la finalité initiale, et rappelle les obligations de fonder son traitement ultérieur sur une base légale valable sans oublier la nécessité d’informer les personnes concernées. Par ailleurs, la Cnil révèle les cas possibles de réutilisation de données collectées par des tiers, ainsi que les obligations qui incombent au tiers et ainsi qu’au réutilisateur de ces données. Respectez les principes fondamentaux. Le gendarme des données insiste également sur la nécessité de respecter les principes fondamentaux. Ce respect doit s’imposer à tout stade du développement d’un système d’IA, dès sa conception « privacy by design » (14), mais également lors de la collecte et de la gestion des données (15). La Cnil s’attarde particulièrement sur le principe de minimisation, lequel impose de ne traiter que les données « adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités » (16) déterminées. Si la Cnil s’attache à soutenir que le respect de ce principe « n’empêche pas l’utilisation de larges bases de données » (17) et notamment de données publiquement accessibles (18), il implique nécessairement pour un responsable de traitement de repenser l’entraînement et la conception de ses systèmes d’IA en se posant concrètement les questions suivantes : « Les données utilisées et/ou collectées sont-elles vraiment utiles au développement du système souhaité ? Ma sélection est-elle pertinente ? Pourrais-je mettre en place une méthode à suivre plus respectueuse des droits et libertés des personnes concernées ? Si oui, par quels moyens techniques ? ». A titre de bonnes pratiques, la Cnil recommande d’ailleurs d’associer au développement du projet un comité éthique et de mener une étude pilote afin de s’assurer de la pertinence de ses choix en matière de conception d’un système d’IA (19). Par ailleurs et conformément au principe de limitation des données de conservation (20), les durées de conservation des données utilisées seront à déterminer préalablement au développement du système d’IA. La Cnil appelle, à ce titre, à consulter son guide pratique sur les durées de conservation (21). Ces durées devront faire l’objet de suivi, de sorte que les données qui ne seront plus nécessaires devront être supprimées. Le respect de ce principe ne s’oppose pas à ce que, sous certaines conditions, des données soient conservées pour des durées plus longues, notamment à des fins de maintenance ou d’amélioration du produit. Analyse d’impact (AIPD) nécessaire Enfin, réalisez une analyse d’impact quand c’est nécessaire. L’analyse d’impact sur la protection des données (AIPD) permet d’évaluer et de recenser les risques d’un traitement en vue d’établir un plan d’action permettant de les réduire. Cette analyse AIPD (22) est, selon les cas, obligatoire ou bien fortement recommandée. A la lumière de la doctrine de la Cnil et de l’AI Act, les entreprises et organisations doivent à présent mettre en place leur mise en conformité, avec des points très réguliers. @

* Anne-Marie Pecoraro est avocate spécialisée en droit de la propriété intellectuelle, des médias et des technologies.

IA génératives, contrefaçons, exceptions au droit d’auteur et opt out : où se situent les limites ?

Adopté par les eurodéputés le 13 mars 2024, l’AI Act – approuvé par les Etats membres en décembre 2023 – va être définitivement voté en plénière par le Parlement européen. Mais des questions demeurent, notamment sur les limites du droit d’auteur face aux intelligences artificielles génératives.

Par Vanessa Bouchara, avocate associée, et Claire Benassar, avocate collaboratrice, Bouchara & Avocats.

Si l’utilisation des intelligences artificielles (1) est désormais largement répandue, ces techniques et technologies capables de simuler l’intelligence humaine restent au cœur de nombreux questionnements – tant éthiques que juridiques. Alors même que le projet de règlement européen visant à encadrer l’usage et la commercialisation des intelligences artificielles au sein de l’Union européenne, dit AI Act (2), a été adopté en première lecture le 13 mars 2024 par le Parlement européen (3), c’est l’intelligence artificielle générative – IAg, AIG ou GenAI – qui est aujourd’hui sujette à controverse.

Droit d’auteur et procès en contrefaçon
A l’origine du débat les concernant, il importe de rappeler que les systèmes d’IAg ont pour particularité de générer du contenu (textes, images, vidéos, musiques, graphiques, etc.) sur la base, d’une part, des informations directement renseignées dans l’outil par son utilisateur, et, d’autre part et surtout, des données absorbées en amont par l’outil pour enrichir et entraîner son système. Les systèmes d’intelligence artificielle générative sont ainsi accusés d’être à l’origine d’actes de contrefaçon, et pour cause : l’ensemble des données entrantes dont ils se nourrissent peuvent potentiellement être protégées par des droits de propriété intellectuelle. Où se situe donc la limite entre l’utilisation licite de ces données et la caractérisation d’un acte de contrefaçon ? Si, par principe, la reproduction de telles données est interdite, le droit européen semble désormais entrouvrir la possibilité d’utiliser celles-ci dans le seul cadre de l’apprentissage de l’IAg.

L’interdiction de reproduction de données protégées par le droit d’auteur. L’auteur d’une œuvre de l’esprit (4) jouit sur cette œuvre, du seul fait de sa création, de l’ensemble des droits conférés aux auteurs par le Code de la propriété intellectuelle (CPI). A ce titre, l’auteur d’une œuvre peut notamment s’opposer à toute reproduction de celle-ci, c’est-à-dire à toute fixation matérielle quelle qu’elle soit de son œuvre par tous procédés qui permettent de la communiquer au public d’une manière indirecte. Si l’IAg utilise en grande partie des données publiques, se pose tout de même la question de l’utilisation de ces données lorsqu’elles constituent de telles œuvres de l’esprit bénéficiant de la protection offerte par le droit d’auteur. La collecte et l’intégration de telles données dans les outils d’intelligence artificielle constituent-ils toutefois de tels actes de reproduction ? Eu égard à la définition très large du droit de reproduction, il semblerait qu’il faille répondre à cette question par la positive. En effet, la définition qui en est donnée par le législateur incite à considérer qu’en principe, tout acte de reproduction d’une œuvre doit faire l’objet d’une autorisation préalable de son auteur.
Aussi, en l’absence d’autorisation de la part de leurs auteurs, l’intégration des données d’apprentissage protégées par le droit d’auteur dans l’outil d’IAg pourrait aisément matérialiser un acte de contrefaçon par reproduction. C’est d’ailleurs à ce titre que plusieurs procédures sont en cours aux Etats-Unis. Plusieurs recours collectifs ont dernièrement été déposés en 2023 contre OpenAI et Microsoft, notamment par un regroupement d’écrivains américains – soutenus par la Authors Guild (5) – qui soutiennent que l’algorithme entraînant le robot ChatGPT manie leurs œuvres en violation de leurs droits d’auteur. Le New York Times a lui aussi porté plainte contre OpenAI et Microsoft (6). Il en est de même pour la banque d’images Getty Images qui accuse l’outil Stable Diffusion, développé par Stability AI, de violer ses droits d’auteur. Les procès se multiplient contre les IAg. Si la législation applicable est toute autre aux Etats-Unis, il nous semble toutefois que le dénouement des litiges en cours puisse potentiellement nous aiguiller sur le possible positionnement des juges français.

Exceptions, citations, extraits, …
Intelligence artificielle générative, fair use et exception de courte citation. Si les défendeurs outre Atlantique excipent généralement du concept de fair use, lequel permet l’utilisation loyale d’une œuvre par un tiers, les exceptions au droit d’auteur en France sont strictement délimitées et encadrées par les dispositions du CPI. Aussi, si les droits conférés aux auteurs d’une œuvre de l’esprit sont particulièrement étendus, le législateur les a de longue date assortis d’une liste exhaustive conséquente d’exceptions venant faire obstacle aux droits d’auteur. Parmi celles-ci, à défaut de fair use, certains entendent ainsi défendre l’IAg sur la base de l’exception de courte citation, permettant à tout tiers d’exploiter de courts extraits de l’œuvre dans la mesure où cette exploitation serait notamment justifiée par le caractère pédagogique, scientifique ou d’information de l’œuvre à laquelle elles sont incorporées. Seulement, encore faut-il que le tiers invoquant cette exception indique clairement le nom de l’auteur et la source. Ce que les outils d’IAg ne font pas, et ne peuvent pas faire eu égard à la masse de données sur laquelle se fonde leur entraînement, et surtout au regard du recoupement de l’ensemble de ces informations, lequel rend presque impossible de sourcer chacun des auteurs dont les œuvres sont utilisées.

Fouille de textes et de données limitée
L’évolution des techniques utilisées rend ainsi indispensable l’évolution du droit actuel et de la jurisprudence qui en découlera.
La limitation du droit d’auteur pour la fouille de textes et de données. Sans même anticiper l’arrivée fulgurante de l’intelligence artificielle au début des années 2020, le législateur européen est venu introduire en 2019 – via la directive « Droit d’auteur dans le marché unique numérique » (7) – une nouvelle exception au droit d’auteur en autorisant la fouille de textes et de données (« text and data mining » ou TDM), laquelle trouve ainsi à s’appliquer lorsque les reproductions d’œuvres réalisées ne remplissent pas toutes les conditions de l’exception pour les actes de reproduction provisoires. Seulement, les défenseurs de l’IAg se sont engouffrés dans cette brèche et ont entendu appliquer cette exception à la collecte et à la reproduction des données disponibles en ligne par les systèmes d’intelligence artificielle, afin de légitimer leur utilisation par ces derniers.
C’est ainsi, dans cette logique, que l’AI Act s’approprie le texte de 2019 et applique l’exception aux fins de fouille de textes et de données aux outils d’IAg. Néanmoins, exception à l’exception, le texte prévoit que tout auteur peut anticiper l’utilisation de ses œuvres par l’IA et s’opposer à cette exploitation en l’indiquant par tout moyen (droit de retrait ou opt out), auquel cas l’exception de « text and data mining » ne trouvera plus à s’appliquer. En pareille hypothèse, les systèmes d’IA seront ainsi à nouveau soumis l’obligation d’obtenir l’autorisation expresse de l’auteur afin de procéder à l’exploration de textes et de données sur ses œuvres de façon licite. Pour autant, le considérant 105 de l’AI Act, précise que les détenteurs de droits peuvent choisir de réserver leurs droits sur leurs œuvres ou autres objets pour empêcher l’exploration de texte et de données, « sauf si cela est fait à des fins de recherche scientifique ». Et dans l’article 2 du même AI Act, le sixième point prévoir que « le présent règlement ne s’applique pas aux systèmes d’IA ou aux modèles d’IA, y compris leur production, spécifiquement développés et mis en service aux seules fins de la recherche et du développement scientifiques ».
Nous nous interrogeons toutefois sur la pertinence de ce système d’« opt out » proposé aux auteurs, dans la mesure où il apparaît difficile – voire impossible – de contrôler son respect par les outils d’IA. En effet, comment un auteur peut-il contrôler que son œuvre n’est pas utilisée pour entraîner une intelligence artificielle ? A charge pour l’AI Office – le Bureau européen de l’IA créé par l’AI Act (8) – de rendre public un « résumé des contenus utilisées pour l’entraînement » de chaque IA à usage général (considérants 107 et 108 de l’AI Act, et articles 53d et 56b).
En dépit de sa volonté protectrice, et alors même qu’il n’est pas entré en vigueur, l’AI Act semble donc d’ores et déjà confronté aux difficultés inhérentes aux avancées techniques issues de l’intelligence artificielle.
Contenu généré par l’IAg et contrefaçon. Cela étant, quand bien même la fouille de données est autorisée en vertu du droit européen, cette exception reste cantonnée au seul entraînement des systèmes d’IA, et ne permet pas pour autant à l’outil de générer en fin de processus des données contrefaisantes. Aussi, dans la mesure où les données générées reproduiraient à tout le moins en partie les caractéristiques originales des données d’entraînement, elles ne pourront pas être exploitées sans l’autorisation préalable des auteurs des données d’entraînement, sauf à caractériser un acte de contrefaçon. En effet, il n’est en pratique jamais exclu que l’on puisse reconnaître tout ou partie des éléments issus des données entrantes, et il apparaît ainsi en théorie probable que des contrefaçons par imitation puissent être caractérisées. Néanmoins, dans quelle mesure l’utilisateur de l’IAg sera-t-il averti que la donnée générée contrefait une œuvre antérieure ?

Quid de la rémunération des contenus ?
S’il existe nécessairement une limite au-delà de laquelle les tribunaux pencheront en faveur de la contrefaçon, il est fort à parier que les utilisateurs des outils d’IAg la franchiront bien avant les développeurs à l’origine de ces outils. Les interrogations restent en tout cas nombreuses, comme en témoignent les deux missions lancées en France le 12 avril dernier par le Conseil supérieur de la propriété littéraire et artistique (CSPLA), d’une part sur la rémunération des contenus culturels utilisés par les IA (9) et d’autre part sur la mise en œuvre de l’AI Act (10). @