Droit de la consommation, propriété intellectuelle et droit pénal : les enjeux juridiques du métavers

Les défis juridiques posés par les métavers ne sont pas inédits. Mais la clé pour instaurer un climat de confiance dans le monde virtuel réside dans une adaptation proactive du cadre réglementaire actuel pour faciliter l’intégration harmonieuse et sécurisée du métavers dans notre société.

Par Arnaud Touati, avocat associé, et Dany Sawaya, juriste, Hashtag Avocats.

Le métavers est un environnement fictif en 3D, interactif et immersif, qui combine le monde réel avec des mondes virtuels. A l’intérieur, les individus peuvent incarner des avatars et interagir avec d’autres personnes ou avec des objets numériques. Imaginons un immense jeu vidéo multijoueur en ligne, regroupant divers univers de jeu où il est possible de naviguer librement. Une illustration saisissante de cette vision a été présentée dans le film « Ready Player One » de Steven Spielberg, sorti en 2018.

L’avatar, sujet de droit indépendant ?
Le métavers suit une trajectoire similaire aux enjeux soulevés par le Web, et plus récemment par la blockchain (chaîne de blocs, en français). Il est indéniable que, même dans un monde virtuel, la règle de droit continue à s’appliquer. Le métavers, tout comme la blockchain et Internet de manière générale, revêt une dimension intrinsèquement internationale. Le métavers est également un terrain de jeu fertile pour l’innovation et le développement. La France, consciente de cette opportunité, cherche à faire du métavers une priorité et envisage d’utiliser les Jeux Olympiques de 2024 à Paris (du 26 juillet au 11 août 2024) comme catalyseur pour rassembler les acteurs français des métavers. Toutefois, le développement du métavers soulève des questions juridiques complexes dans divers domaines tels que le droit de la consommation, la propriété intellectuelle, et le droit pénal. L’anticipation et l’encadrement juridique du métavers sont indispensables pour instaurer un climat de confiance et garantir une utilisation responsable et sécurisée de cette nouvelle frontière numérique. Défis et considérations juridiques du métavers en matière de consommation. Le métavers pose des défis inédits en matière de droit de la consommation. Par exemple, comment qualifier les contrats conclus entre avatars ? La capacité juridique de l’avatar repose-t-elle dans celle de l’utilisateur qui se trouve « derrière » ou l’avatar peut-il être reconnu comme un sujet de droit indépendant ? Dans ce monde virtuel, les règles de vente et de prestation de services ne sont pas encore clairement définies. Bien que le code de la consommation reconnaisse l’absence de présence physique simultanée des parties contractantes et l’utilisation de « techniques de communication à distance » pour qualifier un contrat à distance (1), la question se pose de savoir si cela est suffisant pour appréhender une transaction dans le métavers. On peut envisager que la capacité juridique de l’avatar repose dans celle de l’utilisateur qui le contrôle, faisant de l’avatar une extension légale de l’utilisateur, ou que l’avatar soit reconnu en tant que sujet de droit indépendant. La validité des contrats conclus entre avatars soulève également des interrogations quant à leur qualification juridique. Concernant la qualification du contrat comme « à distance », cela implique l’absence de présence physique simultanée des parties et « le recours exclusif à une ou plusieurs techniques de communication à distance jusqu’à la conclusion du contrat », cette qualification peut être appliquée dans le contexte du métavers. Ainsi, on peut envisager que les avatars qui recourent à un mode virtuel de communication au sein du métavers représentent une autre forme de « technique de communication à distance ». Quant à la qualification du contrat comme « hors établissement », qui repose sur l’exigence de « la présence physique simultanée des parties »soit au lieu de la conclusion soit au lieu de la sollicitation, elle n’est évidemment pas transposable dans le métavers.

L’année 2024 sera-t-elle plus « intelligente » que les précédentes ? Les acteurs de l’IA y travaillent

Edition Multimédi@ est partenaire média du 3e World AI Cannes Festival (WAICF), rendez-vous mondial consacré à l’intelligence artificielle et organisé du 8 au 10 février 2024 au Palais des festivals de Cannes. L’occasion de faire le point sur quelques forces en présence d’envergue mondiale.

L’intelligence artificielle, c’est désormais le foisonnement permanent sur fond de bataille des LLM (Large Language Model), ces grands modèles de langage utilisés par les agents conversationnels et les IA génératives, capables d’exploiter en temps réel des milliards voire des dizaines de milliards de paramètres. Depuis le 30 novembre 2022, date du lancement fracassant de ChatGPT (1) d’OpenAI, cornaqué par Microsoft (2), le marché mondial de l’IA ne cesse de prendre de l’ampleur. Alors que les questions sur les IA responsables (éthique, biais, droit d’auteur, droit à l’image, …) sont autant de défis à relever. Parmi les derniers prétendants aux premières places de la course à l’intelligence numérique potentiellement utilisable par des milliards d’êtres humains connectés : Mistral AI, Gemini, Anthropic et Llama, en attendant Ferret… d’Apple.

Mistral AI. La start-up française, devenue licorne (non cotée en Bourse mais valorisée près de 2 milliards d’euros), a été fondée en avril 2023 par Arthur Mensch, Guillaume Lample et Timothée Lacroix. Le 10 décembre dernier, elle a annoncé avoir levé 385 millions d’euros auprès d’investisseurs et a ouvert à l’intention des développeurs sa plateforme open source de modèles génératifs « les plus puissants » dans leur version bêta (3). Arthur Mensch, un ancien « scientist » de chez DeepMind, filiale de Google (tandis que les deux autres cofondateurs viennent de Facebook/Meta), a l’ambition de « créer un champion européen à vocation mondiale dans l’intelligence artificielle ». Son modèle d’IA, baptisé « Mixtral 8x7B », a été présenté comme étant six fois plus rapide que le langage Llama 2 70B du groupe Meta qu’il « surpasse » dans « la plupart des benchmarks ». De plus, « il égale ou surpasse GPT 3.5 [d’OpenAI] » (4).

L’AI Act devra limiter les risques élevés de l’IA pour les droits humains, sans freiner l’innovation

L’émergence fulgurante et extraordinaire de l’intelligence artificielle (IA) soulève aussi des préoccupations légitimes. Sur l’AI Act, un accord entre les Etats membres tarde avant un vote des eurodéputés, alors que 2024 va marquer la fin de la mandature de l’actuelle Commission européenne.

Par Arnaud Touati, avocat associé, Nathan Benzacken, avocat, et Célia Moumine, juriste, Hashtag Avocats.

Il y a près de trois ans, le 21 avril 2021, la Commission européenne a proposé un règlement visant à établir des règles harmonisées concernant l’intelligence artificielle (IA). Ce règlement européen, appelé AI Act, a fait l’objet, le 9 décembre 2023 lors des trilogues (1), d’un accord provisoire. Mais des Etats européens, dont la France, ont joué les prolongations dans des réunions techniques (2). La dernière version consolidée (3) de ce texte législatif sur l’IA a été remise le 21 janvier aux Etats membres sans savoir s’ils se mettront d’accord entre eux début février, avant un vote incertain au Parlement européen (4).

Contours de l’IA : éléments et précisions
Cette proposition de cadre harmonisé a pour objectif de : veiller à ce que les systèmes d’IA mis sur le marché dans l’Union européenne (UE) soient sûrs et respectent la législation en matière de droits fondamentaux et les valeurs de l’UE ; garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA ; renforcer la gouvernance et l’application effective de la législation en matière de droits fondamentaux et des exigences de sécurité applicables aux systèmes d’IA; et faciliter le développement d’un marché unique pour les applications d’IA, sûres et dignes de confiance et empêcher la fragmentation du marché (5). Pour résumer, cette règlementation vise à interdire certaines pratiques, définir des exigences pour les systèmes d’IA « à haut risque »et des règles de transparence, tout en visant à minimiser les risques de discrimination et à assurer la conformité avec les droits fondamentaux et la législation existante. Il reste encore au futur AI Act à être formellement adopté par le Parlement et le Conseil européens pour entrer en vigueur.

Pour la protection de leurs œuvres, les auteurs ont un droit d’opt-out, mais est-il efficace ?

Les IA génératives sont voraces et insatiables : elles ingurgitent de grandes quantités de données pour s’améliorer sans cesse. Problème : les ChatGPT, Midjourney et autres Bard utilisent des œuvres protégées sans avoir toujours l’autorisation. Pour les auteurs, l’opt-out est une solution insuffisante.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

L’utilisation de l’intelligence artificielle (IA) dans les domaines artistiques tend à révolutionner la manière dont nous analysons, créons et utilisons les œuvres cinématographiques, littéraires ou encore musicales. Si, dans un premier temps, on a pu y voir un moyen presque anecdotique de créer une œuvre à partir des souhaits d’un utilisateur ayant accès à une IA, elle inquiète désormais les artistes. Les algorithmes et les AI peuvent être des outils très efficaces, à condition qu’ils soient bien conçus et entraînés. Ils sont par conséquent très fortement dépendants des données qui leur sont fournies. On appelle ces données d’entraînement des « inputs », utilisées par les IA génératives pour créer des « outputs ».

Des œuvres utilisées comme inputs
Malgré ses promesses, l’IA représente cependant un danger pour les ayants droit, dont les œuvres sont intégrées comme données d’entraînement. A titre d’exemple, la version 3.5 de ChatGPT a été alimentée avec environ 45 téraoctets de données textuelles. On peut alors se poser la question de la protection des œuvres utilisées comme inputs : l’ayant droit peut-il s’opposer ? La législation a prévu un droit d’« opt-out », que peuvent exercer les auteurs pour s’opposer à l’utilisation de leurs œuvres par une IA. A travers le monde, l’IA est encore peu règlementée.
Aux Etats Unis, il n’existe pas encore de lois dédiées portant spécifiquement sur l’IA, mais de plus en plus de décisions font office de « guidelines ». Au sein de l’Union européenne (UE), l’utilisation croissante de l’IA, à des fins de plus en plus variées et stratégiques, a conduit à faire de son encadrement une priorité. En effet, dans le cadre de sa stratégie numérique, l’UE a mis en chantier l’ « AI Act », un projet de règlement (1) visant à encadrer « l’usage et la commercialisation des intelligences artificielles au sein de l’UE » qui a été voté le 14 juin 2023 par le Parlement européen (2). Son adoption est prévue pour fin 2023 ou début 2024, avec une mise application 18 à 24 mois après son entrée en vigueur.

Un livre blanc prône la régulation du smart contract

En fait. Le 4 octobre dernier, a été divulgué par l’association Paris Place de Droit un livre blanc intitulé « Quel avenir pour le smart contract en France ? Oser la vitesse sans la précipitation », dont les coauteurs sont l’avocat Fabrice Lorvo (FTPA) et l’étudiant Timothée Charmeil (Harvard Law School).

En clair. Lors de sa « Nuit du Droit », qui a eu lieu le 4 octobre au Tribunal de Commerce de Paris, l’association Paris Place de Droit – créée en 2015 pour promouvoir la capitale de la France comme place juridique internationale – a présenté un livre blanc sur le smart contract (1). La traduction en français est « contrat intelligent » mais les auteurs la jugent « trompeuses ». « Le smart contract, tel qu’utilisé aujourd’hui, peut alors être défini comme le protocole informatique organisant l’échange automatique d’actifs dématérialisés enregistré sur une blockchain » expliquent les coauteurs Fabrice Lorvo (avocat, cabinet FTPA) et Timothée Charmeil (Harvard Law School).
Le smart contract permet ainsi de fusionner en un seul acte – certifié et authentifié sur la blockchain – la conclusion du contrat et son exécution, de supprimer l’intervention des intermédiaires comme le banquier ou l’huissier de Justice, et de rendre inéluctable la phase d’exécution du contrat lorsque les conditions sont objectivement réalisées. « En effet, souligne le livre blanc de la commission “numérique et juridique” de l’association Paris Place de Droit (2), nul ne peut empêcher l’exécution du smart contract dans les conditions prévues par le code enregistré dans la blockchain ». L’exécution est alors irréversible. Et ce, « quoi qu’il en coûte ».