Les IA génératives sont voraces et insatiables : elles ingurgitent de grandes quantités de données pour s’améliorer sans cesse. Problème : les ChatGPT, Midjourney et autres Bard utilisent des œuvres protégées sans avoir toujours l’autorisation. Pour les auteurs, l’opt-out est une solution insuffisante.
Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats
L’utilisation de l’intelligence artificielle (IA) dans les domaines artistiques tend à révolutionner la manière dont nous analysons, créons et utilisons les œuvres cinématographiques, littéraires ou encore musicales. Si, dans un premier temps, on a pu y voir un moyen presque anecdotique de créer une œuvre à partir des souhaits d’un utilisateur ayant accès à une IA, elle inquiète désormais les artistes. Les algorithmes et les AI peuvent être des outils très efficaces, à condition qu’ils soient bien conçus et entraînés. Ils sont par conséquent très fortement dépendants des données qui leur sont fournies. On appelle ces données d’entraînement des « inputs », utilisées par les IA génératives pour créer des « outputs ».
Des œuvres utilisées comme inputs
Malgré ses promesses, l’IA représente cependant un danger pour les ayants droit, dont les œuvres sont intégrées comme données d’entraînement. A titre d’exemple, la version 3.5 de ChatGPT a été alimentée avec environ 45 téraoctets de données textuelles. On peut alors se poser la question de la protection des œuvres utilisées comme inputs : l’ayant droit peut-il s’opposer ? La législation a prévu un droit d’« opt-out », que peuvent exercer les auteurs pour s’opposer à l’utilisation de leurs œuvres par une IA. A travers le monde, l’IA est encore peu règlementée.
Aux Etats Unis, il n’existe pas encore de lois dédiées portant spécifiquement sur l’IA, mais de plus en plus de décisions font office de « guidelines ». Au sein de l’Union européenne (UE), l’utilisation croissante de l’IA, à des fins de plus en plus variées et stratégiques, a conduit à faire de son encadrement une priorité. En effet, dans le cadre de sa stratégie numérique, l’UE a mis en chantier l’ « AI Act », un projet de règlement (1) visant à encadrer « l’usage et la commercialisation des intelligences artificielles au sein de l’UE » qui a été voté le 14 juin 2023 par le Parlement européen (2). Son adoption est prévue pour fin 2023 ou début 2024, avec une mise application 18 à 24 mois après son entrée en vigueur.
Audrey Azoulay (photo), directrice générale de l’Unesco, l’a annoncé le 6 novembre dernier : l’agence des Nations unies pour l’éducation, la science et la culture organisera mi-2024 – en juin, selon les informations de Edition Multimédi@ – sa toute première Conférence mondiale des régulateurs, en vue de mettre en œuvre les mesures préconisées pour « mettre fin à ce fléau » qu’est « l’intensification de la désinformation et des discours de haine en ligne » sur les médias sociaux. Ce prochain rendez-vous concernera non seulement les gouvernements et les autorités de régulation, mais aussi la société civile et les plateformes numériques.
Meta Platforms ne parle pas explicitement de « métavers intelligent », mais ses investissements dans à la fois les mondes virtuels immersifs et l’intelligence artificielle en montrent la voie. La conférence Meta Connect des 27 et 28 septembre derniers a été un rendez-vous international axé sur « l’IA et les réalités virtuelle, mixte et augmentée » (