Dans la torpeur de l’été, le juge d’un tribunal de Californie a donné raison à des artistes qui ont porté plainte contre des IA génératives – Stable Diffusion de Stability AI en tête – qui utilisent leurs images sans autorisation et au mépris du copyright. Ce jugement constitue une étape majeure.
C’est une première victoire des artistes aux Etats-Unis contre les IA génératives qui utilisent des milliards d’images pour répondre aux requêtes de millions d’internautes dans le monde. Le juge fédéral américain William Orrick (photo), officiant au tribunal du district nord de la Californie, a décidé le 12 août 2024 que les plaintes des artistes – contre les sociétés Stability AI (avec son IA générative Stable Diffusion), Midjourney (avec son IA générative du même nom), Runway AI (IA génératives multimédias à l’aide de DreamUp) et DeviantArt (réseau social de créatifs) – étaient recevables.
Stability, Midjourney, Runway, DeviantArt
Dans son ordonnance de 33 pages (1), le juge Orrick reconnaît qu’il y a violation du droit d’auteur et de marques déposées dès lors que les IA génératives ont été construites – lors de leur entraînement – sur des milliards d’images protégées et sans l’autorisation de leurs auteurs et artistes. La plainte examinée a été déposée l’an dernier et se focalise sur la grande base de données LAION – Large-scale Artificial Intelligence Open Network (2) – qui a été constituée à partir de 5 milliards d’images, lesquels auraient été récupérées sur Internet et exploitées par Stability AI, Midjourney, Runway AI et DeviantArt.
Les artistes à l’origine de la plainte affirment que « l’ensemble des données “LAION-5B” contient seulement des URL d’images d’entraînement, et non pas les images réelles d’entraînement ». Par conséquent, affirment-ils, « quiconque souhaite utiliser LAION-5B pour former son propre modèle d’apprentissage automatique doit d’abord acquérir des copies des images de formation réelles à partir de ses URL en utilisant l’ensemble de données ‘’img2dataset’’ ou un autre outil similaire ».
Ils estiment qu’il y a « infraction directe », en faisant référence à la diffusion guidée par CLIP (Contrastive Language- Image Pre-training) dans la phase d’entraînement mais aussi dans l’utilisation, après la formation. Il s’agit en fait d’un modèle d’IA développé par OpenAI, la société à l’origine de ChatGPT, qui associe des images et des textes pour permettre une compréhension et une génération plus avancées de contenu visuel et textuel. Le juge est allé dans le sens des artistes en concluant que l’IA générative Stable Diffusion de Satability AI a été construite à partir d’images protégées par le droit d’auteur et que « la façon dont le produit fonctionne fait nécessairement appel à des copies ou à des éléments protégés de ces œuvres ». Dans leur class action formée en 2023, les artistes accusent la société Stability AI de violation directe du droit d’auteur d’œuvres enregistrées provenant de la base de donnée « LAION-5B » en formant ses modèles – ou LLM (Large Language Model) – d’intelligence artificielle générative que sont notamment Stable Diffusion 2.0 et Stable Diffusion X. Ils l’accusent aussi d’« inciter à la violation du droit d’auteur en distribuant gratuitement Stable Diffusion 2.0 et Stable Diffusion XL », tout en violant aussi le Digital Millennium Copyright Act (DMCA), à savoir la loi américaine sur le droit d’auteur à l’ère du numérique, « en supprimant et en modifiant les renseignements sur la gestion des droits d’auteur » (3) des images pour l’entraînement de ses IA génératives. Et ce, en s’enrichissant de façon injustifiée.
La société Runway AI est elle aussi accusée de violation directe du droit d’auteur des œuvres enregistrées de la « LAION-5B » en formant ses propres modèles, y compris Stable Diffusion. Parmi les artistes dont les œuvres ont été utilisées illégalement, il y a par exemple Karla Ortiz qui a travaillé sur « Black Panther » ou encore « Avengers: Infinity War ». La société Midjourney est elle aussi dans le collimateur de la justice américaine pour, là aussi, violation directe du droit d’auteur des œuvres enregistrées de la base d’entraînement « LAION-400M » pour cette fois, pour former ses modèles, y compris la version 1 de Midjourney, ainsi que de la « LAION-400M5B » pour la version 5.2 de Midjourney. Quant à la communauté artistique DeviantArt, elle est poursuivie aussi pour violation directe du droit d’auteur en copiant le modèle DreamUp-CompVis et en l’incorporant dans DreamUp.
Depuis 2023, les artistes ont précisé les faits
« En octobre 2023, j’avais largement fait droit aux requêtes en rejet présentées par les défendeurs Stability, Midjourney et DeviantArt. La seule réclamation qui a survécu est la réclamation d’infraction directe contre Stability AI, fondée sur la création et l’utilisation présumées d’“images d’entraînement” saisies dans les ensembles de données du LAION et utilisées pour former Stable Diffusion », a rappelé William Orrick, en laissant aux artistes de la class action la possibilité de modifier leur plainte « pour clarifier leurs théories sur la façon dont chaque [entreprises accusées] a violé leurs droits d’auteur, supprimé ou modifié les renseignements sur la gestion de leur droit d’auteur, ou a violé leurs droits à la publicité et des faits plausibles à l’appui ». Les artistes ont donc depuis clarifié leur demande concernant les copies compressées des images d’entraînement et pour étayer les faits sur la façon dont Stable Diffusion – « un programme open source, du moins en partie » – fonctionne par rapport aux images d’entraînement. Ils ont pour cela ajouté la plainte contre Runway AI et sept nouveaux artistes en plus des premiers à l’origine de la plainte.
Cependant, pas de violation du DMCA
« Les demandeurs ont raison de dire que l’autorisation de modifier [leur plainte] est “librement accordée”, surtout au début d’une affaire », « […] Je vais accorder la permission et répondre aux arguments des défenseurs contre les demandes et les plaignants [qui ont été] ajoutés », a estimé le juge, élargissant de ce fait l’affaire. Concernant Stable Diffusion, les artistes ont fait état d’une déclaration du PDG de Stability AI, Emad Mostaque (son fondateur), selon laquelle la société avait pris 100.000 Gigaoctets d’images et les a compressées dans un fichier de 2 Gigaoctets qui peut « recréer » n’importe quelle de ces images. La start-up créée il y a cinq ans a répondu que « l’usage “isolé” du mot “créer” par son PDG ne peut démontrer qu’il a eu pour but de favoriser l’infraction » et que « les plaignants ne contestent pas que Stable Diffusion est capable d’utilisations non violentes substantielles, comme la création d’œuvres à partir de données qui ne font pas référence à des artistes particuliers ou n’invoquent pas les styles d’artistes particuliers ou qui présentent une similitude substantielle avec les œuvres des [artistes] demandeurs ». Quoi qu’il en soit, le juge a estimé que « les allégations de violation induite sont suffisantes », renvoyant « à une date ultérieure » la question de savoir si c’est le résultat d’un problème technique (comme le prétend Stability AI) ou par dessein (argument des artistes). Concernant les éventuelles violations du DMCA, la loi américaine sur le droit d’auteur numérique, le juge William Orrick avait déjà rejeté en octobre 2023 ces accusations dans la mesure ou les plaignants n’avaient pas identifié le type exact de CMI (Copyright Management Information) inclus dans leurs œuvres numériques qui aient été en ligne et qu’ils croyaient de bonne foi avoir été « scraped » (comprenez « moissionnées » ou aspirées en ligne) dans la base de données LAION (4) ou autres « datasets » utilisés pour entraîner Stable Diffusion. « Il n’y a rien dans la plainte au sujet du texte CMI présent dans les images que les plaignants nommément nommés ont incluses avec leurs images en ligne et qu’ils affirment avoir été dépouillées ou modifiées en violation du DMCA pendant la formation de Stable Diffusion ou l’utilisation des produits finaux », avait constaté le juge. Les demandes d’indemnisation au titre de la violation supposée du DMCA ont donc été rejetées en août 2024 comme elles le furent en octobre 2023, tout comme sont écartées les accusations d’enrichissement sans cause.
Quant à la société Runway AI, l’accusée supplémentaire dans cette affaire, elle se voit reprochée d’avoir formé ou aidé à former au moins Stable Diffusion 1.5, en utilisant des images d’entraînement provenant de l’ensemble de données de LAION. « Comme pour Stability AI, puisque Runway AI ne conteste pas l’utilisation des images à des fins d’entraînement, je n’ai pas besoin de parler des autres théories de violation directe, a tenu à préciser le juge de Californie. Toutefois, je note que la théorie du modèle et la théorie de la distribution de l’atteinte directe dépendent de la question de savoir si les œuvres protégées des demandeurs sont contenues, d’une certaine façon, dans Stable Diffusion telle qu’elle est distribuée et exploitée. Le fait que ces œuvres puissent être contenues dans Stable Diffusion sous forme de représentations algorithmiques ou mathématiques – et soient donc fixées sur un support différent de celui dans lequel elles ont été produites initialement – n’est pas un obstacle à la revendication à ce stade ». En fin de discussion, le juge a tranché : « La requête de Runway visant à rejeter les demandes d’infraction directe est refusée. […]. La requête en rejet de Runway est refusée sur les demandes d’infraction, [mais] accordée à l’encontre des demandes du DMCA et accordée avec autorisation de modifier la demande d’enrichissement sans cause ».
Midjourney et les recours en vertu du DMCA
Midjourney soutient pour sa part – à l’égard de trois des artistes que sont Sarah Andersen, Julia Kaye et Gerald Brom – que la preuve de leur enregistrement d’oeuvres nouvellement identifiées et protégées par le droit d’auteur est insuffisante. Et ce, étant donné qu’un sous-ensemble des oeuvres d’artistes identifiées – comme étant à la fois protégées par le droit d’auteur et inclues dans les ensembles de données du LAION utilisés pour entraîner les produits d’IA – sont des compilations. Or, souligne le juge, « il est […] incontestable que chacun des [artistes], qui réclament que leurs œuvres protégées par le droit d’auteur ont été incluses dans les ensembles de données LAION, a au moins une œuvre dont l’enregistrement est valide ». Et d’ajouter plus loin : « L’identification de ces œuvres ne prouve peut-être pas la responsabilité en vertu DMCA, mais elle appuie la plausibilité des théories du demandeur au sujet DMCA ». Aussi : « A ce stade, les recours en vertu DMCA survivent contre Midjourney et les autres défendeurs ». @
Charles de Laubier