Tournant judiciaire aux Etats-Unis en faveur du droit d’auteur d’artistes contre des IA génératives

Dans la torpeur de l’été, le juge d’un tribunal de Californie a donné raison à des artistes qui ont porté plainte contre des IA génératives – Stable Diffusion de Stability AI en tête – qui utilisent leurs images sans autorisation et au mépris du copyright. Ce jugement constitue une étape majeure.

C’est une première victoire des artistes aux Etats-Unis contre les IA génératives qui utilisent des milliards d’images pour répondre aux requêtes de millions d’internautes dans le monde. Le juge fédéral américain William Orrick (photo), officiant au tribunal du district nord de la Californie, a décidé le 12 août 2024 que les plaintes des artistes – contre les sociétés Stability AI (avec son IA générative Stable Diffusion), Midjourney (avec son IA générative du même nom), Runway AI (IA génératives multimédias à l’aide de DreamUp) et DeviantArt (réseau social de créatifs) – étaient recevables.

Stability, Midjourney, Runway, DeviantArt
Dans son ordonnance de 33 pages (1), le juge Orrick reconnaît qu’il y a violation du droit d’auteur et de marques déposées dès lors que les IA génératives ont été construites – lors de leur entraînement – sur des milliards d’images protégées et sans l’autorisation de leurs auteurs et artistes. La plainte examinée a été déposée l’an dernier et se focalise sur la grande base de données LAION – Large-scale Artificial Intelligence Open Network (2) – qui a été constituée à partir de 5 milliards d’images, lesquels auraient été récupérées sur Internet et exploitées par Stability AI, Midjourney, Runway AI et DeviantArt.
Les artistes à l’origine de la plainte affirment que « l’ensemble des données “LAION-5B” contient seulement des URL d’images d’entraînement, et non pas les images réelles d’entraînement ». Par conséquent, affirment-ils, « quiconque souhaite utiliser LAION-5B pour former son propre modèle d’apprentissage automatique doit d’abord acquérir des copies des images de formation réelles à partir de ses URL en utilisant l’ensemble de données ‘’img2dataset’’ ou un autre outil similaire ».

Ils estiment qu’il y a « infraction directe », en faisant référence à la diffusion guidée par CLIP (Contrastive Language- Image Pre-training) dans la phase d’entraînement mais aussi dans l’utilisation, après la formation. Il s’agit en fait d’un modèle d’IA développé par OpenAI, la société à l’origine de ChatGPT, qui associe des images et des textes pour permettre une compréhension et une génération plus avancées de contenu visuel et textuel. Le juge est allé dans le sens des artistes en concluant que l’IA générative Stable Diffusion de Satability AI a été construite à partir d’images protégées par le droit d’auteur et que « la façon dont le produit fonctionne fait nécessairement appel à des copies ou à des éléments protégés de ces œuvres ». Dans leur class action formée en 2023, les artistes accusent la société Stability AI de violation directe du droit d’auteur d’œuvres enregistrées provenant de la base de donnée « LAION-5B » en formant ses modèles – ou LLM (Large Language Model) – d’intelligence artificielle générative que sont notamment Stable Diffusion 2.0 et Stable Diffusion X. Ils l’accusent aussi d’« inciter à la violation du droit d’auteur en distribuant gratuitement Stable Diffusion 2.0 et Stable Diffusion XL », tout en violant aussi le Digital Millennium Copyright Act (DMCA), à savoir la loi américaine sur le droit d’auteur à l’ère du numérique, « en supprimant et en modifiant les renseignements sur la gestion des droits d’auteur » (3) des images pour l’entraînement de ses IA génératives. Et ce, en s’enrichissant de façon injustifiée.
La société Runway AI est elle aussi accusée de violation directe du droit d’auteur des œuvres enregistrées de la « LAION-5B » en formant ses propres modèles, y compris Stable Diffusion. Parmi les artistes dont les œuvres ont été utilisées illégalement, il y a par exemple Karla Ortiz qui a travaillé sur « Black Panther » ou encore « Avengers: Infinity War ». La société Midjourney est elle aussi dans le collimateur de la justice américaine pour, là aussi, violation directe du droit d’auteur des œuvres enregistrées de la base d’entraînement « LAION-400M » pour cette fois, pour former ses modèles, y compris la version 1 de Midjourney, ainsi que de la « LAION-400M5B » pour la version 5.2 de Midjourney. Quant à la communauté artistique DeviantArt, elle est poursuivie aussi pour violation directe du droit d’auteur en copiant le modèle DreamUp-CompVis et en l’incorporant dans DreamUp.

Depuis 2023, les artistes ont précisé les faits
« En octobre 2023, j’avais largement fait droit aux requêtes en rejet présentées par les défendeurs Stability, Midjourney et DeviantArt. La seule réclamation qui a survécu est la réclamation d’infraction directe contre Stability AI, fondée sur la création et l’utilisation présumées d’“images d’entraînement” saisies dans les ensembles de données du LAION et utilisées pour former Stable Diffusion », a rappelé William Orrick, en laissant aux artistes de la class action la possibilité de modifier leur plainte « pour clarifier leurs théories sur la façon dont chaque [entreprises accusées] a violé leurs droits d’auteur, supprimé ou modifié les renseignements sur la gestion de leur droit d’auteur, ou a violé leurs droits à la publicité et des faits plausibles à l’appui ». Les artistes ont donc depuis clarifié leur demande concernant les copies compressées des images d’entraînement et pour étayer les faits sur la façon dont Stable Diffusion – « un programme open source, du moins en partie » – fonctionne par rapport aux images d’entraînement. Ils ont pour cela ajouté la plainte contre Runway AI et sept nouveaux artistes en plus des premiers à l’origine de la plainte.

Cependant, pas de violation du DMCA
« Les demandeurs ont raison de dire que l’autorisation de modifier [leur plainte] est “librement accordée”, surtout au début d’une affaire », « […] Je vais accorder la permission et répondre aux arguments des défenseurs contre les demandes et les plaignants [qui ont été] ajoutés », a estimé le juge, élargissant de ce fait l’affaire. Concernant Stable Diffusion, les artistes ont fait état d’une déclaration du PDG de Stability AI, Emad Mostaque (son fondateur), selon laquelle la société avait pris 100.000 Gigaoctets d’images et les a compressées dans un fichier de 2 Gigaoctets qui peut « recréer » n’importe quelle de ces images. La start-up créée il y a cinq ans a répondu que « l’usage “isolé” du mot “créer” par son PDG ne peut démontrer qu’il a eu pour but de favoriser l’infraction » et que « les plaignants ne contestent pas que Stable Diffusion est capable d’utilisations non violentes substantielles, comme la création d’œuvres à partir de données qui ne font pas référence à des artistes particuliers ou n’invoquent pas les styles d’artistes particuliers ou qui présentent une similitude substantielle avec les œuvres des [artistes] demandeurs ». Quoi qu’il en soit, le juge a estimé que « les allégations de violation induite sont suffisantes », renvoyant « à une date ultérieure » la question de savoir si c’est le résultat d’un problème technique (comme le prétend Stability AI) ou par dessein (argument des artistes). Concernant les éventuelles violations du DMCA, la loi américaine sur le droit d’auteur numérique, le juge William Orrick avait déjà rejeté en octobre 2023 ces accusations dans la mesure ou les plaignants n’avaient pas identifié le type exact de CMI (Copyright Management Information) inclus dans leurs œuvres numériques qui aient été en ligne et qu’ils croyaient de bonne foi avoir été « scraped » (comprenez « moissionnées » ou aspirées en ligne) dans la base de données LAION (4) ou autres « datasets » utilisés pour entraîner Stable Diffusion. « Il n’y a rien dans la plainte au sujet du texte CMI présent dans les images que les plaignants nommément nommés ont incluses avec leurs images en ligne et qu’ils affirment avoir été dépouillées ou modifiées en violation du DMCA pendant la formation de Stable Diffusion ou l’utilisation des produits finaux », avait constaté le juge. Les demandes d’indemnisation au titre de la violation supposée du DMCA ont donc été rejetées en août 2024 comme elles le furent en octobre 2023, tout comme sont écartées les accusations d’enrichissement sans cause.
Quant à la société Runway AI, l’accusée supplémentaire dans cette affaire, elle se voit reprochée d’avoir formé ou aidé à former au moins Stable Diffusion 1.5, en utilisant des images d’entraînement provenant de l’ensemble de données de LAION. « Comme pour Stability AI, puisque Runway AI ne conteste pas l’utilisation des images à des fins d’entraînement, je n’ai pas besoin de parler des autres théories de violation directe, a tenu à préciser le juge de Californie. Toutefois, je note que la théorie du modèle et la théorie de la distribution de l’atteinte directe dépendent de la question de savoir si les œuvres protégées des demandeurs sont contenues, d’une certaine façon, dans Stable Diffusion telle qu’elle est distribuée et exploitée. Le fait que ces œuvres puissent être contenues dans Stable Diffusion sous forme de représentations algorithmiques ou mathématiques – et soient donc fixées sur un support différent de celui dans lequel elles ont été produites initialement – n’est pas un obstacle à la revendication à ce stade ». En fin de discussion, le juge a tranché : « La requête de Runway visant à rejeter les demandes d’infraction directe est refusée. […]. La requête en rejet de Runway est refusée sur les demandes d’infraction, [mais] accordée à l’encontre des demandes du DMCA et accordée avec autorisation de modifier la demande d’enrichissement sans cause ».

Midjourney et les recours en vertu du DMCA
Midjourney soutient pour sa part – à l’égard de trois des artistes que sont Sarah Andersen, Julia Kaye et Gerald Brom – que la preuve de leur enregistrement d’oeuvres nouvellement identifiées et protégées par le droit d’auteur est insuffisante. Et ce, étant donné qu’un sous-ensemble des oeuvres d’artistes identifiées – comme étant à la fois protégées par le droit d’auteur et inclues dans les ensembles de données du LAION utilisés pour entraîner les produits d’IA – sont des compilations. Or, souligne le juge, « il est […] incontestable que chacun des [artistes], qui réclament que leurs œuvres protégées par le droit d’auteur ont été incluses dans les ensembles de données LAION, a au moins une œuvre dont l’enregistrement est valide ». Et d’ajouter plus loin : « L’identification de ces œuvres ne prouve peut-être pas la responsabilité en vertu DMCA, mais elle appuie la plausibilité des théories du demandeur au sujet DMCA ». Aussi : « A ce stade, les recours en vertu DMCA survivent contre Midjourney et les autres défendeurs ». @

Charles de Laubier

L’Apple Vision Pro avance à l’aveugle sur le marché

En fait. Depuis le 12 juillet, le casque de réalité mixte d’Apple, le Vision Pro, est disponible en France après des précommandes qui avaient débuté le 28 juin. En Europe, l’Allemagne et le Royaume-Uni sont aussi concernés. « Engouement extraordinaire » (dixit le PDG Tim Cook). Or les ventes sont décevantes.

En clair. « L’Apple Vision Pro suscite un engouement extraordinaire », avait affirmé le 10 juin dernier Tim Cook, le PDG de la firme de Cupertino, lors de l’annonce du calendrier des précommandes et des disponibilités du casque de réalité mixe à la pomme dans de nouveaux pays dans le monde (1), dont la France, l’Allemagne ou encore le Royaume-Unis. Le patron d’Apple a-t-il menti par excès d’enthousiasme ? Apparemment oui, puisque les ventes de son casque d’« informatique spatiale » sont à la peine. Les chiffres et les prévisions que le cabinet d’études IDC a livrés à l’agence de presse Bloomberg le 11 juillet ont fait le tour du monde : « Les ventes du Vision Pro d’Apple ne dépasseront pas 500.000 unités cette année », alors que « les ventes aux Etats-Unis de ce coûteux casque [3.499 dollars, ndlr] devraient chuter » (2).

Annoncé il y a plus d’un an (le 5 juin 2023) comme étant la révolution de l’informatique obéissant au doigt et à l’œil ainsi qu’à la voix, le casque Vision Pro a pu être précommandé à partir du 19 janvier dernier aux Etats-Unis, avant leur disponibilité depuis le 2 février. Après les deux premiers trimestres qui totalisent à peine chacun 100.000 unités vendues, le troisième trimestre en cours dépasserait les 100.000 grâce à l’international. Ce qui devrait compenser l’effondrement des ventes aux Etats-Unis (voir ci-dessous). Son prix prohibitif et plus cher à l’international (3.999 euros) constitue un sérieux frein. Ce qui contraint la Pomme à concevoir un modèle plus abordable, lequel devrait être commercialisé au second semestre 2025 et redresser les ventes. @

La censure de TikTok en Nouvelle-Calédonie par son Haut-commissaire de la République semble illégale

Annoncée par le Premier ministre le 15 mai 2024, la décision sans précédent de bloquer TikTok en Nouvelle-Calédonie est attaquée en justice par deux organisations et des Néo-Calédoniens. Le 21 mai, la haute juridiction administrative a donné 24h au gouvernement pour se justifier.

Louis Le Franc (photo de gauche) est le haut-commissaire de la République en Nouvelle-Calédonie. En tant que représentant de l’Etat français de cette collectivité sui generis (ni département d’outre-mer ni territoire d’outre-mer) située en Océanie, et à ce titre délégué du gouvernement représentant le Premier ministre Gabriel Attal (photo de droite)et chacun des ministres français, ce « préfet hors-classe » (le grade le plus élevé) a la charge des intérêts nationaux et assure la direction des services de l’Etat sur le territoire. Il est en outre préfet de la zone de défense de Nouvelle-Calédonie et Wallis-et-Futuna (1).

La liberté d’expression, victime collatérale
C’est à lui qu’est revenue la responsabilité de mettre à exécution l’interdiction de TikTok dans l’archipel secoué quelques jours à partir du 13 mai par des émeutes et des violences, lesquelles sont en lien avec une réforme constitutionnelle visant à élargir le corps électoral, projet contesté par les indépendantistes. Le censure du réseau social du chinois ByteDance (2) a été annoncée le 15 mai par le Premier ministre Gabriel Attal, le haut-commissaire Louis Le Franc ayant de son côté « instauré un couvre-feu et interdit TikTok ». Ce blocage, bien que la décision concernant le réseau social n’avait pas encore été formalisée par un texte – est effectif uniquement sur les smartphones (dixit le cabinet du Premier ministre), mis en œuvre par l’Office des postes et télécommunications de Nouvelle-Calédonie (OPT-NC). C’est d’autant plus facile que cet établissement public gère lui-même l’unique opérateur mobile de l’archipel, Mobilis.

Le locataire de Matignon a aussi indiqué que l’état d’urgence venait d’entrer en vigueur sur l’archipel calédonien par décret du 15 mai (3) et que l’armée était déployée « pour sécuriser » les ports et l’aéroport de Nouvelle-Calédonie. « TikTok a effectivement été interdit mercredi[15 mai] par le PM[Premier ministre, ndlr] et le gouvernement en raison des ingérences et de la manipulation dont fait l’objet la plateforme dont la maison mère est chinoise. L’application est utilisée en tant que support de diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers [le ministre de l’Intérieur Gérald Darmanin accusant l’Azerbaïdjan, tandis que la Chine est suspectée, ndlr], et relayé par les émeutiers », a justifié le 16 mai le cabinet de Gabriel Attal, auprès de Numerama (4). Le lendemain, La Quadrature du Net et la Ligue des droits de l’homme ont déposé deux recours en référé distincts devant le Conseil d’Etat respectivement contre « un coup inédit et particulièrement grave à la liberté d’expression en ligne » (5) et pour « défendre la liberté de communication des idées et des opinions » (6). Tandis que trois NéoCalédoniens contestent aussi la légalité de la décision, d’après Libération (7). Le 21 mai, le juge des référés a donné 24 heures au gouvernement pour motiver le blocage de TikTok.
Le fondement juridique du décret « déclar[ant] l’état d’urgence sur l’ensemble du territoire de Nouvelle-Calédonie » réside dans la loi du 3 avril 1955 relative à l’état d’urgence justement, dont l’article 11 prévoit que « le ministre de l’Intérieur peut prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne, provoquant à la commission d’actes de terrorisme ou en faisant l’apologie » (8). Déclaré en conseil des ministres pour une durée maximum de douze jours (9), l’état d’urgence ne pourra être prolongé que par une loi adoptée par le Parlement, conformément à l’article 2 de la loi de 1955. « Cette mesure est prise en raison de “circonstances exceptionnelles” », affirme en ligne Matignon, « au juge administratif de contrôler les mesures prises » (10).
Or il y a une différence de taille entre ce que prévoit cette loi « Etat d’urgence » en matière de « provocation à la commission d’actes de terrorisme ou en faisant l’apologie » et ce que dit le cabinet du Premier ministre en parlant de « diffusion de désinformation sur les réseaux sociaux, alimenté par des pays étrangers, et relayé par les émeutiers ». Car entre incitation au terrorisme, d’une part, et diffusion de désinformation, d’autre part, il y a une grande nuance. « Aussi grave soit la situation, ce n’est *pas du tout* un motif prévu par la loi. Cette illégalité interroge », a commenté Nicolas Hervieu, professeur de droit public, sur X (ex-Twitter) le 16 mai (11). La veille, il avait déprimé des réserves sur le blocage de TikTok : « La légalité de cette décision de @Interieur_Gouv annoncée par @GabrielAttal est discutable. Car le lien avec le terrorisme est plus que douteux… » (12).

Bloquer TikTok en France est une première
Et Nicolas Hervieu d’enfoncer le clou : « Au passage, ce texte [le dernier alinéa de l’article 11 introduit dans la loi de 1955, ndlr] est né d’un amendement parlementaire inséré dans la loi du 20 novembre 2015 (laquelle a été votée en seulement deux jours). Avec uniquement “l’islamisme radical” et le “djihadisme” en ligne de mire… Il n’a jamais été contrôlé par le Conseil constitutionnel » (13). Ce professeur s’est aussi exprimé dans Le Figaro dans ce sens : « En somme, on permet au pouvoir administratif de limiter l’accès aux réseaux sociaux sur son interprétation du terrorisme. Une mesure qui interrogeait déjà en 2015, puisqu’il n’existe pas de réelle possibilité de la contester en tant que telle. […] sur l’illégalité manifeste de cette décision compte tenu du fait que le blocage n’est possible qu’en cas de provocation ou apologie du terrorisme au sens stricte » (14). A l’évidence, selon ce juriste, les raisons du gouvernement français en Nouvelle-Calédonie justifiant la censure de TikTok n’entreraient pas dans la définition de « terrorisme » au sens strict du droit.

Le chinois veut discuter avec le gouvernement
« Est-ce que c’est de façon légale que le gouvernement recouru à ce dispositif ou est-ce que c’est un détournement de pouvoir ? Est-ce que c’est un usage excessif d’un dispositif qui n’avait été prévu que pour lutter contre le terrorisme au sens strict du terme et tout particulièrement le terrorisme islamiste ? », a-t-il encore interrogé, cette fois sur France Inter.
Il ne s’agit en aucun cas de minimiser les faits graves qui ont eu lieu en Nouvelle-Calédonie – notamment la mort de six personnes à déplorer. Cette interdiction de TikTok en France – tous territoires confondus – constitue cependant une première pour la République française. La filiale française du chinois ByteDance n’a pas tardé à réagir à son bannissement du « Caillou », appelé aussi « Kanaky ». « Il est regrettable qu’une décision administrative de suspension du service de TikTok ait été prise sur le territoire de la Nouvelle-Calédonie, sans aucune demande ou question, ni sollicitation de retrait de contenu, de la part des autorités locales ou du gouvernement français », a indiqué le 16 mai TikTok France sur France Inter et le 17 mai à Edition Multimédi@ par la voix d’un porte-parole, lequel a ajouté : « Nos équipes de sécurité surveillent très attentivement la situation et veillent à ce que notre plateforme soit sûre. Nous nous tenons à la disposition des autorités pour engager des discussions ». Chez TikTok France, le directeur des politiques publiques et relations gouvernementales n’est autre, depuis septembre 2020 (15), que Eric Garandeau (photo ci-dessus), ancien conseiller culturel du président de la République Nicolas Sarkozy puis PDG du CNC (16).
Le gouvernement français et le haut-commissaire de la République en Nouvelle-Calédonie ont-ils outrepassé leurs droits régaliens ? Que des émeutiers aient utilisé TikTok pour se coordonner sur l’archipel et appeler à la rébellion, cela ne fait apparemment aucun doute au regard de certains comptes jusqu’alors actif sur le réseau social des jeunes. Mais de là à considérer les protestataires et les violents comme des terroristes, il y un pas que la France a sans doute franchi un peu trop vite au détriment ne serait-ce que de la liberté d’expression. « Personne n’est dupe : en réalité, le blocage de TikTok n’est absolument pas justifié par une quelconque présence sur la plateforme de contenus terroristes, mais bien par le fait qu’il s’agit d’une plateforme centrale dans l’expression en ligne des personnes qui en viennent aujourd’hui à se révolter », souligne La Quadrature du Net.
Mais les avis divergent entre juristes sur la question. « S’il s’avérait que les émeutiers utilisent TikTok pour provoquer à la rébellion armée et se coordonner, c’est une mesure qui peut être proportionnée à la nécessité de rétablir l’ordre et la sécurité publique », estime pour sa part l’avocat pénaliste parisien et bloggeur « Maître Eolas », pseudonyme de Christian Pelletier, le 15 mai sur son compte X aux 370.000 abonnés (17). Et d’expliquer sur X : « Ce qui se passe en Nouvelle-Calédonie n’est pas (juste) de “grosses manifs”. Ce sont des émeutes violentes. Un gendarme a été tué [un deuxième est mort aussi par la suite, ndlr] et renseignez-vous sur ce qui s’est passé là-bas en 1985 et 1988 ». Rappelons que de l’Elysée le 4 juillet 2023, après les émeutes déclenchées par le meurtre du jeune Nahel, Emmanuel Macron avait lancé : « Quand les choses s’emballent pour un moment, […] on se met peut-être en situation de les […] couper ». Ce propos digne d’un régime autoritaire à la Corée du Nord, à l’Iran ou à la Chine avait provoqué un tollé. La loi « Sécuriser et réguler l’espace numérique » (SREN), elle, prévoit bien une mesure de « bannissement numérique » – dixit Elisabeth Borne alors Première ministre (18) – consistant sur décision du juge à suspendre six mois (un an en cas de récidive) le compte en ligne d’un individu condamné pour des délits sur la plateforme numérique (ou réseau social) en question (19).

DSA : la Nouvelle-Calédonie pas concernée
Bien que la régulation des très grandes plateformes numériques (VLOP) relève désormais dans l’Union européenne (UE) du Digital Services Act (DSA), avec ses garde-fous en cas de blocage demandé par un Etat membre (Commission européenne, l’« Arcom » nationale et un juge), elle n’est pas applicable à TikTok en Nouvelle-Calédonie. « [Bloquer TikTok est] envisageable (en théorie) sur toute portion du territoire non soumise au droit de l’UE. [Mais] inopérante sur toute autre partie soumise au droit de l’UE, les services de la Commission européenne estimant que des troubles à l’ordre public dans un seul Etat ne peuvent fonder blocage de VLOP », a expliqué le 15 mai sur X l’avocat Alexandre Archambault (20), ancien directeur des affaires réglementaires de Free. @

Charles de Laubier

TikTok menacé d’être banni des Etats-Unis et d’Europe, sa maison mère chinoise ByteDance contre-attaque

Alors que Joe Biden aux Etats-Unis et Ursula von der Leyen en Europe rêvent d’évincer de leur marché respectif TikTok, le réseau social des jeunes, sous des prétextes de « sécurité nationale » (le syndrome « Huawei »), sa maison mère chinoise ByteDance compte bien se battre pour obtenir justice.

(le 14 mai 2024, dans le cadre de l’état d’urgence décrété le 15 mai en Nouvelle-Calédonie, le Premier ministre français Gabriel Attal a annoncé l’interdiction de TikTok dans cet archipel franco-kanak d’Océanie, mesure sans précédent pour des raisons, selon le gouvernement, de « terrorisme ») 

Aux Etats-Unis, Joe Biden a signé le 24 avril la loi obligeant le groupe chinois ByteDance de se séparer de sa filiale américaine TikTok « sous 270 jours » (neuf mois), soit d’ici février 2025. Le chinois a saisi le 7 mai la justice pour demander la révision de ce « Ban Act » qu’il juge inconstitutionnelle. Au Congrès américain, la Chambre des représentants et le Sénat avaient adopté cette loi respectivement le 13 mars et le 23 avril. Le président des Etats-Unis avait aussitôt déclaré qu’il signerait cette loi (1).
En Europe, Ursula von der Leyen a déclaré le 29 avril que « n’est pas exclu » le bannissement de TikTok de l’Union européenne. La présidente de la Commission européenne a lancé sa menace de Maastricht lors d’un débat de candidats à l’élection européenne coorganisé par le journal Politico, après qu’un modérateur ait fait référence au sort réservé à TikTok aux Etats-Unis si la firme de Haidian (nord-ouest de Pékin) ne vendait sa filiale américaine. Le réseau social des jeunes férus de vidéos courtes et musicales est donc frappé du syndrome « Huawei » – géant chinois des équipements télécoms déjà mis à l’écart par des pays occidentaux sous les mêmes prétextes de « risque pour la sécurité nationale » (2) et d’accusation sans preuves de « cyber espionnage » (3). Déjà, Washington (depuis décembre 2022) et Bruxelles (depuis février 2023) ont interdit à leurs employés et fonctionnaires d’utiliser TikTok sur leurs smartphones professionnels.

Etats-Unis+Europe : 300 millions de tiktokeurs
L’application TikTok, lancée à l’automne 2016 et boostée par l’absorption en août 2018 de sa rivale Musical.ly rachetée par ByteDance en novembre 2017, dépasse aujourd’hui la barre des 1,5 milliard d’utilisateurs dans le monde, dont 170 millions aux Etats-Unis et 135 millions en Europe. TikTok est devenu en sept ans d’existence le cinquième plus grand réseau social au monde, derrière Facebook (3 milliards d’utilisateurs), YouTube (2,5 milliards), WhatsApp (2 milliards) et Instagram (2 milliards). S’il devait être banni des Etats-Unis et d’Europe, son audience chuterait de 305 millions de tiktokeurs au total – soit une perte de près de 20 % de sa fréquentation. Le chiffre d’affaires en serait sérieusement entamé pour sa maison mère ByteDance, cofondée en 2012 par Zhang Yiming, avec Liang Rubo (leurs photos en Une) devenu PDG fin 2021 (le premier se consacrant à la « stratégie à long terme »).

Le « Ban Act » serait inconstitutionnel
Comme elle n’est pas cotée en Bourse, cette super-licorne – valorisée jusqu’à 225 milliards de dollars (4) grâce à de multiples levées de fonds (Sequoia Capital, KKR, SoftBank, General Atlantic, SIG Asia Investment, TigerGlobal, Source Code Capital et Coatue) – ne publie pas ses résultats financiers. Mais elle aurait vu son chiffre d’affaires mondial bondir de 50 % en 2023, à près de 120 milliards de dollars, d’après les informations de l’agence Bloomberg le 10 avril (5). Sa rentabilité aurait elle aussi explosé de 60 % pour atteindre les 40 milliards de dollars. Pour la première fois, tant en revenu qu’en bénéfice, ByteDance aurait dépassé ses compatriotes Tencent et Alibaba, grâce non seulement à TikTok mais aussi à TikTok Music (ex-Resso), TikTok Shop (plateforme de ecommerce), Douyin (ex-A.me, équivalent de TikTok en Chine), CapCut (ex-JianYing, application de montage vidéos courtes), Ulike (retouche de selfies), Toutiao (site chinois d’actualités et de contenus), ou encore Lark (plateforme collaborative d’entreprise). La firme de Haidian, domiciliée avantageusement dans le paradis fiscal des Îles Caïmans (Antilles), revendique « plus de 150.000 employés répartis dans près de 120 villes à travers le monde, dont Austin, Barcelone, Pékin, Berlin, Dubaï, Dublin, Hong Kong, Jakarta, Londres, Los Angeles, New York, Paris, Seattle, Séoul, Shanghai, Shenzhen, Singapour et Tokyo ». Les vidéos de TikTok sont courtes mais le réseau social musical a le bras long.
Face à l’adversité occidentale, au premier rang de laquelle figurent les Etats-Unis qui dans sa nouvelle loi désignent TikTok comme une « application contrôlée par un adversaire étranger » (foreign adversary controlled application), ByteDance – mentionnée nommément dans la loi ainsi que sa filiale américaine – ne compte pas se laisser faire. Le groupe des Chinois Zhang Yiming et Liang Rubo – tous deux anciens camarades d’université – a déjà gagné du temps dans la mesure où le projet de loi « anti-ByteDance » initial prévoyait un délai de seulement six mois – jugé alors trop court aux yeux de certains juristes – pour vendre TikTok, au lieu de finalement neuf. Et le prochain président des Etats-Unis, dont l’investiture est prévue le 20 janvier 2025, pourra prolonger de trois mois l’échéance dans le cas d’une cession en cours. La loi prévoit même que TikTok Inc (la filiale américaine) doit couper tous liens avec l’Empire du Milieu, « y compris toute coopération relative au fonctionnement d’un algorithme de recommandation de contenu ou d’un accord relatif au partage de données ». Les algorithmes de TikTok Inc feraient partie de la liste des technologies chinoises qui devraient être approuvées par Pékin avant d’être exportées. La bataille techno-géopolitique sino-américaine déjà exacerbée avec Huawei s’intensifie. Treize jour après la promulgation du « Ban Act », la firme de Haidian a contre-attaqué en déposant le 7 mai – devant la cour d’appel du district de Columbia Circuit – une demande de révision de cette loi « anti-TikTok » estimée contraire à la Constitution des Etats-Unis, notamment à son Premier amendement consacrant la liberté d’expression. Dans sa requête de 77 pages (6), TikTok Inc et ByteDance Ltd (la maison mère), pointent l’absence de preuves sur d’« hypothétiques » menaces pour la « sécurité nationale ».
Ce n’est pas la première fois que ByteDance a recours au tribunal du district de Columbia Circuit, puisqu’en novembre 2020 la maison mère de TikTok y avait contesté un projet de décret du président des Etats-Unis, à l’époque Donald Trump, prévoyant déjà d’obliger le chinois à céder TikTok sur le sol américain sous peine de l’interdire. Dans cette éventualité, une future société américaine, baptisée TikTok Global, avait même été envisagée, avec des investisseurs tels qu’Oracle (7) et Walmart. Mais une fois arrivé au pouvoir, Joe Biden avait fait annuler en juin 2021 les décrets « Trump » visant TikTok mais aussi WeChat de Tencent. La menace d’interdiction de ByteDance est venue cette fois non pas d’une « Executive Order » de la Maison-Blanche mais d’une « Ban Bill » du Congrès américain.
« Soyez assurés, nous n’allons nulle part, a déclaré le 24 avril Shou Chew (Shou Zi Chew), le directeur général de TikTok, dans une vidéo postée sur le réseau social des jeunes (8). Nous sommes confiants et nous continuerons de nous battre pour vos droits devant les tribunaux ». ByteDance espère obtenir une injonction préliminaire du tribunal de Columbia pour annuler le processus de vente forcée de TikTok Inc qui, selon le chinois, serait une atteinte aux droits à la liberté d’expression de ses utilisateurs américains et une violation du Premier amendement. « Heureusement, nous avons une Constitution dans ce pays, et les droits du Premier amendement sont très importants », a déclaré confiant Michael Beckerman, viceprésident en charge des affaires publiques de TikTok aux Etats-Unis, interviewé par une tiktokeuse le 17 avril (9).

Deux « procédures formelles » lancées par l’UE
En Europe, les tiktokeurs ont aussi de quoi s’inquiéter, depuis que la Commission « von der Leyen » (en fin de mandat) a ouvert deux « procédures formelles » à l’encontre de TikTok dans le cadre du DSA (10), tout en poussant ByteDance à suspendre « volontairement » fin avril dans l’UE son service controversé de récompenses TikTok Lite (11). Quant à Ursula von der Leyen, candidate à sa propre succession à Bruxelles, elle a décidé de ne pas utiliser TikTok (12) pour s’adresser aux jeunes durant sa campagne aux élections européennes de juin. Ironie de l’histoire, elle était présente au dîner du 6 mai à l’Elysée (13) en l’honneur du président chinois Xi Jinping (photo ci-dessus), lequel était en visite d’Etat de deux jours en France auprès d’Emmanuel Macron. @

Charles de Laubier

IA génératives, contrefaçons, exceptions au droit d’auteur et opt out : où se situent les limites ?

Adopté par les eurodéputés le 13 mars 2024, l’AI Act – approuvé par les Etats membres en décembre 2023 – va être définitivement voté en plénière par le Parlement européen. Mais des questions demeurent, notamment sur les limites du droit d’auteur face aux intelligences artificielles génératives.

Par Vanessa Bouchara, avocate associée, et Claire Benassar, avocate collaboratrice, Bouchara & Avocats.

Si l’utilisation des intelligences artificielles (1) est désormais largement répandue, ces techniques et technologies capables de simuler l’intelligence humaine restent au cœur de nombreux questionnements – tant éthiques que juridiques. Alors même que le projet de règlement européen visant à encadrer l’usage et la commercialisation des intelligences artificielles au sein de l’Union européenne, dit AI Act (2), a été adopté en première lecture le 13 mars 2024 par le Parlement européen (3), c’est l’intelligence artificielle générative – IAg, AIG ou GenAI – qui est aujourd’hui sujette à controverse.

Droit d’auteur et procès en contrefaçon
A l’origine du débat les concernant, il importe de rappeler que les systèmes d’IAg ont pour particularité de générer du contenu (textes, images, vidéos, musiques, graphiques, etc.) sur la base, d’une part, des informations directement renseignées dans l’outil par son utilisateur, et, d’autre part et surtout, des données absorbées en amont par l’outil pour enrichir et entraîner son système. Les systèmes d’intelligence artificielle générative sont ainsi accusés d’être à l’origine d’actes de contrefaçon, et pour cause : l’ensemble des données entrantes dont ils se nourrissent peuvent potentiellement être protégées par des droits de propriété intellectuelle. Où se situe donc la limite entre l’utilisation licite de ces données et la caractérisation d’un acte de contrefaçon ? Si, par principe, la reproduction de telles données est interdite, le droit européen semble désormais entrouvrir la possibilité d’utiliser celles-ci dans le seul cadre de l’apprentissage de l’IAg.

L’interdiction de reproduction de données protégées par le droit d’auteur. L’auteur d’une œuvre de l’esprit (4) jouit sur cette œuvre, du seul fait de sa création, de l’ensemble des droits conférés aux auteurs par le Code de la propriété intellectuelle (CPI). A ce titre, l’auteur d’une œuvre peut notamment s’opposer à toute reproduction de celle-ci, c’est-à-dire à toute fixation matérielle quelle qu’elle soit de son œuvre par tous procédés qui permettent de la communiquer au public d’une manière indirecte. Si l’IAg utilise en grande partie des données publiques, se pose tout de même la question de l’utilisation de ces données lorsqu’elles constituent de telles œuvres de l’esprit bénéficiant de la protection offerte par le droit d’auteur. La collecte et l’intégration de telles données dans les outils d’intelligence artificielle constituent-ils toutefois de tels actes de reproduction ? Eu égard à la définition très large du droit de reproduction, il semblerait qu’il faille répondre à cette question par la positive. En effet, la définition qui en est donnée par le législateur incite à considérer qu’en principe, tout acte de reproduction d’une œuvre doit faire l’objet d’une autorisation préalable de son auteur.
Aussi, en l’absence d’autorisation de la part de leurs auteurs, l’intégration des données d’apprentissage protégées par le droit d’auteur dans l’outil d’IAg pourrait aisément matérialiser un acte de contrefaçon par reproduction. C’est d’ailleurs à ce titre que plusieurs procédures sont en cours aux Etats-Unis. Plusieurs recours collectifs ont dernièrement été déposés en 2023 contre OpenAI et Microsoft, notamment par un regroupement d’écrivains américains – soutenus par la Authors Guild (5) – qui soutiennent que l’algorithme entraînant le robot ChatGPT manie leurs œuvres en violation de leurs droits d’auteur. Le New York Times a lui aussi porté plainte contre OpenAI et Microsoft (6). Il en est de même pour la banque d’images Getty Images qui accuse l’outil Stable Diffusion, développé par Stability AI, de violer ses droits d’auteur. Les procès se multiplient contre les IAg. Si la législation applicable est toute autre aux Etats-Unis, il nous semble toutefois que le dénouement des litiges en cours puisse potentiellement nous aiguiller sur le possible positionnement des juges français.

Exceptions, citations, extraits, …
Intelligence artificielle générative, fair use et exception de courte citation. Si les défendeurs outre Atlantique excipent généralement du concept de fair use, lequel permet l’utilisation loyale d’une œuvre par un tiers, les exceptions au droit d’auteur en France sont strictement délimitées et encadrées par les dispositions du CPI. Aussi, si les droits conférés aux auteurs d’une œuvre de l’esprit sont particulièrement étendus, le législateur les a de longue date assortis d’une liste exhaustive conséquente d’exceptions venant faire obstacle aux droits d’auteur. Parmi celles-ci, à défaut de fair use, certains entendent ainsi défendre l’IAg sur la base de l’exception de courte citation, permettant à tout tiers d’exploiter de courts extraits de l’œuvre dans la mesure où cette exploitation serait notamment justifiée par le caractère pédagogique, scientifique ou d’information de l’œuvre à laquelle elles sont incorporées. Seulement, encore faut-il que le tiers invoquant cette exception indique clairement le nom de l’auteur et la source. Ce que les outils d’IAg ne font pas, et ne peuvent pas faire eu égard à la masse de données sur laquelle se fonde leur entraînement, et surtout au regard du recoupement de l’ensemble de ces informations, lequel rend presque impossible de sourcer chacun des auteurs dont les œuvres sont utilisées.

Fouille de textes et de données limitée
L’évolution des techniques utilisées rend ainsi indispensable l’évolution du droit actuel et de la jurisprudence qui en découlera.
La limitation du droit d’auteur pour la fouille de textes et de données. Sans même anticiper l’arrivée fulgurante de l’intelligence artificielle au début des années 2020, le législateur européen est venu introduire en 2019 – via la directive « Droit d’auteur dans le marché unique numérique » (7) – une nouvelle exception au droit d’auteur en autorisant la fouille de textes et de données (« text and data mining » ou TDM), laquelle trouve ainsi à s’appliquer lorsque les reproductions d’œuvres réalisées ne remplissent pas toutes les conditions de l’exception pour les actes de reproduction provisoires. Seulement, les défenseurs de l’IAg se sont engouffrés dans cette brèche et ont entendu appliquer cette exception à la collecte et à la reproduction des données disponibles en ligne par les systèmes d’intelligence artificielle, afin de légitimer leur utilisation par ces derniers.
C’est ainsi, dans cette logique, que l’AI Act s’approprie le texte de 2019 et applique l’exception aux fins de fouille de textes et de données aux outils d’IAg. Néanmoins, exception à l’exception, le texte prévoit que tout auteur peut anticiper l’utilisation de ses œuvres par l’IA et s’opposer à cette exploitation en l’indiquant par tout moyen (droit de retrait ou opt out), auquel cas l’exception de « text and data mining » ne trouvera plus à s’appliquer. En pareille hypothèse, les systèmes d’IA seront ainsi à nouveau soumis l’obligation d’obtenir l’autorisation expresse de l’auteur afin de procéder à l’exploration de textes et de données sur ses œuvres de façon licite. Pour autant, le considérant 105 de l’AI Act, précise que les détenteurs de droits peuvent choisir de réserver leurs droits sur leurs œuvres ou autres objets pour empêcher l’exploration de texte et de données, « sauf si cela est fait à des fins de recherche scientifique ». Et dans l’article 2 du même AI Act, le sixième point prévoir que « le présent règlement ne s’applique pas aux systèmes d’IA ou aux modèles d’IA, y compris leur production, spécifiquement développés et mis en service aux seules fins de la recherche et du développement scientifiques ».
Nous nous interrogeons toutefois sur la pertinence de ce système d’« opt out » proposé aux auteurs, dans la mesure où il apparaît difficile – voire impossible – de contrôler son respect par les outils d’IA. En effet, comment un auteur peut-il contrôler que son œuvre n’est pas utilisée pour entraîner une intelligence artificielle ? A charge pour l’AI Office – le Bureau européen de l’IA créé par l’AI Act (8) – de rendre public un « résumé des contenus utilisées pour l’entraînement » de chaque IA à usage général (considérants 107 et 108 de l’AI Act, et articles 53d et 56b).
En dépit de sa volonté protectrice, et alors même qu’il n’est pas entré en vigueur, l’AI Act semble donc d’ores et déjà confronté aux difficultés inhérentes aux avancées techniques issues de l’intelligence artificielle.
Contenu généré par l’IAg et contrefaçon. Cela étant, quand bien même la fouille de données est autorisée en vertu du droit européen, cette exception reste cantonnée au seul entraînement des systèmes d’IA, et ne permet pas pour autant à l’outil de générer en fin de processus des données contrefaisantes. Aussi, dans la mesure où les données générées reproduiraient à tout le moins en partie les caractéristiques originales des données d’entraînement, elles ne pourront pas être exploitées sans l’autorisation préalable des auteurs des données d’entraînement, sauf à caractériser un acte de contrefaçon. En effet, il n’est en pratique jamais exclu que l’on puisse reconnaître tout ou partie des éléments issus des données entrantes, et il apparaît ainsi en théorie probable que des contrefaçons par imitation puissent être caractérisées. Néanmoins, dans quelle mesure l’utilisateur de l’IAg sera-t-il averti que la donnée générée contrefait une œuvre antérieure ?

Quid de la rémunération des contenus ?
S’il existe nécessairement une limite au-delà de laquelle les tribunaux pencheront en faveur de la contrefaçon, il est fort à parier que les utilisateurs des outils d’IAg la franchiront bien avant les développeurs à l’origine de ces outils. Les interrogations restent en tout cas nombreuses, comme en témoignent les deux missions lancées en France le 12 avril dernier par le Conseil supérieur de la propriété littéraire et artistique (CSPLA), d’une part sur la rémunération des contenus culturels utilisés par les IA (9) et d’autre part sur la mise en œuvre de l’AI Act (10). @