Deepfake : les vidéos truquées à l’intelligence artificielle sous l’œil du Parlement européen

Le création « deepfake » – consistant à manipuler des contenus vidéo, des images et/ou de l’audio – permet d’obtenir des résultats ultra-réalistes grâce à l’intelligence artificielle. Parodies ou désinformations, ces « hypertruquages » seront encadrés par le futur règlement européen AIA.

Le futur « Artificial Intelligence Act » que le Parlement européen examine actuellement en commissions aura un droit de regard sur les vidéos truquées et les contenus manipulés relevant de la pratique très en vogue du « deepfake » (1) – nom composé à partir de deep learning et de fake news. La commission « marché intérieur et protection des consommateurs » (Imco), tête de file dans le processus législatif de ce projet de règlement européen (2), a comme rapporteur l’eurodéputé italien Brando Benifei (photo). Selon nos informations, « un échange de vues avec les représentants de la Commission européenne » a eu lieu avec lui le 27 octobre dernier.

Article 1er du Artificial Intelligence Act
Prochaines réunions de la commission Imco : les 1er et 9 décembre prochains. Le projet de règlement Artificial Intelligence Act (AIA) sera à nouveau à l’ordre du jour et vient en complément des deux autres projets législatifs du numérique, les Digital Services Act (DSA) et Digital Markets Act (DMA), eux aussi en cours d’examen (lire p. 6 et 7). Il y sera aussi question de deepfake car dès l’article 1er du projet de législation sur l’intelligence artificielle, il est fait explicitement mention des « systèmes d’IA utilisés pour générer ou manipuler des images ou des contenus audio ou vidéo » qui devront être soumis à « des règles harmonisées en matière de transparence ».
Celles-ci sont précisées ensuite à l’article 52 du projet AIA : « Les utilisateurs d’un système d’IA – qui génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d’autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques (“hypertrucage”) – précisent que les contenus ont été générés ou manipulés artificiellement ». Si les deepfakes ne sont pas les seuls systèmes d’IA qui seront soumis à des obligations « en raison des risques spécifiques de manipulation qu’ils présentent » – les chatbots/robots conversationnels et les détecteurs biométriques automatisés d’émotions ou de catégorie sociale sont eux aussi dans le collimateur –, les « hypertrucages » audiovisuels occupent une place importante tant leur pratique se répand comme une traînée de poudre sur Internet, réseaux sociaux en tête. « Si un système d’IA est utilisé pour générer ou manipuler des images ou des contenus audio ou vidéo afin de produire un résultat qui ressemble sensiblement à un contenu authentique, il devrait être obligatoire de déclarer que le contenu est généré par des moyens automatisés, sauf pour certaines finalités légitimes faisant l’objet d’exceptions (domaine répressif, liberté d’expression) », précise le projet de règlement AIA dans ses motifs (3). La difficulté du Parlement européen va être d’encadrer la pratique de ces trucages vidéo ultra-réalistes sans pour autant porter atteinte à la liberté d’expression et à la liberté créative. Leurs auteurs de ces « photomontages » nouvelle génération dopés à l’IA ne seront théoriquement pas soumis à la censure ni victimes de chasse aux fausses informations, même si le projet de règlement n’évoque pas le droit à la critique, à la citation, à la caricature, à la parodie et au pastiche (relevant des exceptions au droit d’auteur). Pour autant, « [si] la ressemblance avec des personnes, des lieux ou des événements existants pourrait porter à croire qu’il s’agit de documents authentiques », les créateurs de deepfakes devront les déclarer. « Les deepfakes peuvent soulever des questions de droit d’auteur », indique à Edition Mulimédi@ Olivier Japiot, président du CSPLA (4).
Mais avant que le règlement AIA n’entre en vigueur en Europe, probablement en même temps les règlements DSA et DMA dont les adoptions par les eurodéputés sont attendues au printemps prochain durant la présidence française de l’Union européenne, les deepfakes n’en font qu’à leur tête. Le dernier Web Summit, grand-messe annuelle du numérique qui s’est déroulée début novembre à Lisbonne au Portugal, les a évoqués comme « un danger » mais aussi comme une révolution des médias et du divertissement. Des applications à portée de grand public (gratuites ou payantes) ont fait parler d’elles : Reface, Face Swap Live Lite, FaceApp, Mug Life ou encore Motionleap.

Deepfakes, effets spéciaux et copyright
Les truquages hyperréalistes sont aussi de mise sur TikTok ou Snapchat. Le studio hollywoodien cinquantenaire Lucasfilm, filiale de Disney, a même recruté en juillet dernier un YouTuber spécialiste du genre, un « deepfaker » déchaîné surnommé Shamook (5). Il commettra ses détournements vidéo au sein de la division Industrial Light and Magic (ILM) créée en 1975 pour les effets spéciaux par George Lucas, lequel aujourd’hui injecte dans ses films et séries de l’IA et du machine learning. La révolution « deepfake » n’a pas fini de singer l’audiovisuel et le droit d’auteur. @

Charles de Laubier

La taxe «Google Images» revient dans le tuyau

En fait. Le 25 août, Next INpact a signalé que la Société des auteurs dans les arts graphiques et plastiques (ADAGP) se félicitait – dans son dernier rapport annuel publié cet été – du nouveau texte prévoyant que les moteurs de recherche tels que Google paient une redevance sur les images indexées.

En clair. « Sous l’impulsion de l’ADAGP [Société des auteurs dans les arts graphiques et plastiques, ndlr], un nouveau texte a été élaboré au sein du Conseil supérieur de la propriété littéraire et artistique (CSPLA) en vue de redonner effet au mécanisme créé en 2016, et faire en sorte qu’enfin, les moteurs de recherche d’images, et notamment Google, paient des droits aux artistes dont ils exploitent le travail. Le ministère de la Culture s’est engagé à l’introduire sous forme d’amendement gouvernemental dans le projet de loi audiovisuel », écrit la société de gestion collective des droits de 190.000 artistes français et étrangers, dans son rapport d’activité 2019 mis en ligne cet été. C’est Next INpact qui a fait état de ce passage le 25 août (1). Cette redevance, surnommée taxe « Google Images », est prévue depuis quatre ans, « le dispositif relatif aux services automatisés de référencement d’images » ayant été adopté dans le cadre de la loi « Création » du 7 juillet 2016, à la suite d’un amendement déposé par sénateur Jean-Pierre Leleux et adopté (2). « Cet amendement vise à instaurer un mécanisme permettant d’assurer la rémunération des auteurs d’œuvres d’art plastiques, graphiques et photographiques ou de leurs ayants droit pour les images que les moteurs de recherche et de référencement s’approprient aujourd’hui sans autorisation et mettent à la disposition du public sur Internet », avait-il justifié. Un projet de décret avait été ensuite notifié, le 5 septembre 2016, à la Commission européenne (3). Mais c’était sans compter sur un avis négatif du Conseil d’Etat qui, en février 2017, a pointé « les risques juridiques » (4) (*) (**) au regard notamment d’une décision du 16 novembre 2016 de la Cour de justice de l’Union européenne (CJUE). Celle-ci estimait qu’un tel mécanisme de gestion collective obligatoire applicable aux moteurs de recherche d’images ne pouvait pas être mis en œuvre à un niveau national sans être expressément autorisé par le droit européen. « C’est désormais chose faite grâce à l’article 12 sur les licences collectives étendues de la directive [européenne sur le droit d’auteur et le droit voisin dans le marché unique numérique, ndlr]», se félicite aujourd’hui l’ADAGP, laquelle se verrait bien être le gestionnaire de cette taxe « Google Images » avec la Société des auteurs des arts visuels et de l’image fixe (SAIF). La balle est dans le camp du gouvernement. @

Copyright et filtrage : la France veut peser dans les réunions « Article 17 » de la Commission européenne

Le 17 mai marquera le premier anniversaire de la publication au Journal Officiel européen de la directive « Droit d’auteur et droits voisins dans le marché unique numérique ». Son article 17, toujours controversé sur le filtrage des contenus, fait l’objet de négociations pilotées par la Commission européenne.

Après le confinement, la septième « réunion de dialogue avec les parties prenantes » – consacrée comme les six précédentes au controversé article 17 de la nouvelle directive européenne « Droit d’auteur » – va pouvoir se tenir à Bruxelles. Ces « stakeholder dialogue » (1) sont organisés par la Commission européenne depuis l’automne dernier pour parvenir à un accord sur « les meilleures pratiques », afin que cette dernière puisse émettre d’ici la fin de l’année des orientations (guidance) sur l’application cet épineux article 17.

Le blocage risque d’être un point de blocage
Alors que cette directive européenne « sur le droit d’auteur et les droits voisins dans le marché unique numérique » a été publié au Journal officiel de l’Union européenne (JOUE) il y aura un an le 17 mai, et qu’elle doit être transposée par chacun des Vingt-sept d’ici au 7 juin 2021 au plus tard, son article 17 fait toujours l’objet d’un bras de fer entre les industries culturelles et les acteurs de l’Internet. Car c’est lui qui impose désormais aux YouTube, Facebook et autres Dailymotion une nouvelle responsabilité, cette fois directe, vis-à-vis de contenus soumis au droit d’auteur qui auraient été piratés. Bénéficiant jusqu’alors de la responsabilité limitée et indirecte que leur conférait la directive européenne de 2000 sur le commerce électronique (2), les hébergeurs du Web sont maintenant tenus de « fourni[r] leurs meilleurs efforts (…) pour garantir l’indisponibilité d’œuvres et autres objets protégés » et de « bloquer l’accès [à ces contenus] faisant l’objet de la notification ou [de] les retirer de leurs sites Internet ».
Autrement dit, les GAFAM américains, leurs homologues chinois BATX et tous les autres acteurs du Net réalisant un chiffre d’affaires annuel supérieur à 10 millions d’euros n’auront pas d’autres choix que de généraliser la reconnaissance de contenus en ligne, et donc le « filtrage » de l’Internet – même si cette directive « Copyright » ne mentionne pas explicitement ce mot, préférant utiliser les termes « bloquer » ou « blocage ». De l’aveu même du législateur européen exprimé dans cette directive « Droit d’auteur » et de son article 17 « border line », il y a de sérieux risques de dommages collatéraux sur « les droits fondamentaux inscrits dans la Charte des droits fondamentaux de l’Union européenne, notamment la liberté d’expression et la liberté des arts » (3). Comment dès lors définir les « meilleures pratiques » à adopter, afin de garantir la liberté d’expression des utilisateurs du Net et d’éviter la censure non justifiée au nom de la sacro-sainte propriété intellectuelle ? C’est ce sur quoi discutent les parties prenantes lors de ces « réunions de dialogue » qui se tenaient au moins tous les mois – depuis le 15 octobre 2019 jusqu’au confinement – sous la houlette de l’unité « Copyright » (4) dirigée par le juriste italien Marco Giorello (photo de gauche). Avec la crise sanitaire, aucune réunion ne s’était tenue en mars et avril. Au cours des six premières réunions à Bruxelles, les organisations d’utilisateurs – telles que le Bureau européen des unions de consommateurs (Beuc), dont sont membres en France l’UFC-Que choisir et le CLCV – ont appelé la Commission européenne à « s’assurer que le contenu utilisé légitimement n’est pas bloqué, y compris lorsque ce contenu est téléchargé sous des exceptions et des limitations au droit d’auteur » et à « élaborer des solutions pour prévenir ou réduire les demandes abusives ». Dans le dernier « Discussion paper » que Edition Multimédi@ a consulté (5), et datant de la sixième réunion du 10 février dernier, certains intervenants ont mis en garde Bruxelles sur le filtrage obligatoire car « les technologies utilisées aujourd’hui ont des limites importantes en ce qui concerne la reconnaissance des utilisations légitimes [des contenus en ligne], y compris les utilisations en vertu des exceptions et des limitations du droit d’auteur » (6). Des participants ont également estimé qu’« une plus grande transparence est nécessaire en ce qui concerne le contenu bloqué ou supprimé, ainsi que les données stockées par les fournisseurs de services de partage de contenu en ligne ».
Le blocage de l’article 17 ne risque-t-il pas de devenir le point de… blocage, justement, de ces discussions européennes ? La France, elle, reste décidée à être le premier pays à transposer la directive « Copyright » et son article controversé qu’elle a fortement contribué à élaborer au nom de « l’exception culturelle ». Alors que cette disposition de filtrage a été introduite aux articles 16 et 17 du projet de loi sur l’audiovisuel (7), dont l’examen devrait reprendre d’ici l’été, le gouvernement français entend peser au niveau européen.

CSPLA, Hadopi et CNC : mission II
Le 13 janvier dernier, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – du ministère de la Culture – a confié au conseiller d’Etat Jean-Philippe Mochon une seconde mission sur la reconnaissance des contenus. Et ce, dans la foulée de son premier rapport sur ce thème publié en début d’année (8). Cette fois, son deuxième rapport – réalisé à nouveau avec l’Hadopi et le CNC (9) et attendu « d’ici l’automne 2020 » – se focalisera notamment sur cet article 17 de la directive « Copyright » en vue d’être porté à la connaissance de la Commission européenne. @

Charles de Laubier