L’AI Act devra limiter les risques élevés de l’IA pour les droits humains, sans freiner l’innovation

L’émergence fulgurante et extraordinaire de l’intelligence artificielle (IA) soulève aussi des préoccupations légitimes. Sur l’AI Act, un accord entre les Etats membres tarde avant un vote des eurodéputés, alors que 2024 va marquer la fin de la mandature de l’actuelle Commission européenne.

De l’image détournée par l’IA aux deepfakes vidéo, la protection du droit à l’image en prend un coup

La manipulation d’images par l’intelligence artificielle, poussée jusqu’aux hypertrucages vidéo (deepfakes), n’épargne potentiellement personne. Angèle, Scarlett Johansson, Volodymyr Zelensky et bien autres en font les frais. Reste à savoir si le droit à l’image sera garanti par l’AI Act européen.

Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés*

L’intelligence artificielle (IA) représente un défi désormais bien connu en matière de droit d’auteur (1). Mais de nouveaux enjeux se dessinent également en termes de droit à l’image, un des composants du droit au respect de la vie privée. Voyons ce qu’il en est sur ce point, à l’aube de l’adoption de l’AI Act (2). Malgré une entrée tardive dans le droit positif français (3), le droit au respect de la vie privée est un pilier des droits de la personnalité. Le droit à l’image, qui protège le droit de s’opposer à sa reproduction par des tiers (4) en fait également partie.

L’image inclut le physique et la voix
Parmi les composantes de l’image figurent non seulement l’aspect physique mais aussi, notamment, la voix. Le tribunal de grande instance de Paris avait ainsi considéré, en 1982, lors d’un procès relatif à des enregistrements de Maria Callas, que « la voix est un attribut de la personnalité, une sorte d’image sonore dont la diffusion sans autorisation expresse et spéciale est fautive ». Or, de même que les outils de l’IA utilisent des œuvres protégées et s’exposent à des risques de contrefaçon, leur utilisation peut consister à reproduire l’image ou la voix de personnes existantes ou décédées, par exemple en réalisant la fausse interview d’une personne défunte ou en faisant tenir à une personnalité politique un discours à l’encontre des opinions qu’elle défend. Ces usages sont-ils licites ?
Quels sont les droits des personnes concernées ? Les exemples ne manquent pas. A l’été 2023, un beatmaker (compositeur de rythmiques) nancéen, nommé Lnkhey, a remixé au moyen de l’IA une chanson des rappeurs Heuss l’Enfoiré et Gazo avec la voix de la chanteuse Angèle, dont les œuvres sont bien évidemment très éloignées de celles de ces rappeurs. Le remix (5) a eu un succès tel qu’Angèle l’a elle-même repris en public lors de la Fête de l’Humanité en septembre 2023. La même année, l’éditeur d’une application (Lisa AI) a utilisé la voix de l’actrice Scarlett Johansson dans un spot publicitaire. La publicité précisait avoir été créée par un procédé d’intelligence artificielle. Scarlett Johansson a annoncé avoir porté plainte. Le même type de mésaventure est arrivé, entre autres, à Tom Hanks et Bruce Willis. D’autres images ont aussi fait le tour du monde : celles du Pape François en doudoune blanche, d’Emmanuel Macron manifestant dans les rues de Paris, ou de Barack Obama et Angela Merkel construisant un château de sable ou tendrement enlacés à la plage. Les images de nombreuses stars de cinéma ont même été réutilisées en mars 2023 dans des vidéos à caractère pornographique diffusées sur les réseaux sociaux pour la promotion de Face Mega, un logiciel de « deepfakes », ces « hypertrucages » vidéo. Une autre vidéo diffusée sur la chaîne d’informations Ukraine 24 a montré Volodymyr Zelensky tenant un discours en faveur de la reddition du pays.
Ces différents exemples sont intéressants à rapprocher car ils montrent que l’usage de l’image d’une personnalité peut : être totalement inoffensif, voire relever de la liberté d’expression ; être approuvés implicitement ou explicitement par la « victime » ; ou porter une atteinte grave à la victime, voire présenter un danger pour la démocratie. Les photographies de Barack Obama et d’Angela Merkel sont humoristiques et ne portent aucun tort aux intéressés. Elles pourraient relever de la parodie ou de la satire légitime appliquées à des dirigeants politiques, dès lors que les images sont clairement identifiées comme ayant été créées par IA. La reprise par Angèle elle-même, en concert, de la chanson créée avec sa voix et sans son autorisation peut faire penser qu’elle aurait avalisé a posteriori cette atteinte à ses droits. Mais les propos qu’elle a tenus par ailleurs dénotent une certaine gêne et une pression pesant sur elle : « Et pourquoi je ne ferais pas ce que les gens me demandent depuis des semaines ? » ; « Je sais pas quoi penser de l’intelligence artificielle. J’trouve que c’est une dinguerie mais en même temps j’ai peur pour mon métier » (6). Il est en tout cas significatif qu’elle ait préféré « surfer » sur le succès du remix plutôt que de faire valoir judiciairement une atteinte à son droit à l’image, comme le droit français lui en donne la possibilité.

En cas d’avantage économique indu
C’est une attitude différente qu’a choisie Scarlett Johansson. La violation de son image par la reprise de sa voix dans un cadre commercial, et non artistique, est en effet moins « excusable » dans la mesure où les célébrités monnayent fréquemment l’utilisation de leur image et de leur voix par des marques, et sont en droit de refuser d’être associées à tel ou tel annonceur, même de manière rémunérée. Utiliser la voix de Scarlett Johansson sans autorisation n’est motivé par aucune prétention artistique ou satirique, mais par la volonté de profiter de sa notoriété pour en tirer un avantage économique indu. Le droit français offre, bien sûr, des fondements (articles 9 et 1240 du code civil) pour faire sanctionner ce type d’atteinte.

Code pénal durci contre les deepfakes ?
La France dispose également, depuis 1994, d’un texte qui condamne d’un an d’emprisonnement et de 15.000 euros d’amende « le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » (article 226-8 du code pénal). Pour que ce texte couvre mieux les deepfakes, il a fait l’objet d’un amendement du gouvernement adopté au Sénat (7) et modifié par un autre amendement toujours discuté à l’Assemblée nationale (8) dans le cadre du projet de loi visant à sécuriser et réguler l’espace numérique (9). Le projet prévoit qu’« est assimilé à l’infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne, sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention » (10). Une circonstance aggravante serait caractérisée lorsque le contenu deepfake est publié sur les réseaux sociaux (ou tout service de communication en ligne) : en ce cas, les peines pourraient être portées à deux ans d’emprisonnement et 45.000 euros d’amende.
A aussi été proposée l’introduction d’un nouvel article 226- 8-1 dans le code pénal, permettant la condamnation de la diffusion non consentie d’un hypertrucage à caractère sexuel, assortie d’une peine de deux ans d’emprisonnement et de 60.000 euros d’amende (article 5 ter du projet de loi). Quid cette fois de l’image « ressuscitée » de personnes décédées ? L’émission de télévision « L’Hôtel du Temps » diffusée sur France 3 a « ressuscité » différentes personnalités (Dalida, François Mitterrand ou encore Lady Di) grâce à des procédés d’IA tels que Face Retriever et Voice Cloning. Ces « résurrections » ont suscité de vifs débats : la personne dont on reproduit l’image et la voix aurait-elle réellement tenu ces propos ? Les héritiers disposent-ils de recours et d’un droit de regard sur les réponses de leurs ascendants ? Les archives utilisées aux fins de création de deepfakes sont-elles toutes utilisées légalement ? Une « démocratisation » de cette pratique semble se dessiner. Lors de sa conférence « re:Mars » (11) du 22 juin 2022, Amazon avait annoncé une nouvelle fonctionnalité d’IA dont serait dotée son logiciel Alexa, à savoir la capacité de reproduire la parole d’un défunt, à partir d’un très court extrait d’enregistrement de sa voix, ce qui pourrait aider les personnes survivantes à faire leur deuil. Mais dans le cas d’un usage non sollicité par les survivants, le fondement de l’article 9 du code civil n’est pas disponible car les droits de la personnalité sont intransmissibles aux héritiers. Ces derniers ne pourraient guère que se prévaloir d’un préjudice personnel résultant de l’atteinte à la mémoire d’un défunt. Par exemple, l’utilisation de l’image du défunt ne doit pas porter atteinte à la vie privée de ses héritiers.
Que prévoit alors le projet d’AI Act européen pour protéger les droits de la personnalité ? En avril 2021, la Commission européenne a proposé d’encadrer l’IA juridiquement. Ce n’est que le 9 décembre 2023 que les institutions européennes se sont accordées provisoirement sur un premier texte. Ce texte prévoit notamment une quasiinterdiction de pratiques présentant un « risque inacceptable », notamment en matière de droit à l’image et de protection des données personnelles : extractions non ciblées d’images faciales sur Internet à des fins de création de bases de données de reconnaissance faciale, systèmes de reconnaissance des émotions sur le lieu de travail ou d’études, ou encore systèmes de catégorisation biométrique. Le projet prévoit également que « les utilisateurs d’un système d’IA, qui génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d’autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques (“hypertrucage”), précisent que les contenus ont été générés ou manipulés artificiellement » (article 52). La difficulté est que le processus législatif ne progresse pas aussi rapidement que les outils d’IA et qu’il existe un risque d’obsolescence avant même l’adoption du texte final. D’autre part, la négociation a révélé des tensions non dissipées entre Etats membres.

Emmanuel Macron veut assouplir l’AI Act
Ainsi, Emmanuel Macron a plaidé lundi 11 décembre 2023, lors du premier bilan du plan d’investissement France 2030, en faveur d’une accélération de l’innovation, en affirmant que l’« on peut décider de réguler beaucoup plus vite et plus fort, mais on régulera ce qu’on n’inventera pas ». La France, dont la position consistant à faire primer l’innovation sur le droit d’auteur et sur la protection des droits humains est inhabituelle, est allée jusqu’à considérer que le projet sur lequel les institutions européennes se sont accordées n’était pas définitif et pourrait encore être amendé dans le sens de moins de régulation (12). @

* Article rédigé avec l’aide de Bérénice Leg.

Cybermenaces : bombe électronique à retardement

En fait. Le 14 octobre se terminent à Monaco les 23e Assises de la cybersécurité qui se sont tenues sur quatre jours. Les cyber-risques n’augurent rien de bon, tant les cyberattaques n’ont jamais été aussi redoutables avec le renfort de l’intelligence artificielle et maintenant de l’informatique quantique. En clair. Sauve qui peut. Les responsables de la sécurité des systèmes d’information (RSSI) des entreprises et administrations, et leurs dirigeants, ont du souci à se faire. Jamais les cybermenaces et les cyberattaques n’ont été aussi fortes et nombreuses dans le monde. Internet devient le premier théâtre des opérations de la criminalité, de la guerre et de l’ingérence étrangère, tant économique que géopolitique. Cybersécurité et cyberdéfense n’y suffiront pas. Aux 23es Assises de la cybersécurité (1), à Monaco, les quelque 5.000 visiteurs – Chief Information Security Officer (Ciso) en tête – auraient préféré ne pas verser dans le catastrophisme ni dans les théories du cybercomplot. Hélas, les prévisions sont plus que jamais alarmistes. Steve Morgan, fondateur de la société d’études américaine Cybersecurity Ventures, le confirme à Edition Multimédi@ : « Depuis trois ans, nos prévisions n’ont pas changé. Les coûts mondiaux des dommages liés à la cybercriminalité augmentent de 15 % par an et atteindront 10.500 milliards de dollars en 2025, contre 8.000 milliards de dollars en 2023. C’était 3.000 milliards de dollars en 2015 » (2). Rien que pour 2023, selon nos calculs, le cybercrime mondial pèse financièrement plus de deux fois et demie le PIB de la France, et plus de mille fois le PIB de la Principauté de Monaco où se tiennent chaque année ces Assises de la cybersécurité ! « Cadence des attaques, émergence des innovations [IA, quantique, deepfake, …, ndlr], rotations dans les équipes, profils des attaquants, environnement social et géopolitique, … : le RSSI est sous pression », a confirmé en session plénière (3) Sabrine Guihéneuf, présidente d’honneur 2023 de ces assises internationales, par ailleurs directrice de la cybersécurité et de la gouvernance IT du groupe français URW (4). Certains, comme chez l’électronicien Thales, s’attendent à « l’Apocalypse quantique ». D’autres, comme chez l’hypermarchant Carrefour, craignent les IA génératives dans le retail et le e-commerce. L’équipementier télécoms américain Cisco s’attend, lui, au pire durant les JO de 2024 à Paris. Se cyberdéfendre à armes égales contre les hackers du monde entier (cryptage et vol de données, rançongiciel, Dos/DDoS (5), hameçonnage, authentification frauduleuse, deepfake, etc.), supposent aux victimes potentielles de recourir elles aussi à l’IA et à la cryptographie quantique voire post-quantique. @

Vers une régulation « presse, médias, plateformes »

En fait. Selon nos informations, c’est le 3 octobre que seront enfin lancés les « Etats généraux de l’information » voulus par Emmanuel Macron. Les conclusions sont attendues pour « mai 2024 », a indiqué Bruno Lasserre, président du « comité de pilotage » créé le 13 juillet par l’Elysée. Il a esquissé l’ambition dans Charente Libre le 7 août. En clair. « Aujourd’hui nous avons une régulation pour chaque type d’entreprise de l’information : la presse, les médias, les plateformes numériques. Nous avons l’ambition d’une régulation qui surplombe et relie tous ces droits particuliers. La France peut innover et inspirer la Commission européenne », a esquissé Bruno Lasserre, président du comité de pilotage des Etats généraux de l’information, dans un entretien à Charente Libre le 7 août (1). La mission, que lui a confiée Emmanuel Macron consiste à « inspirer le législateur, les politiques publiques ». Quelle sera cette régulation « surplomb[ant]» la presse, les médias et les plateformes ? « La livraison de nos conclusions est prévue pour mai 2024 », indique le retraité du Conseil d’Etat. Alors que les discussions démarrent au Parlement européen sur le projet de règlement sur « la liberté des médias » (EMFA) en vue d’aboutir avant les élections des eurodéputés en juin 2024 (2). En France, où le feuilleton du JDD « interpelle » (dixit Bruno Lasserre), les propositions de loi sur l’indépendance des médias et de leurs rédactions n’ont pas attendu les Etats généraux de l’information : après la proposition « Forteza » déposée l’an dernier par la députée dont le mandat s’est terminé en juin 2022, il y a la proposition « Assouline » déposée par le sénateur le 12 juillet (3) et la proposition « Taillé-Polian » déposée par la députée le 19 juillet (4). Les Etats généraux de l’information arrivent, eux, un an et demi après le rapport – non suivi d’effet – de la commission d’enquête du Sénat sur la concentration dans les médias en France, où des milliardaires s’étaient succédés aux auditions (5). Le comité de pilotage de Bruno Lasserre va aussi « entendre les acteurs » mais aussi « créer une consultation citoyenne » (jeunes inclus). Parmi les thèmes prévus : l’« éducation aux médias », l’« innovation technologique », le « métier de journaliste », le « statut de tous les nouveaux métiers », les « modèles économiques », le « factchecking », … Et Bruno Lasserre de dire : « Il faudrait pouvoir accéder à un site impartial qui hiérarchise l’information, distingue le vrai du faux, permet aux Français d’exercer leur esprit critique ». Emmanuel Macron, lui, veut y parler de France Médias Monde (RFI et France 24) comme « formidable levier de rayonnement » et « d’influence »… Rédactions indépendantes, avez-vous dit ? @

Sous pression de ChatGPT et frénétiquement, Google multiplie les produits d’intelligence artificielle

L’édition 2023 de la conférence des développeurs Google I/O, qui s’est tenue le 10 mai, a montré pour la première fois de l’histoire de la filiale d’Alphabet, créée il y a 25 ans, que l’IA est désormais devenue sa priorité numéro une. L’enjeu est de taille : ne pas se faire « ChatGPTéiser ». Le 2 juin à l’assemblée générale annuelle des actionnaires d’Alphabet, la maison mère de Google, l’intelligence artificielle (IA) sera dans toutes les têtes. Ce rendez-vous entièrement virtualisé (1) devrait entériner la nouvelle stratégie de Google plus que jamais tournée vers l’IA. Le temps presse car la firme de Mountain View (Californie) ne mène plus la danse sur le Web, depuis que la start-up OpenAI a lancé fin novembre 2022 son IA générative ChatGPT, allant même jusqu’à déstabiliser le numéro un des moteurs de recherche. Alphabet met de l’IA à tous les étages Pour la première fois depuis sa création il y a 25 ans par Larry Page et Sergey Brin, « Google Search » se sent menacé. Audelà de sa réplique à ChatGPT avec sa propre IA générative, Bard, le groupe Alphabet dirigé par Sundar Pichai met les bouchées doubles dans l’IA. Jamais la conférence des développeurs Google I/O (2), dont c’était la 15e édition annuelle depuis son lancement en 2008 (en tenant compte de son annulation en 2020 pour cause de pandémie), n’a été autant tournée vers l’intelligence artificielle. Le système d’exploitation mobile Android, les smartphones Pixel et autres outils de l’écosystème Google sont passés au second plan (3). L’année 2023 est une étape historique pour la filiale d’Alphabet qui a entrepris de généraliser l’IA partout où cela peut être utile. « L’IA est déjà dans de nombreux produits des millions (et dans certains cas des milliards) de personnes utilisent déjà comme Google Maps, Google Translate, Google Lens et plus encore. Et maintenant, nous apportons l’intelligence artificielle pour aider les gens à s’enflammer et à faire preuve de créativité avec Bard, à augmenter leur productivité avec les outils Workspace et à révolutionner la façon dont ils accèdent aux connaissances avec Search Generative Experience », a expliqué James Manyika (photo), vice-président chez Alphabet et Google, en charge des technologies et de la société ainsi que de Google Research et de Google Labs. L’IA s’est invitée dans la plupart des annonces faites aux développeurs « I/O », comme l’illustre un compte-rendu mis en ligne (4). Quant au chatbot intelligent Bard, qui fut lancé dans la précipitation le 6 février dernier d’abord auprès d’happy few testeurs pour engager un bras de fer avec ChatGPT cornaqué par Microsoft (5), il est appelé à évoluer pour tenter de s’imposer. « Plus tard cette année, Data Commons – un système qui organise des données provenant de centaines de sources pour éclairer les approches des grands défis sociétaux, de la durabilité aux soins de santé, en passant par l’emploi et l’économie dans de nombreux pays – sera accessible par l’intermédiaire de Bard, ce qui le rendra encore plus utile », a aussi annoncé James Manyika. Au-delà de Bard, l’IA sera mise à contribution par Alphabet pour faire face aux changements climatiques et réduire les émissions de carbone, pour améliorer les soins de santé, y compris les soins maternels, les traitements contre le cancer et le dépistage de la tuberculose. « Nous avons récemment annoncé un nouveau grand modèle linguistique qui pourrait être un outil utile pour les cliniciens : Med-PaLM », cite en exemple Google. L’IA va aussi de plus en plus aider les scientifiques dans de nombreux domaines, comme la physique, la science des matériaux et la santé, à l’instar du programme AlphaFold de Google DeepMind pour prédire avec précision la forme 3D de 200 millions de protéines (macronutriments essentiels au bon fonctionnement de l’organisme). L’IA va contribuer également à rendre l’information mondiale encore plus accessible à tous et permettre à chacun d’évaluer l’information en ligne et de détecter la mésinformation. « Dans les prochains mois, a indiqué James Manyika, nous allons ajouter un nouvel outil, “About this image” (6) dans Google Search, qui fournira un contexte utile, comme le moment et l’endroit où des images similaires peuvent être apparues pour la première fois et où elles ont été vues en ligne, y compris les actualités, la vérification des faits et les sites sociaux. Plus tard cette année, cet outil sera disponible dans Chrome et Google Lens ». L’IA est aussi au cœur d’Universal Translator, un nouveau service expérimental du géant du Net. Il s’agit d’un outil intelligent de doublage vidéo qui traduit la voix d’un orateur et fait correspondre ses mouvements de lèvres. Concevoir les IA avec des garde-fous Selon Google, Universal Translator présente un énorme potentiel pour accroître la compréhension de l’apprentissage. Mais cela présente des risques de détournement, des « tensions » comme les désigne James Manyika : « Nous avons conçu le service avec des garde-fous pour limiter l’utilisation abusive et le rendre accessible seulement aux partenaires autorisés. Nous appliquons nos principes d’IA (7) à nos produits », assure-t-il. L’IA responsable (8) suppose aussi des outils de détection (« classificateurs ») pour débusquer les deepfake (9) et les supercheries. Et ce n’est que le début d’une nouvelle ère. @

Charles de Laubier