DeepSeek fête ses un an et pourrait profiter de la Fête des Lanternes pour lancer sa V4

Le « ChatGPT » chinois DeepSeek, qui avait secoué les IA américaines après son lancement low cost et frugale il y a un an, va lancer la version 4 de son modèle d’IA open source. L’Empire du Milieu et l’Occident sont ses terrains de jeu. Son fondateur Liang Wenfeng fait frémir Sam Altman (OpenAI).

En Chine, avec ou sans intelligence artificielle, le Nouvel An lunaire donnant le coup d’envoi de la Fête du Printemps se célèbre – cette année 2026 – du 17 février au 3 mars, le dernier jour des festivités étant la Fête des Lanternes, connue aussi pour ses boulettes de riz gluantes (tuanyuan). Pour marquer les un an de son IA générative DeepSeek, dont la « R1 » avait été lancée massivement et mondialement le 20 janvier 2025 (1), la société éditrice Hangzhou DeepSeek AI (2), fondée par son PDG Liang Wenfeng (photo), pourrait dégainer son modèle V4 d’ici au 3 mars.

Les « sino-AI » se sont multipliées
Les administrations « Trump I », « Biden » et « Trump II » ont eu beau restreindre les exportations de puces IA américaines les plus avancées, dont les GPU (3) de Nvidia, cela n’a pas empêché des rivaux chinois des ChatGPT d’OpenAI, Gemini de Google et autres Claude d’Anthropic de relever le défi des IA génératives entraînées sur de grands modèles de langage (LLM) performants. Un an après le lancement de la première version de DeepSeek par la société de Hangzhou (capitale de la province du Zhejiang, dans l’Est de la Chine), les « sino-AI » se sont multipliées pour conquérir le monde : Qwen d’Alibaba, Doubao de ByteDance, Hunyuan de Tencent, Ernie de Baidu, M de MiniMax, Kimi de Moonshot AI, Spark d’Iflytek, Ziyue de Netease Youdao, DM0 de Dexmal, ou encore GLM de Zhipu AI.
Publiée en janvier 2026, une étude de l’organisation américaine à but non lucratif Research and Development (Rand) – émancipée de l’US Air Force depuis 1948 mais toujours financé en grande partie par le gouvernement fédéral américain – constate que (suite) « les modèles chinois coûtent entre un sixième et un quart du prix des rivaux américains ». Mais cette étude pro-américaine (4) fait l’impasse sur la sobriété énergétique des IA chinoises qui ont un avantage sur leurs concurrents américains énergivores. De plus, DeepSeek s’est d’emblée démarqué de ses rivaux américains en étant open source. Bien qu’il ne soit pas le seul à être libre (5), son IA low cost et low energy – du moins jusqu’alors dans sa version V3.2 – est en pole position dans les catégories de raisonnement avancé, d’efficacité/coût, de mathématiques/coding et d’adoption massive sur des plateformes d’hébergement et de téléchargement telles que Hugging Face (6), Ollama ou GitHub. DeepSeek surpasse parfois GPT-5 ou Gemini 3.0 Pro sur des tâches spécifiques. Cette ouverture du chinois attire développeurs et entreprises, favorisant l’adoption rapide de DeepSeek, y compris en France (7). « La part de marché mondiale des LLM chinois est passée de [moins de] 3 % à [plus de] 13 % en deux mois [entre décembre 2024 et février 2025, ndlr], principalement portée par DeepSeek, alors même que le trafic des sites web des LLM américains a continué d’augmenter régulièrement durant cette période », relève l’étude de Rand. La ville de Hangzhou, où se situe aussi le siège mondial du géant chinois Alibaba, n’a rien à envier à la Silicon Valley et est devenu une plaque tournante de l’IA mondiale. Avec sa V4 – entraînée malgré l’embargo sur des puces IA Nvidia, d’après Reuters le 24 février (8) –, DeepSeek entend ne pas se faire distancer au niveau mondial. D’autant que s’endormir sur ses lauriers serait laisser la part belle aux autres LLM ouverts dits « open-weight » (« poids du modèle » téléchargeable) que sont, par exemple, les modèles Llama de Meta, populaire chez les développeurs, Gemma de Google ou encore Large, Ministral, Devstral et Magistral du français Mistral AI.
La société Hangzhou DeepSeek AI, privée et principalement financée par le fonds High-Flyer Quant (fonds spéculatifs, ou hedge fund, piloté par l’IA) appartenant à Liang Wenfeng, se concentre pour l’instant sur la recherche fondamentale (R&D), plutôt que sur la réalisation d’un chiffre d’affaires : non divulgué, celui-ci ne dépasserait pas les 50 millions de dollars en 2025 selon les spéculations (9). Reste à savoir aussi combien de temps le PDG de DeepSeek résistera aux sirènes de la Bourse.

Liang Wenfeng s’apprête à sortir une AGI
Dans une rare interview, accordée à 36Kr (le « TechCrunch » chinois) en juillet 2024 (10), soit trois après la sortie de la V2 de DeepSeek et six mois avant le lancement mondial de sa R1 bien plus puissante, Liang Wenfeng a dévoilé ses ambitions : « La chose la plus importante est de faire partie de cette vague mondiale d’innovation. […] Les API et l’IA devraient être abordables et accessibles à tous. […] Mais notre l’objectif est l’AGI [Artificial General Intelligence, capable de surpasser les humains, ndlr]. Cela peut être dans deux ans, cinq ans ou dix ans […] OpenAI n’est pas une entité toute-puissante qui peut toujours être en première ligne ». DeepSeek s’inscrit dans le temps long. @

Charles de Laubier

Hypertrucages vidéo au réalisme confondant générés par l’IA, les deepfakes se banalisent

Rien ne les arrêtera. Les hypertrucages vidéo et audio déferlent sur le Web et les applications mobiles, comme jamais. Fléau pour les uns, divertissement pour les autres, le phénomène pousse la créativité à son paroxysme. C’est aussi un marché mondial prometteur de plusieurs milliards d’euros.

(Le 23 février 2026, soit une semaine après la publication de cet article, 61 « Cnil » du monde entier ont cosigné une déclaration pour s’inquiéter des deepfakes)

Les deepfakes, que l’intelligence artificielle rend de plus en plus spectaculaires et incroyables, se propagent à la vitesse grand-V sur les réseaux sociaux, les applications mobiles ou encore par e-mail. Ces hypertrucages vidéo plus vrais que nature – mais aussi ceux uniquement audio (1) – en mettent plein la vue. Or, au-delà des abus, polémiques, désinformations et autres cyberattaques qu’ils peuvent provoquer, les deepfakes constituent un marché mondial protéiforme en pleine croissance de plusieurs milliards d’euros.

La barre des 10 milliards de $ en 2026
« Le marché mondial des technologies deepfake était évalué à 9,19 milliards de dollars en 2025, et devrait passer de 11,18 milliards en 2026 à 51,42 milliards d’ici 2034, affichant un taux de croissance annuel moyen de 21 % durant cette période », avance le cabinet d’études indien Fortune Business Insights dans ses prévisions mises à jour en janvier 2026. Cette évaluation porte uniquement sur les logiciels et services que peuvent acheter des clients de plus en plus nombreux, tels que sociétés de médias et de divertissement, publicitaires, organisations gouvernementales, partis politiques, cybercommerçants, etc. « Le segment “logiciel” détenait la plus grande part de marché des technologies deepfake, avec (suite) une part de 68,7 %, tandis que le segment “création” de deepfakes représente 37,92 % de part de marché », estime l’étude (2).
L’un des segments de ce marché mondial en plein boom réside dans les outils de détection des deepfakes, afin de prévenir l’utilisation abusive de ces images générées par IA. « La période électorale actuelle a entraîné une augmentation du contenu deepfake à travers le monde. La demande de solutions pour détecter ce “média synthétique” devrait augmenter et influencer positivement le marché de la technologie deepfake. De plus, comme le marché dépend fortement de la technologie IA, les avancées du marché de l’IA générative devraient favoriser la croissance du marché mondial des deepfakes », prédit la société Fortune Business Insights, fondée et dirigée par Rahul Bhandari (photo). Et encore, cette barre des 10 milliards de dollars susceptible d’être franchie durant cette année 2026 ne prend pas encore en compte tous les revenus induits par les deepfakes tels que ceux de la publicité en ligne, du marketing d’influence, des sociétés de conseil de la production audiovisuelle et cinématographique, ni de la fraude et cybercriminalité. Techniquement, le deepfake repose sur des algorithmes avancés d’apprentissage automatique (machine learning), principalement par des réseaux antagonistes génératifs (GAN, pour Generative Adversarial Network) utilisant deux réseaux de neurones, afin de générer des images et des vidéos réalistes. Grâce à un entraînement itérative, ces réseaux neuronaux apprennent à produire des résultats de plus en plus réalistes, ce qui fait que les deepfakes sont pratiquement indifférenciables des vidéos ou audios authentiques. L’utilisation de ces hypertrucages de synthèse améliore en outre les expériences de réalité augmentée (AR) et de réalité virtuelle (VR), où mondes numériques et mondes réels se mêlent dans des environnements digitaux immersifs, comme dans le jeu vidéo, la formation et même la thérapie.
La croissance annuelle à deux chiffres des deepfakes pourrait même augmenter sur ce marché mondial à la fois tiré par les usages créatifs et par la lutte contre les abus, d’autant que la régulation – visant à imposer la transparence sur ces créations IA par la « preuve d’authenticité » (watermarking, signatures numérique, labels IA, …) – va y contribuer. Dans une étude intitulée « Connected Consumer » et publiée en novembre 2024, le cabinet d’audit et de conseil américain Deloitte avait estimé que « le marché mondial de la détection des deepfakes – tel qu’il est mis en œuvre par les géants de la technologie, des médias et des réseaux sociaux – croîtra de 42 % par an, passant de 5,5 milliards de dollars en 2023 à 15,7 milliards de dollars en 2026 ». Toujours selon Deloitte il y a un peu plus d’un an, « le marché de la détection de deepfake pourrait suivre une trajectoire similaire à celle de la cybersécurité » (3).

CP2A à Washington et Code à Bruxelles
Deloitte a rejoint la Coalition pour la provenance et l’authenticité du contenu (C2PA, Coalition for Content Provenance and Authenticity), laquelle, depuis sa création en 2021 à Washington par Adobe, ARM, BBC, Intel, Microsoft et Truepic (rejoints au comité directeur par Google, Meta, OpenAI et Publicis), a vocation a lutter contre les deepfakes trompeurs grâce à des « normes techniques ouvertes et mondiale pour certifier la source et l’histoire (ou la provenance) du contenu numérique » (4). A Bruxelles, cette fois, la Commission européenne espère publier en mai ou juin 2026 un « Code de pratique sur le marquage et l’étiquetage des contenus générés par IA » (5). Mais le projet divise. @

Charles de Laubier

Les deepfakes audio inquiètent l’industrie musicale

En fait. Le 10 septembre, la Fédération internationale de l’industrie phonographique (IFPI) a publié son premier rapport sur « la musique dans l’UE ». Au-delà des inquiétudes sur la croissance musicale dans les Vingt-sept, une nouvelle pratique préoccupe : les deepfakes audio. Les détecteurs s’organisent.

En clair. « L’industrie musicale est préoccupée par la capacité des systèmes d’IA de générer du contenu “deepfake” qui s’approprie sans autorisation la voix, l’image et la ressemblance distinctives des artistes », alerte la Fédération internationale de l’industrie phonographique (IFPI), dans son rapport sur la musique dans l’Union européenne (UE) publié le 10 septembre. « Cela peut induire les fans en erreur, porter gravement atteinte à la réputation d’un artiste et fausser la concurrence en permettant aux clones générés de concurrencer de manière déloyale les artistes dont la musique et l’image ont été utilisées pour former le modèle d’IA » redoute-t-elle.
Six jours avant, de l’autre côté de l’Atlantique, un dénommé Michael Smith a été arrêté par le FBI et présenté devant juge de Caroline du Nord pour avoir créé des centaines de milliers de chansons avec une intelligence artificielle et utilisé des programmes automatisés (bots) pour diffuser des milliards de fois ces chansons générées par l’IA sur les plateformes de streaming (Amazon Music, Apple Music, Spotify et YouTube Music). Ce stratagème de fake streams (1) a permis à l’accusé de générer frauduleusement plus de 10 millions de dollars de royalties (2). De l’IA générative musicale au deepfake audio, il n’y a qu’un pas : les deux pratiques utilisent des masses de données audio pour générer du contenu fictif mais audible et vraisemblable.

Les deepfakes audio peuvent être musicaux ou simplement vocaux, sous forme soit d’un fichier audio soit dans une vidéo. Exemple : le 12 août dernier, le chanteur Florent Pagny a indiqué qu’un de ses fans s’était fait escroquer de « quelques centaines d’euros » en croyant entendre et voir sur une vidéo son idole (3). Le détournement par deepfake audio peut aussi se faire entre artistes, à l’instar du rappeur Jason Medeiros du duo AllttA qui a sorti en mai 2023 le titre « Savages » avec la voix du géant américain du hip-hop Jay-Z, sauf que cette voix a été créée par une IA (4) – suscitant une polémique.
Pour tenter d’endiguer le phénomène, des outils de détection se multiplient tels que : Mockingbord lancé en janvier par l’éditeur d’anti-virus McAfee (5) ; ProRata de la start-up californienne ProRata AI (Idealab) pour rémunérer les éditeurs dont les contenus sont utilisés par des IA génératives ; LatticeFlow AI Audio de la société zurichoise LatticeFlow AI pour détecter les deepfakes audio (6). @

L’AI Act devra limiter les risques élevés de l’IA pour les droits humains, sans freiner l’innovation

L’émergence fulgurante et extraordinaire de l’intelligence artificielle (IA) soulève aussi des préoccupations légitimes. Sur l’AI Act, un accord entre les Etats membres tarde avant un vote des eurodéputés, alors que 2024 va marquer la fin de la mandature de l’actuelle Commission européenne.

Par Arnaud Touati, avocat associé, Nathan Benzacken, avocat, et Célia Moumine, juriste, Hashtag Avocats.

Il y a près de trois ans, le 21 avril 2021, la Commission européenne a proposé un règlement visant à établir des règles harmonisées concernant l’intelligence artificielle (IA). Ce règlement européen, appelé AI Act, a fait l’objet, le 9 décembre 2023 lors des trilogues (1), d’un accord provisoire. Mais des Etats européens, dont la France, ont joué les prolongations dans des réunions techniques (2). La dernière version consolidée (3) de ce texte législatif sur l’IA a été remise le 21 janvier aux Etats membres sans savoir s’ils se mettront d’accord entre eux début février, avant un vote incertain au Parlement européen (4).

Contours de l’IA : éléments et précisions
Cette proposition de cadre harmonisé a pour objectif de : veiller à ce que les systèmes d’IA mis sur le marché dans l’Union européenne (UE) soient sûrs et respectent la législation en matière de droits fondamentaux et les valeurs de l’UE ; garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA ; renforcer la gouvernance et l’application effective de la législation en matière de droits fondamentaux et des exigences de sécurité applicables aux systèmes d’IA; et faciliter le développement d’un marché unique pour les applications d’IA, sûres et dignes de confiance et empêcher la fragmentation du marché (5). Pour résumer, cette règlementation vise à interdire certaines pratiques, définir des exigences pour les systèmes d’IA « à haut risque »et des règles de transparence, tout en visant à minimiser les risques de discrimination et à assurer la conformité avec les droits fondamentaux et la législation existante. Il reste encore au futur AI Act à être formellement adopté par le Parlement et le Conseil européens pour entrer en vigueur.

L’accord provisoire prévoit que l’AI Act devrait s’appliquer deux ans après son entrée en vigueur, avec des exceptions pour certaines dispositions. Afin de pouvoir saisir l’ampleur des mesures réglementaires, il faut tout d’abord définir ce qu’est réellement l’IA.
La proposition de texte actuelle, tel qu’amendé par le Parlement européen le 14 juin 2023 en première lecture par 499 voix pour, 28 contre et 93 abstentions (6), contient la définition suivante d’un « système d’intelligence artificielle », à savoir « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels ». Dans cette définition amendée, il n’est plus fait référence à l’annexe I contenant une liste de formes d’IA, annexe I contenue dans la proposition initiale de la Commission européenne. En effet un amendement n°708 a supprimé cette annexe I qui contenait trois types d’IA :
« (a) Approches d’apprentissage automatique, y compris d’apprentissage supervisé, non supervisé et par renforcement, utilisant une grande variété de méthodes, y compris l’apprentissage profond ». Ces techniques permettent aux systèmes d’IA d’apprendre de l’expérience, de reconnaître des modèles et de prendre des décisions intelligentes.
« (b) Approches fondées sur la logique et les connaissances, y compris la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs d’inférence (7) et de déduction, le raisonnement (symbolique) et les systèmes experts ». Les approches d’intelligence artificielle basées sur la logique et les connaissances organisent des données complexes en structures logiques, permettant un raisonnement précis par des systèmes d’IA.
« (c) Approches statistiques, estimation bayésienne, méthodes de recherche et d’optimisation ». Ces approches permettant l’analyse et l’interprétation précises de données complexes. Ces techniques sont utiles pour identifier des tendances, faire des prédictions, et résoudre des problèmes complexes dans divers secteurs, comme la finance, la logistique et la recherche scientifique.
Face au potentiel de l’IA d’impacter les droits fondamentaux, l’UE vise à réguler son usage viaun marché de confiance, tout en préservant le dynamisme de l’innovation dans ce secteur. Pour atteindre ces objectifs, l’AI Act énonce des dispositions spécifiques applicables aux acteurs de l’IA. Ces dispositions s’articulent autour de deux axes principaux : la gestion des risques et la responsabilité des acteurs.

Risque, de « limité » à « inacceptable »
Ainsi, cette proposition de règles établit des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l’IA. Concernant la gestion des risques, sont définis des niveaux de risque pour les systèmes d’IA, classés de « limité » à « inacceptable ». Ce classement établit des obligations proportionnées en fonction du niveau de risque associé.
Risque inacceptable. Les systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Par exemple, la proposition de règlement interdit les pratiques suivantes : les systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes en fonction de leur comportement social ou de caractéristiques personnelles et pouvant entraîner un traitement préjudiciable de personnes, dans certains contextes, injustifié ou disproportionné (score social) ; ou la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques, par exemple, des jouets activés par la voix qui encouragent à des comportements.

Droits des individus et IA éthique
Risque élevé.
Les systèmes d’IA qui ont un impact négatif sur la santé, la sécurité, les droits fondamentaux ou l’environnement (8) seront considérés comme à haut risque et seront divisés en deux catégories (systèmes d’IA utilisés dans des produits tels que jouets, voitures, etc.) et systèmes d’IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l’UE (aide à l’interprétation juridique, la gestion de la migration, de l’asile et du contrôle des frontières, etc.). L’annexe III de la proposition de règlement donne une liste des systèmes d’IA à haut risque. Une analyse d’impact sera obligatoire sur les droits fondamentaux, également applicable au secteur bancaire et des assurances. Les citoyens auront le droit de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque ayant une incidence sur leurs droits.
Risque limité. Les systèmes d’IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Ainsi, les utilisateurs doivent être informés lorsqu’ils interagissent avec l’IA. Cela inclut les systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo (comme les deepfakes). Par exemple, l’IA générative, telle que ChatGPT, devrait se conformer aux exigences de transparence : indiquer que le contenu a été généré par l’IA, concevoir le modèle pour l’empêcher de générer du contenu illégal, publier des résumés des données protégées par le droit d’auteur utilisées pour la formation. Les modèles d’IA à usage général à fort impact susceptibles de présenter un risque systémique, tels que le modèle d’IA plus avancé GPT-4, et bientôt GPT-5, devraient faire l’objet d’évaluations approfondies et signaler tout incident grave à la Commission européenne. Les droits individuels, eux, sont au cœur de la régulation sur l’IA. L’AI Act accorde une attention particulière aux droits des individus, qui s’articulent autour de quatre axes, afin de garantir une utilisation éthique et respectueuse de l’intelligence artificielle :
Le droit à la transparence et à l’information vise à assurer que les individus comprennent comment les systèmes d’IA prennent des décisions les concernant.
Le droit à la non-discrimination vise à protéger les individus contre les décisions automatisées basées sur des critères discriminatoires tels que la race, le genre, l’origine ethnique, la religion ou d’autres caractéristiques protégées. Les systèmes d’IA ne doivent pas conduire à des discriminations injustes ou à des disparités injustifiées.
Le droit à la sécurité et à la santé souligne l’importance de protéger les individus contre les risques inhérents aux systèmes d’IA. Les entreprises qui développent, mettent sur le marché ou utilisent des systèmes d’IA doivent garantir que ces technologies n’entraînent pas de préjudices physiques ou psychologiques aux individus.
La protection des données personnelles et de la vie privée. Dans la continuité du RGPD, les entreprises doivent ainsi garantir la confidentialité des données personnelles traitées par les systèmes d’IA. Cela implique une transparence totale sur les données collectées, les finalités du traitement et les mécanismes permettant aux individus de contrôler l’utilisation de leurs informations personnelles.
Les entreprises devront instaurer et suivre un processus itératif de gestion des risques, mettre en place des procédures de gouvernance des données, et garantir la robustesse, l’exactitude, ainsi que la cybersécurité. Les entreprises pourront compter sur les autorités européennes de standardisation qui élaboreront des normes techniques harmonisées pour faciliter la démonstration de la conformité des systèmes d’IA. Les autorités nationales compétentes auront la possibilité de créer des « bacs à sable réglementaires », offrant ainsi un cadre contrôlé pour évaluer les technologies innovantes sur une période déterminée.
Ces regulatory sandboxes reposent sur un plan d’essai visant à garantir la conformité des systèmes et à faciliter l’accès aux marchés auxquels les PME et les start-ups auront une priorité. Avant même la mise sur le marché des systèmes d’IA, les Etats membres devront désigner des « autorités notifiantes ». Cellesci sont désignées afin de superviser le processus de certification des organismes d’évaluation de la conformité. Ces organismes notifiés auront la tâche de vérifier la conformité des systèmes d’IA à haut risque.

« Cnil » européennes, futures gendarmes de l’IA
Il ne faut pas confondre ces entités avec les autorités nationales de contrôle, qui auront la tâche, après la mise en service des systèmes d’IA, de surveiller l’utilisation des systèmes et de s’assurer qu’ils respectent les normes établies par l’AI Act. En France, la Cnil (9) est pressentie. Le règlement comprend également la création du Comité européen de l’IA. Celui-ci sera composé d’un représentant par Etat membre et son rôle sera de conseiller et d’assister la Commission européenne ainsi que les Etats membres dans la mise en œuvre du règlement. L’AI Act prévoit également des mécanismes rigoureux pour garantir la conformité et sanctionner financièrement (10) d’éventuels manquements. @

De l’image détournée par l’IA aux deepfakes vidéo, la protection du droit à l’image en prend un coup

La manipulation d’images par l’intelligence artificielle, poussée jusqu’aux hypertrucages vidéo (deepfakes), n’épargne potentiellement personne. Angèle, Scarlett Johansson, Volodymyr Zelensky et bien autres en font les frais. Reste à savoir si le droit à l’image sera garanti par l’AI Act européen.

Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés*

L’intelligence artificielle (IA) représente un défi désormais bien connu en matière de droit d’auteur (1). Mais de nouveaux enjeux se dessinent également en termes de droit à l’image, un des composants du droit au respect de la vie privée. Voyons ce qu’il en est sur ce point, à l’aube de l’adoption de l’AI Act (2). Malgré une entrée tardive dans le droit positif français (3), le droit au respect de la vie privée est un pilier des droits de la personnalité. Le droit à l’image, qui protège le droit de s’opposer à sa reproduction par des tiers (4) en fait également partie.

L’image inclut le physique et la voix
Parmi les composantes de l’image figurent non seulement l’aspect physique mais aussi, notamment, la voix. Le tribunal de grande instance de Paris avait ainsi considéré, en 1982, lors d’un procès relatif à des enregistrements de Maria Callas, que « la voix est un attribut de la personnalité, une sorte d’image sonore dont la diffusion sans autorisation expresse et spéciale est fautive ». Or, de même que les outils de l’IA utilisent des œuvres protégées et s’exposent à des risques de contrefaçon, leur utilisation peut consister à reproduire l’image ou la voix de personnes existantes ou décédées, par exemple en réalisant la fausse interview d’une personne défunte ou en faisant tenir à une personnalité politique un discours à l’encontre des opinions qu’elle défend. Ces usages sont-ils licites ?
Quels sont les droits des personnes concernées ? Les exemples ne manquent pas. A l’été 2023, un beatmaker (compositeur de rythmiques) nancéen, nommé Lnkhey, a remixé au moyen de l’IA une chanson des rappeurs Heuss l’Enfoiré et Gazo avec la voix de la chanteuse Angèle, dont les œuvres sont bien évidemment très éloignées de celles de ces rappeurs. Le remix (5) a eu un succès tel qu’Angèle l’a elle-même repris en public lors de la Fête de l’Humanité en septembre 2023.

La même année, l’éditeur d’une application (Lisa AI) a utilisé la voix de l’actrice Scarlett Johansson dans un spot publicitaire. La publicité précisait avoir été créée par un procédé d’intelligence artificielle. Scarlett Johansson a annoncé avoir porté plainte. Le même type de mésaventure est arrivé, entre autres, à Tom Hanks et Bruce Willis. D’autres images ont aussi fait le tour du monde : celles du Pape François en doudoune blanche, d’Emmanuel Macron manifestant dans les rues de Paris, ou de Barack Obama et Angela Merkel construisant un château de sable ou tendrement enlacés à la plage. Les images de nombreuses stars de cinéma ont même été réutilisées en mars 2023 dans des vidéos à caractère pornographique diffusées sur les réseaux sociaux pour la promotion de Face Mega, un logiciel de « deepfakes », ces « hypertrucages » vidéo. Une autre vidéo diffusée sur la chaîne d’informations Ukraine 24 a montré Volodymyr Zelensky tenant un discours en faveur de la reddition du pays.
Ces différents exemples sont intéressants à rapprocher car ils montrent que l’usage de l’image d’une personnalité peut : être totalement inoffensif, voire relever de la liberté d’expression ; être approuvés implicitement ou explicitement par la « victime » ; ou porter une atteinte grave à la victime, voire présenter un danger pour la démocratie. Les photographies de Barack Obama et d’Angela Merkel sont humoristiques et ne portent aucun tort aux intéressés. Elles pourraient relever de la parodie ou de la satire légitime appliquées à des dirigeants politiques, dès lors que les images sont clairement identifiées comme ayant été créées par IA. La reprise par Angèle elle-même, en concert, de la chanson créée avec sa voix et sans son autorisation peut faire penser qu’elle aurait avalisé a posteriori cette atteinte à ses droits. Mais les propos qu’elle a tenus par ailleurs dénotent une certaine gêne et une pression pesant sur elle : « Et pourquoi je ne ferais pas ce que les gens me demandent depuis des semaines ? » ; « Je sais pas quoi penser de l’intelligence artificielle. J’trouve que c’est une dinguerie mais en même temps j’ai peur pour mon métier » (6). Il est en tout cas significatif qu’elle ait préféré « surfer » sur le succès du remix plutôt que de faire valoir judiciairement une atteinte à son droit à l’image, comme le droit français lui en donne la possibilité.

En cas d’avantage économique indu
C’est une attitude différente qu’a choisie Scarlett Johansson. La violation de son image par la reprise de sa voix dans un cadre commercial, et non artistique, est en effet moins « excusable » dans la mesure où les célébrités monnayent fréquemment l’utilisation de leur image et de leur voix par des marques, et sont en droit de refuser d’être associées à tel ou tel annonceur, même de manière rémunérée. Utiliser la voix de Scarlett Johansson sans autorisation n’est motivé par aucune prétention artistique ou satirique, mais par la volonté de profiter de sa notoriété pour en tirer un avantage économique indu. Le droit français offre, bien sûr, des fondements (articles 9 et 1240 du code civil) pour faire sanctionner ce type d’atteinte.

Code pénal durci contre les deepfakes ?
La France dispose également, depuis 1994, d’un texte qui condamne d’un an d’emprisonnement et de 15.000 euros d’amende « le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » (article 226-8 du code pénal). Pour que ce texte couvre mieux les deepfakes, il a fait l’objet d’un amendement du gouvernement adopté au Sénat (7) et modifié par un autre amendement toujours discuté à l’Assemblée nationale (8) dans le cadre du projet de loi visant à sécuriser et réguler l’espace numérique (9). Le projet prévoit qu’« est assimilé à l’infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne, sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention » (10). Une circonstance aggravante serait caractérisée lorsque le contenu deepfake est publié sur les réseaux sociaux (ou tout service de communication en ligne) : en ce cas, les peines pourraient être portées à deux ans d’emprisonnement et 45.000 euros d’amende.
A aussi été proposée l’introduction d’un nouvel article 226- 8-1 dans le code pénal, permettant la condamnation de la diffusion non consentie d’un hypertrucage à caractère sexuel, assortie d’une peine de deux ans d’emprisonnement et de 60.000 euros d’amende (article 5 ter du projet de loi). Quid cette fois de l’image « ressuscitée » de personnes décédées ? L’émission de télévision « L’Hôtel du Temps » diffusée sur France 3 a « ressuscité » différentes personnalités (Dalida, François Mitterrand ou encore Lady Di) grâce à des procédés d’IA tels que Face Retriever et Voice Cloning. Ces « résurrections » ont suscité de vifs débats : la personne dont on reproduit l’image et la voix aurait-elle réellement tenu ces propos ? Les héritiers disposent-ils de recours et d’un droit de regard sur les réponses de leurs ascendants ? Les archives utilisées aux fins de création de deepfakes sont-elles toutes utilisées légalement ? Une « démocratisation » de cette pratique semble se dessiner. Lors de sa conférence « re:Mars » (11) du 22 juin 2022, Amazon avait annoncé une nouvelle fonctionnalité d’IA dont serait dotée son logiciel Alexa, à savoir la capacité de reproduire la parole d’un défunt, à partir d’un très court extrait d’enregistrement de sa voix, ce qui pourrait aider les personnes survivantes à faire leur deuil. Mais dans le cas d’un usage non sollicité par les survivants, le fondement de l’article 9 du code civil n’est pas disponible car les droits de la personnalité sont intransmissibles aux héritiers. Ces derniers ne pourraient guère que se prévaloir d’un préjudice personnel résultant de l’atteinte à la mémoire d’un défunt. Par exemple, l’utilisation de l’image du défunt ne doit pas porter atteinte à la vie privée de ses héritiers.
Que prévoit alors le projet d’AI Act européen pour protéger les droits de la personnalité ? En avril 2021, la Commission européenne a proposé d’encadrer l’IA juridiquement. Ce n’est que le 9 décembre 2023 que les institutions européennes se sont accordées provisoirement sur un premier texte. Ce texte prévoit notamment une quasiinterdiction de pratiques présentant un « risque inacceptable », notamment en matière de droit à l’image et de protection des données personnelles : extractions non ciblées d’images faciales sur Internet à des fins de création de bases de données de reconnaissance faciale, systèmes de reconnaissance des émotions sur le lieu de travail ou d’études, ou encore systèmes de catégorisation biométrique. Le projet prévoit également que « les utilisateurs d’un système d’IA, qui génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d’autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques (“hypertrucage”), précisent que les contenus ont été générés ou manipulés artificiellement » (article 52). La difficulté est que le processus législatif ne progresse pas aussi rapidement que les outils d’IA et qu’il existe un risque d’obsolescence avant même l’adoption du texte final. D’autre part, la négociation a révélé des tensions non dissipées entre Etats membres.

Emmanuel Macron veut assouplir l’AI Act
Ainsi, Emmanuel Macron a plaidé lundi 11 décembre 2023, lors du premier bilan du plan d’investissement France 2030, en faveur d’une accélération de l’innovation, en affirmant que l’« on peut décider de réguler beaucoup plus vite et plus fort, mais on régulera ce qu’on n’inventera pas ». La France, dont la position consistant à faire primer l’innovation sur le droit d’auteur et sur la protection des droits humains est inhabituelle, est allée jusqu’à considérer que le projet sur lequel les institutions européennes se sont accordées n’était pas définitif et pourrait encore être amendé dans le sens de moins de régulation (12). @

* Article rédigé avec l’aide de Bérénice Leg.