Copyright & GenAI : la résolution des eurodéputés adoucit la « présomption » en faveur de l’innovation

Depuis que les eurodéputés ont adopté, en séance plénière le 10 mars 2026, une résolution sur le droit d’auteur et l’intelligence artificielle générative, texte qui n’a pas de caractère contraignant, la balle est dans le camp de la Commission européenne pour qu’elle clarifie les règles du jeu.

Le texte sur le copyright et l’IA adopté le 10 mars 2026 à Strasbourg par le Parlement européen – intitulé « Résolution sur le droit d’auteur et l’intelligence artificielle générative – opportunités et défis » (1) – posent des principes mais ne résout pas à ce stade les relations compliquées entre l’innovation qu’est l’IA et le copyright. D’autant que cette résolution politique issue du rapport de l’eurodéputé Axel Voss (photo) est non contraignante, le rapport lui-même dit « d’initiative » (du Parlement européen) étant non législatif, et n’a pas vocation à être publié au Journal Officiel de l’Union européenne (JOUE).

Les « ambiguïtés » de la directive « Copyright »
Il faudra attendre que la Commission européenne suive éventuellement les recommandations de cette résolution « Copyright & GenAI », notamment dans le cadre de la révision de la directive « Droit d’auteur et droits voisins dans le marché unique numérique » de 2019, dite « Copyright » (2), voire dans de futures lignes directrices sur l’entraînement des IA, pour que de nouvelles clarifications soient publiées au JOUE après adoption par le Parlement européen. Or il est justement prévu dans cette directive « Copyright » que la Commission européenne doit procéder – « au plus tôt le 7 juin 2026 » – au réexamen de la présente directive et présente un rapport exposant ses principales conclusions au Parlement européen, au Conseil de l’UE et au Comité économique et social européen.
C’est dire que cette perspective devient hautement politique à l’approche de cette échéance, tandis que les lobbies sont à la manœuvre pour défendre d’ici là leurs points de vue. Les organisations européennes de gestion collective des droits d’auteurs et représentants des ayants droit ont déjà les oreilles des eurodéputés, lesquels ont adopté cette résolution « Copyright & GenAI » par 460 voix pour, 71 voix contre et 88 abstentions. Ils font notamment observer dans leur résolution que « l’application de la directive [« Copyright » de 2019] est, à ce jour, ambiguë dans le contexte de l’entraînement de l’IA générative, et recommande d’apporter rapidement des clarifications à l’égard de son application et de sa mise en œuvre ». Les eurodéputés se font les porte-paroles des ayants droit en estimant que « la législation actuelle sur le droit d’auteur est insuffisante pour répondre aux enjeux de la concession de licences, pour l’IA générative, sur du matériel protégé par le droit d’auteur », et dès lors préconisent d’« instaurer un cadre juridique supplémentaire pour clarifier les règles d’octroi de licences pour l’IA générative et lutter contre les éventuelles violations de la législation actuelle en matière de droit d’auteur ». Les parlementaires européens insistent même sur le fait qu’« un tel cadre devrait inclure des dispositions garantissant la coopération effective des fournisseurs d’IA générative avec les créateurs et les autres titulaires de droits, y compris au regard d’un marché des licences opérationnel qui rétablit le pouvoir de négociation des titulaires de droits et des solutions de protection viables ». Pas question ici de licence légale (« contribution obligatoire »), comme l’a préconisée le 20 mars Arthur Mensch, patron du français Mistral AI (3).
Les eurodéputés rappellent en tout cas que « toute exception aux droits actuels relevant de l’acquis en matière de droit d’auteur, y compris en matière d’IA, doit être en conformité avec le test en trois étapes » prévu par la directive « Droit d’auteur et des droits voisins dans la société de l’information » de 2001, dite « DADVSI » (4). Celle-ci encadre strictement les exceptions et limitations aux droits exclusifs des auteurs par ce que l’on appelle le « test en trois étapes », qui consiste à faire respecter trois conditions cumulatives énoncées de cette manière : « Les exceptions et limitations […] ne sont applicables que dans certains cas spéciaux [première étape, ndlr] qui ne portent pas atteinte à l’exploitation normale de l’œuvre ou autre objet protégé [deuxième étape, ndlr] ni ne causent un préjudice injustifié aux intérêts légitimes du titulaire du droit [troisième étape, ndlr] » (5). Ce test en trois étapes provient à l’origine de la Convention de Berne (1886, révisée) et a été repris dans l’accord de l’OMC sur les droits de propriété intellectuelle (ADPIC (6)) ou encore dans les traités de l’Organisation mondiale de la propriété intellectuelle (OMPI).

Le copyright ne doit pas tuer l’innovation
Dans la foulée du Sommet pour l’action sur l’IA, qui s’était tenu à Paris en février 2025, la Commission européenne avait présenté en avril 2025 son « Plan d’action pour le continent de l’IA » (7), dont l’objectif est de faire de l’Europe un leader mondial dans le domaine de l’intelligence artificielle. Et ce, en promouvant – plutôt qu’en entravant – les progrès des technologies et services d’IA générative « dans l’intérêt général au sein de l’Union européenne afin de protéger la souveraineté technologique de l’Europe, sa compétitivité, sa culture plurilingue ainsi que sa capacité d’innovation, tout en restant fidèle à ses valeurs et en veillant à ce que le développement technologique favorise durablement la croissance économique, la compétitivité et l’innovation ». Il s’agit aussi de faciliter un large accès aux technologies de l’IA dans les Vingt-sept. Dans leur résolution « Copyright & GenAI », les eurodéputés considèrent, eux, que « pour rester compétitif dans la course à l’amélioration de l’IA générative, il faut également un accès à des contenus de haute qualité, ce qui souligne l’importance d’un secteur créatif équitablement rémunéré en tant que source de données d’entraînement de qualité pour l’IA ».

De présomption « irréfragable » à « réfragable »
Si les parlementaires européens reconnaissent que l’innovation IA ne doit être compromise par le droit d’auteur, ils estiment cependant « nécessaire d’établir un mécanisme en vertu duquel, dans certaines conditions, l’absence de transparence totale de la part de fournisseurs ou de déployeurs d’IA donne lieu à une présomption réfragable que tout œuvre ou objet concerné protégé par le droit d’auteur a été utilisé à des fins d’entraînement, d’inférence ou de génération augmentée par récupération ». Ce principe de « présomption réfragable » (rebuttable presumption), reprise par la résolution « Copyright & GenAI » dans le rapport final Voss adopté le 10 mars 2026, tient compte de la version amendée de celui-ci.
En effet, dans sa version initiale datée de l’été 2025 (8), le projet de rapport Voss suggérait au Parlement européen d’introduire un principe différent dit « présomption irréfragable » (irrebuttable presumption). Ce que des amendements en commission « Juri » du Parlement européen ont changé, en janvier 2026, pour « présomption réfragable » – autrement dit réfutable. C’est une nuance de taille et fondamentale en droit : le concept a été ainsi adouci pour permettre aux fournisseurs d’IA de renverser la présomption par des preuves contraires (transparence partielle, opt-out respecté, etc.) ; la présomption réfragable est provisoire et considérée comme vraie jusqu’à preuve(s) du contraire apportée(s) par la partie adverse (les ayants droit en l’occurrence). Alors que la présomption irréfragable, elle, aurait été absolue et conclusive, étant considérée comme un fait établi de manière définitive, sans possibilité de la contredire par des preuves. Concrètement : si un fournisseur d’IA générative ne respecte pas pleinement les obligations de transparence (liste détaillée des contenus utilisés pour l’entraînement, l’inférence lorsque le modèle raisonne et livre une réponse, la RAG (9) ou génération augmentée par récupération, etc.), il y a présomption réfragable que les œuvres concernées ont été utilisées. Mais : le fournisseur d’IA peut renverser cette présomption en prouvant le contraire, comme démontrer qu’il n’a pas utilisé telle œuvre, via des logs, des filtres, des opt-out respectés, etc. Ce changement de pied du rapport Voss est une victoire pour les Mistral AI (français), OpenAI/ChatGPT (américain), Google/Gemini (américain) ou encore Anthropic/Claude (américain), voire DeepSeek (chinois), grâce aux pressions des groupes progressistes et proinnovation (S&D, Greens, Renew) qui critiquaient la version initiale du rapport Voos comme trop punitive et risquant d’être incompatible avec l’AI Act et les principes de proportionnalité. « Le texte actuel contient encore une présomption d’usage, mais celle-ci est désormais devenue réfutable, ce qui est une exigence plus raisonnable », s’est félicitée l’association CommunIA, cofondée à Bruxelles par Wikimedia Europe (éditeur de Wikipedia) et défenseuse du domaine public et de l’accès ouvert à la connaissance et à la culture. « Le projet initial du député européen Voss affirmait que la formation des systèmes d’IA générative échappait au cadre existant du droit d’auteur. Cette interprétation contredisait directement l’approche adoptée dans le règlement sur l’IA et introduisait une incertitude juridique inutile. Cette incertitude s’est fait particulièrement sentir par les acteurs cherchant à se conformer à la loi, tels que les chercheurs et les développeurs de systèmes d’IA d’intérêt public », avait notamment pointé dès janvier 2026.
Cette association pro-domaine public critique le rapport Voos et la résolution « Copyright & GenAI ». « Le texte de compromis recule de cette position, faisant plutôt référence à des “ambiguïtés” supposées dans l’application des exceptions de l’exploration de texte et de données (TDM) à l’entraînement des modèles d’IA générative. Bien que cela représente une nette amélioration par rapport à la version originale, cela reste problématique », estime-t-elle (10).

La France veut sa présomption réfragable
En France, une proposition de loi pour l’instauration d’une « présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle » a obtenu le 19 mars 2026 l’aval du Conseil d’Etat (11). Le texte, dont la rapporteure est la sénatrice Laure Darcos (photo ci-dessus), sera débattu au Sénat le 8 avril 2026. La présomption française est bien réfragable ; elle peut donc être renversée par la preuve contraire (12). « En soutenant l’instauration d’une présomption réfutable d’utilisation des œuvres, [le rapport Voss] renforce la dynamique engagée en France avec la proposition de loi transpartisane déposée [au Sénat] », s’est félicitée le 1er mars la SACD (13). Tout comme la Sacem : « Faisons en sorte que la dynamique européenne soit confortée par le parlement en France », a déclaré le 10 mars sur LinkedIn (14) sa directrice générale, Cécile Rap-Veber. @

Charles de Laubier

Le secrétariat d’Etat au Numérique s’en va de Bercy

En fait. Le 21 septembre, Clara Chappaz a été nommée « secrétaire d’Etat chargée de l’Intelligence artificielle et du Numérique », dont la fonction passe pour la première fois du ministère de l’Economie au ministère de l’Enseignement supérieur et de la recherche. C’est le signe que l’innovation passe devant le business.

En clair. Depuis plus de quinze ans qu’il y a des « secrétaires d’Etat au Numérique » dans les gouvernements français successifs, les deux premiers – Eric Besson (mars 2008-janvier 2009) et Nathalie Kosciusko-Morizet (janvier 2009-novembre 2010) – l’ont été auprès du Premier ministre de l’époque. Mais il n’en a pas été de même pour les quatre « secrétaires d’Etat au Numérique » suivants – Eric Besson encore (novembre 2010- mai 2012), Fleur Pellerin (mai 2012-mars 2014), Axelle Lemaire (avril 2014-février 2017) et Christophe Sirugue (février 2017-mai 2017) – qui se sont retrouvés placés sous la houlette du ministère de l’Economie (Bercy).
Le « secrétaire d’Etat au Numérique » suivant, Mounir Mahjoubi (1), a rompu cette série « Bercy » en étant nommé à cette fonction mais replacée dans les services du Premier ministre (Matignon). Mais cela ne durera pas plus de dix-sept mois (mai 2017-octobre 2018) puisqu’à l’issue d’un remaniement, sa fonction rendra à nouveau compte à Bercy (octobre 2018-mars 2019). Les trois successeurs resteront rattachés à Bercy : Cédric O (mars 2019-juillet 2020 (2), excepté juillet 2020-mai 2022 sous la coupe du ministre de la Cohésion des territoires et des Relations avec les collectivités territoriales), Jean-Noël Barrot (juillet 2022-janvier 2024), Marina Ferrari (février 2024-septembre 2024 (3)). A noter que durant près de deux mois (mai 2022-juillet 2022), soit entre l’élection présidentielle et les élections législatives, le poste est resté vacant.

Avec la nouvelle recrue, 10e du nom à ce poste, Clara Chappaz nommée le 21 septembre 2024 « secrétaire d’Etat chargée de l’Intelligence artificielle et du Numérique » (4), il n’est plus question ni de Matignon ni de Bercy. Pour la première fois, le maroquin est rattaché au ministère de l’Enseignement supérieur et de la Recherche. La dernière fois que celui-ci a eu des technologies dans son périmètre, ce fut il y a plus de 20 ans avec Claudie Haigneré (juin 2002-mars 2004) mais en tant que ministre déléguée à la Recherche et aux Nouvelles technologies. En outre, avec Clara Chappaz (ex-La French Tech, mission relevant de Bercy), le Numérique passe derrière l’Intelligence artificielle dans le libellé de sa fonction. Le gouvernement montre ainsi sa priorité sur l’IA dans l’innovation et la recherche, à défaut d’être encore pleinement un business, contrairement au numérique qui l’est depuis longtemps. @

L’ex-secrétaire d’Etat au Numérique Cédric O fait toujours polémique avec son « Mistral gagnant »

Le lobbying dans l’IA de l’ancien secrétaire d’Etat au Numérique, Cédric O, continue de faire polémique sur fond de soupçons de conflits d’intérêts. La Haute autorité pour la transparence de la vie publique (HATVP) avait exprimé des réserves en juin 2022. Et depuis ?

(Le 11 juin 2024, soit le jour suivant la publication de cet article dans le n°323 de Edition Multimédi@, Mistral AI annonçait une levée de fonds de 600 millions d’euros, et, le 17 juillet, la HATVP nous a indiqué qu’elle venait de « procéder au contrôle du respect des réserves » formulées en 2022 et qu’ « aucun élément ne permet de conclure que ces réserves auraient été méconnues », mais aucune communication officielle n’est prévue)

Cédric O, cofondateur et actionnaire de la start-up Mistral AI via sa propre société de conseil Neopunteo, estil juge et partie – voire en conflits d’intérêts – vis-à-vis du gouvernement dont il fut secrétaire d’Etat au Numérique (mars 2019 à mai 2022) ? La question est lancinante mais légitime puisque cela concerne l’ancien secrétaire d’Etat au Numérique. Contactée par Edition Multimédi@, la Haute autorité pour la transparence de la vie publique (HATVP), présidée par Didier Migaud, nous a assuré qu’elle s’était bien prononcée dans sa délibération du 14 juin 2022 sur la demande que lui avait soumise Cédric O (photo) concernant notamment sa société Neopunteo.

Neopunteo, société de conseil au bras long
« Cédric O a créé le 11 juillet 2022 Neopunteo, qui a notamment pour objet social la prise de participation, directe ou indirecte, dans toutes opérations financières, immobilières ou mobilières ou entreprises commerciales ou industrielles pouvant se rattacher à l’objet social, notamment par voie de création de sociétés nouvelles, le tout directement ou indirectement, pour son compte ou pour le compte de tiers », nous a précisé un porte-parole de la HATVP. Et celui-ci de nous confirmer en outre : « C’est la société Neopunteo qui a souscrit des parts au capital de la société Mistral AI ». C’est ainsi que l’ancien secrétaire d’Etat au Numérique a pu affirmer auprès de l’AFP en décembre dernier qu’« [il] respect[ait] toutes les obligations demandées par la HATVP ». Cédric O a investi dans la start-up Mistral AI, créée le 28 avril 2023, dont il est coactionnaire et « conseiller-cofondateur » via sa société Nopeunteo qui était encore à l’état de projet au moment du rendu de l’avis contraignant du gendarme de la transparence de la vie publique.
Comme Cédric O a occupé ses fonctions ministérielles du 31 mars 2019 au 20 mai 2022, il avait en effet l’obligation – dans les trois ans suivant la cessation de ses fonctions à Bercy, soit jusqu’en mai 2025 – de saisir la HATVP avant de s’engager professionnellement. La haute autorité se prononce sur la compatibilité ou pas de l’exercice d’une activité rémunérée au sein d’une entreprise avec les fonctions de membre du gouvernement exercées au cours des trois années précédant le début de l’activité. Objectif : éviter le risque de prise illégale d’intérêts, laquelle relève d’une infraction pénale passible de trois ans d’emprisonnement et d’une amende de 200.000 euros. Il s’agit aussi de lutter contre tout conflit d’intérêt et d’édicter éventuellement des mesures à respecter pour prévenir les risques déontologiques. Depuis que Cédric O a quitté Bercy, la HATVP a publié quatre délibérations le concernant. La première délibération est celle datée de juin 2022 et concerne France Asie et Sista, ainsi que le projet de « créer une entreprise afin de réaliser des prestations de conseil » (1), Nopeunteo. Dans ses « réserves », la haute autorité a demandé à Cédric O de « respecter les règles déontologiques », de ne pas « faire usage ou de divulguer des documents ou renseignements non publics dont il aurait eu connaissance », et lui « suggère » de la saisir « avant de prendre pour client un organisme ou de prendre une participation dans une entreprise appartenant au secteur du numérique ».

A peine six mois après être rentré dans la désormais licorne Mistral AI, valorisée plus de 2 milliards de dollars – Cédric O empochant au passage des millions d’euros pour 176 euros de mise de départ d’après Capital (2) –, ne le voici pas nommé en septembre 2023 membre du comité de l’IA générative auprès de la Première ministre Elisabeth Borne. Ce comité interministériel (3) accueille aussi le cofondateur et PDG de Mistral AI, Arthur Mensch (ex-Google DeepMind). Et c’est le 13 mars dernier que ce comité IA de Matignon a remis son rapport au président de la République Emmanuel Macron, lequel a annoncé le 21 mai que le « AI Action Summit » (4) se tiendra à Paris du 10 au 11 février 2025.

AI Act, lobbying européen et polémiques
Cédric O fait polémique : le 20 décembre 2023, la sénatrice (UC) Catherine Morin-Desailly a interpelé le gouvernement sur ce « pantouflage » (5). Il est reproché à l’ex-ministre d’avoir influencé la politique de la France pour favoriser l’innovation dans le règlement européen AI Act, au détriment du droit d’auteur. Et le 30 mars dans Le Monde, Pascal Rogard, DG de la SACD (6), s’est encore offusqué : « La France a laissé tomber la défense du droit d’auteur pour faire plaisir à Mistral » (7). Le 13 mars sur BFM Business (8), le président du Snep (9), Bertrand Burgalat, a accusé Cédric O de « prise illégale d’intérêt totale » et de « trafic d’influence ». Ce dernier a porté plainte fin avril, a révélé L’Informé (10), contre le musicien producteur. Ambiance. @

Charles de Laubier

Acteurs de l’IA, la Cnil vous adresse ses premières recommandations : à vous de jouer !

La Commission nationale de l’informatique et des libertés (Cnil) a publié le 8 avril 2024 sept premières fiches « pour un usage de l’IA respectueux des données personnelles ». D’autres sont à venir. Ces règles du jeu, complexes, sont les bienvenues pour être en phase avec le RGPD et l’AI Act. Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats L’intelligence artificielle (IA) conduit à questionner de manière plus exigeante et approfondie la protection des données personnelles. Les principes fondateurs du RGPD (1) doivent non seulement être pleinement rappelés et appliqués, mais ils doivent même l’être de manière plus dynamique et exigeante. Un exemple : des données qui auraient précédemment pu être considérées pseudonymisées ou même anonymisées, pourront faire l’objet de calculs et de recoupements massifs, qui pourraient aboutir à identifier à nouveau les personnes, grâce à l’utilisation de l’IA. Sept premières fiches pratiques L’entraînement des IA appelle des données personnelles comme l’image et la voix des personnes, d’une quantité sidérale sans précédent. Il appartient aux entreprises et organisations nationales et internationales de procéder à la mise en conformité avec l’AI Act, lequel a été adopté 13 mars 2024 par le Parlement européen (2). Parallèlement et le même jour en France, la commission de l’IA – installée depuis septembre 2023 auprès du Premier ministre – a remis au président de la République son rapport (3) qui recommande notamment un assouplissement des contraintes liées à l’utilisation, par l’IA, de données personnelles. Cette commission IA appelle à « transformer notre approche de la donnée personnelle pour protéger tout en facilitant l’innovation au service de nos besoins ». Le 8 avril 2024, c’était au tour de la Cnil de publier des fiches pratiques consacrées à la phase de développement des systèmes d’IA. L’autorité administrative indépendante accompagne les acteurs de l’IA depuis deux ans déjà, comme elle ne manque pas de le rappeler dans son dernier rapport annuel (4), à travers notamment la création d’un service dédié, la publication de ressources et webinaires, ainsi que l’établissement d’une feuille de route articulée autour de quatre piliers : appréhender, guider, fédérer et accompagner, auditer. Ces recommandations font suite à la consultation publique entreprise en octobre 2023, laquelle a réuni une quarantaine de contributions d’acteurs divers (5). Afin de présenter ces fiches pratiques (6), un webinaire a été organisé par la Cnil le 23 avril dernier. L’occasion pour celle-ci d’apporter ses derniers éclairages. Concernant le périmètre d’application, il convient premièrement de préciser que ces fiches pratiques n’ont vocation à s’intéresser qu’à la phase de développement de systèmes d’IA (conception de base de données, entraînement, apprentissage) impliquant un traitement de données personnelles pour les cas d’usage pour lesquels le RGPD est applicable (7). Celles-ci n’ont donc pas vocation à régir la phase dite de « déploiement » d’un système d’IA. Retenant la même définition des « systèmes d’IA » que l’AI Act, sont notamment concernés par ces recommandations : les systèmes fondés sur l’apprentissage automatique, ceux fondés sur la logique et les connaissances (moteurs d’inférence, bases de connaissance, systèmes experts, …), ou encore les systèmes hybrides. Afin d’aider les professionnels dans leur mise en conformité, la Cnil a défini, à travers sept fiches de recommandations, les bonnes pratiques à respecter sans que celles-ci soient toutefois contraignantes. Ces recommandations tiennent compte des dispositions de l’AI Act et ont vocation à les compléter. La Cnil profite de ces lignes directrices pour rappeler les principes fondamentaux (licéité, transparence, minimisation, exactitude, limitation de conservation des données, …) et obligations majeures découlant du RGPD inhérentes à tout traitement, en les précisant et les adaptant au mieux à l’objet traité : les systèmes d’IA. Si les recommandations qui suivent concernent majoritairement les responsables de traitement, les sous-traitants ne sont pas délaissés, repartant également avec leur lot de bonnes pratiques. Peuvent à ce titre être cités : un respect strict des instructions du responsable de traitement, la conclusion d’un contrat de sous-traitance conforme à la réglementation en matière de données personnelles ou encore, l’obligation de s’assurer de la sécurité des données sous-traitées (8). Apports majeurs des recommandations Prenez soin de définir une finalité déterminée, explicite et légitime pour le traitement projeté. Deux situations sont clairement distinguées par la Cnil, selon que l’usage opérationnel en phase de déploiement du système d’IA est d’ores et déjà identifié, ou non, dès la phase de développement. Dans la première hypothèse, il est considéré que la finalité en phase de développement suivra celle poursuivie en phase de déploiement. De sorte que si celle-ci est suffisamment déterminée, explicite et légitime, alors la finalité en phase de développement le sera également. Dans la seconde hypothèse, et notamment en présence de systèmes d’IA à usage général, la Cnil insiste sur la nécessité de prévoir une finalité « conforme et détaillée ». Elle livre des exemples de finalités qu’elle considère, ou non conformes, précisant à ce titre que le simple « développement d’une IA générative » n’est pas une finalité conforme car jugée trop large et imprécise. Finalité conforme et responsabilités précises La méthode à suivre est alors révélée : une finalité ne sera conforme que si elle se réfère « cumulativement au“type” du système développé et aux fonctionnalités et capacités techniquement envisageables » (9). Le secteur de la recherche n’est bien sûr pas oublié. Une tolérance dans le degré de précision de l’objectif ou encore dans la spécification des finalités est évoquée, sans laisser de côté les éventuelles dérogations ou aménagements applicables. Déterminez votre rôle et vos responsabilités : suis-je responsable de traitement, sous-traitant, ou encore responsableconjoint ? Le développement d’un système d’IA peut nécessiter l’intervention de plusieurs acteurs. Dès lors, identifier son rôle au sens du RGPD peut être parfois délicat et les éclairages de la Cnil sur la question sont les bienvenus. Pour rappel, le responsable de traitement est « la personne […] qui, seul ou conjointement détermine les objectifs et moyens du traitement » (10). Cette qualité emporte son lot d’obligations et de responsabilités, d’où la nécessité de la déterminer avec précision. Les acteurs pourront se référer à la fiche donnant des exemples d’analyse permettant d’identifier son rôle au cas par cas (11). Effectuez un traitement licite et respectueux des principes fondamentaux. Un rappel des principes à respecter pour tout traitement ne mange pas de pain mais épargne bien des soucis en cas de contrôle. La Cnil s’attarde notamment sur l’obligation de choisir, parmi celles prévues par le RGPD, la base légale la plus adéquate au traitement projeté. Pour le développement de systèmes d’IA, elle explore cinq bases légales envisageables (12) : le consentement, l’intérêt légitime, l’obligation légale, la mission d’intérêt public ou encore le contrat. En cas de réutilisation de données, des vérifications seront à mener et, là encore, les recommandations de la Cnil différent selon l’hypothèse rencontrée et notamment en fonction de la source desdites données (données publiquement accessibles ou collectées par des tiers, …). A titre d’exemple, pour une réutilisation de données collectées par le fournisseur lui-même pour une finalité initiale différente, la Cnil impose, sous certaines conditions, un « test de comptabilité » (13) permettant de s’assurer que la finalité poursuivie est compatible avec la finalité initiale, et rappelle les obligations de fonder son traitement ultérieur sur une base légale valable sans oublier la nécessité d’informer les personnes concernées. Par ailleurs, la Cnil révèle les cas possibles de réutilisation de données collectées par des tiers, ainsi que les obligations qui incombent au tiers et ainsi qu’au réutilisateur de ces données. Respectez les principes fondamentaux. Le gendarme des données insiste également sur la nécessité de respecter les principes fondamentaux. Ce respect doit s’imposer à tout stade du développement d’un système d’IA, dès sa conception « privacy by design » (14), mais également lors de la collecte et de la gestion des données (15). La Cnil s’attarde particulièrement sur le principe de minimisation, lequel impose de ne traiter que les données « adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités » (16) déterminées. Si la Cnil s’attache à soutenir que le respect de ce principe « n’empêche pas l’utilisation de larges bases de données » (17) et notamment de données publiquement accessibles (18), il implique nécessairement pour un responsable de traitement de repenser l’entraînement et la conception de ses systèmes d’IA en se posant concrètement les questions suivantes : « Les données utilisées et/ou collectées sont-elles vraiment utiles au développement du système souhaité ? Ma sélection est-elle pertinente ? Pourrais-je mettre en place une méthode à suivre plus respectueuse des droits et libertés des personnes concernées ? Si oui, par quels moyens techniques ? ». A titre de bonnes pratiques, la Cnil recommande d’ailleurs d’associer au développement du projet un comité éthique et de mener une étude pilote afin de s’assurer de la pertinence de ses choix en matière de conception d’un système d’IA (19). Par ailleurs et conformément au principe de limitation des données de conservation (20), les durées de conservation des données utilisées seront à déterminer préalablement au développement du système d’IA. La Cnil appelle, à ce titre, à consulter son guide pratique sur les durées de conservation (21). Ces durées devront faire l’objet de suivi, de sorte que les données qui ne seront plus nécessaires devront être supprimées. Le respect de ce principe ne s’oppose pas à ce que, sous certaines conditions, des données soient conservées pour des durées plus longues, notamment à des fins de maintenance ou d’amélioration du produit. Analyse d’impact (AIPD) nécessaire Enfin, réalisez une analyse d’impact quand c’est nécessaire. L’analyse d’impact sur la protection des données (AIPD) permet d’évaluer et de recenser les risques d’un traitement en vue d’établir un plan d’action permettant de les réduire. Cette analyse AIPD (22) est, selon les cas, obligatoire ou bien fortement recommandée. A la lumière de la doctrine de la Cnil et de l’AI Act, les entreprises et organisations doivent à présent mettre en place leur mise en conformité, avec des points très réguliers. @

* Anne-Marie Pecoraro est avocate spécialisée en droit de la propriété intellectuelle, des médias et des technologies.

Elon Musk – devenu à 50 ans la personne la plus riche du monde – « pense [toujours] à un autre monde »

Le Sud-Africain blanc (anti-apartheid comme son père), Etats-unien depuis 20 ans, vit à 100 à l’heure. Elon Musk est devenu milliardaire il y a 10 ans et, grâce à ses investissements (Tesla, SpaceX, TBC, OpenAI, Neuralink, SolarCity, Twitter, …), pourrait devenir le premier trillionaire de l’histoire. Sous le feu des projecteurs et sous une pluie de critiques depuis qu’il veut s’emparer de Twitter, le PDG fondateur de l’entreprise spatiale SpaceX et DG du fabricant d’automobiles électriques Tesla (1) ne cesse de défrayer la chronique, qu’il alimente lui aussi par ses tweets débridés et ses prises de parole décomplexée. Elon Musk, qui va fêter ses 51 ans le 28 juin, fascine et agace à la fois. Considéré aussi bien comme visionnaire hors-pair que comme provocateur invétéré, le trublion multimilliardaire continue d’investir gros et à tout-va, en prenant des risques personnels et professionnels, ce qui lui réussit. S’il détient bien un quart de Tesla (actions et options d’achat cumulées), il a hypothéqué la moitié de ses actions pour obtenir des prêts financiers, notamment pour son projet de racheter Twitter 44 milliards de dollars. Né à en 1971 à Prétoria d’un père sud-africain et d’une mère canadienne, le triple nationalisé – Sud-Africain, Canadien (où il a émigré à 17 ans) et, depuis 20 ans, Américain – semble s’être installé cette année durablement sur le trône de la personne la plus riche du monde, première place qu’il avait prise brièvement au patron d’Amazon Jeff Bezos en 2021. Le Crésus de ce début du XXIe siècle détient une fortune professionnelle de 225,8 milliards de dollars (au 23-06-22), selon Forbes (2). « L’homme qui valait 1.000 milliards », en 2025 ? Bien que le fléchissement des places boursières et la crise économico-inflationniste lui aient fait perdre en deux mois plus de 55 milliards de dollars, l’acquisition pour 44 milliards de dollars des 90,8 % des actions de Twitter qu’il ne possède pas encore devrait le conforter – si son OPA aboutit – dans sa position de premier milliardaire mondial. N’en déplaise à Jeff Bezos, Bernard Arnault, Bill Gates ou encore à Warren Buffett (3). Elon Musk pourrait même se détacher du peloton de tête pour devenir dans le courant de la décennie le premier trillionaire toute l’histoire du capitalisme. Sur sa lancée – sa fortune ayant bondi de près de 1.000 % (817,8 % précisément au 23-06- 22) entre 2020 et 2022, le libertarien iconoclaste remplit toutes les conditions pour devenir le tout premier à être « l’homme qui valait 1.000 milliards ». Elon Musk est le seul des huit cent milliardaires (4) à être actuellement au-delà des 200 milliards. Et d’après l’étude « The Trillion Dollar Club » réalisée par la fintech-cloud californienne Tipalti Approve, publiée au début du printemps dernier (5), le patron de Tesla et de SpaceX pourrait inaugurer ce club des trillionaires dès 2024 – dans deux ans. Le nouveau « super- Rockefeller » aura alors 53 ans le 28 juin de cette année-là, avec une fortune professionnelle estimée à plus de 1,3 trilliards de dollars : 1.300 milliards ! Un serial-investor de haut-vol Rêvant de coloniser Mars, Elon Musk a la tête dans les étoiles et « pense à un autre monde », comme disait sa mère lorsqu’il était encore enfant et au moment où des médecins croyaient qu’il était sourd (6). Pour l’heure (au 23- 06-22), la capitalisation boursière de Twitter est de 29,5 milliards de dollars et celle de Tesla de 734 milliards de dollars. Quant à SpaceX, qui est une entreprise non cotée, elle est valorisée 125 milliards de dollars depuis une levée de fonds réalisée fin mai. Elle déploie la constellation Starlink, nom aussi de l’opérateur satellitaire qui a été autorisé fin mai en France par l’Arcep (7). L’entrepreneur multirécidiviste est aussi le cofondateur PDG de Neuralink, start-up californienne créée il y a cinq ans, non cotée et valorisée quelques centaines de millions de dollars. Ayant levé plus de 360 millions de dollars au total à ce jour, elle vise à connecter le cerveau humain à l’ordinateur grâce à la neurotechnologie et aux implants (au service des handicapés entre autres). Des tests sont actuellement menés sur des singes ou des porcs. Neuralink a son siège social à San Francisco, dans le même bâtiment où se trouve OpenAI, une autre start-up cofondée, en 2015, par Elon Musk. Celle-ci mène des recherches en intelligence artificielle et développe un modèle linguistique formé sur des milliards de mots présents sur Internet afin de répondre aux questions en langage naturel ou traduire entre les langues. Non cotée, la licorne OpenAI est valorisée au moins 1 milliard de dollars grâce à ses multiples investisseurs, dont Microsoft. Elon Musk n’en est plus administrateur depuis 2018, pour éviter tout conflit d’intérêt avec Tesla AI (voiture autonome), mais reste actionnaire. Elon Musk avait aussi cofondé en 2006 la start-up SolarCity, positionnée sur l’énergie solaire photovoltaïque, société qui fut revendue dix ans plus tard à Tesla pour environ 2,6 milliards de dollars. Le touche-à-tout du capitalisme américain veut aussi révolutionner les transports urbains dans les grandes villes embouteillées en creusant des tunnels et y déployer des systèmes électriques à grande vitesse de transport souterrain (projet « Loop ») : fin 2016, il a fondé pour cela The Boring Company (TBC) spécialisée dans la construction de tunnels à l’aide de ses propres tunneliers : une première percée a été effectuée sous les bureaux californiens de SpaceX à Hawthorne. Cette licorne TBC, déjà valorisée près de 6 milliards de dollars, teste des « boucles intra-city » à Las Vegas et à Los Angeles. Le tycoon de l’investissement de haut-vol a été diplômé « Wharton School » en physique et en sciences économiques il y a un quart de siècle (en 1997) à l’Université de Pennsylvanie (Etats-Unis), après être entré en 1990 à l’Université Queen’s à Kingston (au Canada, où il était arrivé l’année précédente d’Afrique du Sud). A 23 ans, en 1994, le jeune Elon Musk fait deux stages estivaux dans la Silicon Valley (8). Il a tenté l’année suivante d’entrer chez à Netscape, pionnière du Web avec son navigateur, mais sans jamais obtenir de réponse. Accepté en 1995 à l’Université Stanford pour faire un doctorat en philosophie (Ph.D.) en sciences des matériaux, il la quitte au bout de deux jours pour rejoindre le boom d’Internet et lancer une start-up avec son frère Kimbal : Zip2, développent des « city guides » pour la presse en ligne. Quatre ans plus tard (en 1999), ils l’ont cédée au fabricant de micro-ordinateurs Compaq pour plus de 300 millions de dollars. Elon Musk empoche 22 millions de dollars en cédant ses actions (7 %) et cofonde une startup de finances, de paiement et de banque en ligne, X.com, qui a fusionné l’année suivante avec la banque en ligne Confinity cofondée par un autre libertarien de la Silicon Valley, Peter Thiel, et dotée de son propre service de transfert d’argent : PayPal. Elon Musk devient alors PDG du nouvel ensemble X.com et, préférant les logiciels Microsoft à Unix, provoque la démission de Peter Thiel, lequel sera rappelé en septembre 2000 par l’entreprise – après l’éviction d’Elon Musk par le conseil d’administration. Faisant trop « porno », X.com devient PayPal (9). En 2002, eBay a acquis PayPal pour 1,5 milliard de dollars en actions, dont 175,8 millions de dollars pour Elon Musk qui en était le premier actionnaire, à 11,7 %. Du « technoking » au cryptomaniaque C’était il y a 20 ans. L’avenir du futur multimilliardaire commence à se jouer : le Maverick (10) des temps modernes fonde début 2002 « Space Exploration Technologies Corp. », rebaptisé en mai de la même année SpaceX, dont il deviendra PDG en 2021 et ingénieur en chef ; il investit en février 2004 dans la société Tesla (11) dans laquelle il mise 6,5 millions de dollars et en devient l’actionnaire majoritaire et président, puis en 2008 PDG et architecte produits – « Technoking » (12) en 2021. Le « roi de la tech » est aussi un crytomaniaque, ce qu’il lui vaut notamment depuis juin un procès à 258 milliards de dollars pour avoir fait la promotion du Dogecoin, y compris en envisageant d’en faire la cryptomonnaie favorite de Twitter. @

Charles de Laubier