L’AI Act devra limiter les risques élevés de l’IA pour les droits humains, sans freiner l’innovation

L’émergence fulgurante et extraordinaire de l’intelligence artificielle (IA) soulève aussi des préoccupations légitimes. Sur l’AI Act, un accord entre les Etats membres tarde avant un vote des eurodéputés, alors que 2024 va marquer la fin de la mandature de l’actuelle Commission européenne.

Par Arnaud Touati, avocat associé, Nathan Benzacken, avocat, et Célia Moumine, juriste, Hashtag Avocats.

Il y a près de trois ans, le 21 avril 2021, la Commission européenne a proposé un règlement visant à établir des règles harmonisées concernant l’intelligence artificielle (IA). Ce règlement européen, appelé AI Act, a fait l’objet, le 9 décembre 2023 lors des trilogues (1), d’un accord provisoire. Mais des Etats européens, dont la France, ont joué les prolongations dans des réunions techniques (2). La dernière version consolidée (3) de ce texte législatif sur l’IA a été remise le 21 janvier aux Etats membres sans savoir s’ils se mettront d’accord entre eux début février, avant un vote incertain au Parlement européen (4).

Contours de l’IA : éléments et précisions
Cette proposition de cadre harmonisé a pour objectif de : veiller à ce que les systèmes d’IA mis sur le marché dans l’Union européenne (UE) soient sûrs et respectent la législation en matière de droits fondamentaux et les valeurs de l’UE ; garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA ; renforcer la gouvernance et l’application effective de la législation en matière de droits fondamentaux et des exigences de sécurité applicables aux systèmes d’IA; et faciliter le développement d’un marché unique pour les applications d’IA, sûres et dignes de confiance et empêcher la fragmentation du marché (5). Pour résumer, cette règlementation vise à interdire certaines pratiques, définir des exigences pour les systèmes d’IA « à haut risque »et des règles de transparence, tout en visant à minimiser les risques de discrimination et à assurer la conformité avec les droits fondamentaux et la législation existante. Il reste encore au futur AI Act à être formellement adopté par le Parlement et le Conseil européens pour entrer en vigueur.

L’accord provisoire prévoit que l’AI Act devrait s’appliquer deux ans après son entrée en vigueur, avec des exceptions pour certaines dispositions. Afin de pouvoir saisir l’ampleur des mesures réglementaires, il faut tout d’abord définir ce qu’est réellement l’IA.
La proposition de texte actuelle, tel qu’amendé par le Parlement européen le 14 juin 2023 en première lecture par 499 voix pour, 28 contre et 93 abstentions (6), contient la définition suivante d’un « système d’intelligence artificielle », à savoir « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels ». Dans cette définition amendée, il n’est plus fait référence à l’annexe I contenant une liste de formes d’IA, annexe I contenue dans la proposition initiale de la Commission européenne. En effet un amendement n°708 a supprimé cette annexe I qui contenait trois types d’IA :
« (a) Approches d’apprentissage automatique, y compris d’apprentissage supervisé, non supervisé et par renforcement, utilisant une grande variété de méthodes, y compris l’apprentissage profond ». Ces techniques permettent aux systèmes d’IA d’apprendre de l’expérience, de reconnaître des modèles et de prendre des décisions intelligentes.
« (b) Approches fondées sur la logique et les connaissances, y compris la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs d’inférence (7) et de déduction, le raisonnement (symbolique) et les systèmes experts ». Les approches d’intelligence artificielle basées sur la logique et les connaissances organisent des données complexes en structures logiques, permettant un raisonnement précis par des systèmes d’IA.
« (c) Approches statistiques, estimation bayésienne, méthodes de recherche et d’optimisation ». Ces approches permettant l’analyse et l’interprétation précises de données complexes. Ces techniques sont utiles pour identifier des tendances, faire des prédictions, et résoudre des problèmes complexes dans divers secteurs, comme la finance, la logistique et la recherche scientifique.
Face au potentiel de l’IA d’impacter les droits fondamentaux, l’UE vise à réguler son usage viaun marché de confiance, tout en préservant le dynamisme de l’innovation dans ce secteur. Pour atteindre ces objectifs, l’AI Act énonce des dispositions spécifiques applicables aux acteurs de l’IA. Ces dispositions s’articulent autour de deux axes principaux : la gestion des risques et la responsabilité des acteurs.

Risque, de « limité » à « inacceptable »
Ainsi, cette proposition de règles établit des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l’IA. Concernant la gestion des risques, sont définis des niveaux de risque pour les systèmes d’IA, classés de « limité » à « inacceptable ». Ce classement établit des obligations proportionnées en fonction du niveau de risque associé.
Risque inacceptable. Les systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Par exemple, la proposition de règlement interdit les pratiques suivantes : les systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes en fonction de leur comportement social ou de caractéristiques personnelles et pouvant entraîner un traitement préjudiciable de personnes, dans certains contextes, injustifié ou disproportionné (score social) ; ou la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques, par exemple, des jouets activés par la voix qui encouragent à des comportements.

Droits des individus et IA éthique
Risque élevé.
Les systèmes d’IA qui ont un impact négatif sur la santé, la sécurité, les droits fondamentaux ou l’environnement (8) seront considérés comme à haut risque et seront divisés en deux catégories (systèmes d’IA utilisés dans des produits tels que jouets, voitures, etc.) et systèmes d’IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l’UE (aide à l’interprétation juridique, la gestion de la migration, de l’asile et du contrôle des frontières, etc.). L’annexe III de la proposition de règlement donne une liste des systèmes d’IA à haut risque. Une analyse d’impact sera obligatoire sur les droits fondamentaux, également applicable au secteur bancaire et des assurances. Les citoyens auront le droit de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque ayant une incidence sur leurs droits.
Risque limité. Les systèmes d’IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Ainsi, les utilisateurs doivent être informés lorsqu’ils interagissent avec l’IA. Cela inclut les systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo (comme les deepfakes). Par exemple, l’IA générative, telle que ChatGPT, devrait se conformer aux exigences de transparence : indiquer que le contenu a été généré par l’IA, concevoir le modèle pour l’empêcher de générer du contenu illégal, publier des résumés des données protégées par le droit d’auteur utilisées pour la formation. Les modèles d’IA à usage général à fort impact susceptibles de présenter un risque systémique, tels que le modèle d’IA plus avancé GPT-4, et bientôt GPT-5, devraient faire l’objet d’évaluations approfondies et signaler tout incident grave à la Commission européenne. Les droits individuels, eux, sont au cœur de la régulation sur l’IA. L’AI Act accorde une attention particulière aux droits des individus, qui s’articulent autour de quatre axes, afin de garantir une utilisation éthique et respectueuse de l’intelligence artificielle :
Le droit à la transparence et à l’information vise à assurer que les individus comprennent comment les systèmes d’IA prennent des décisions les concernant.
Le droit à la non-discrimination vise à protéger les individus contre les décisions automatisées basées sur des critères discriminatoires tels que la race, le genre, l’origine ethnique, la religion ou d’autres caractéristiques protégées. Les systèmes d’IA ne doivent pas conduire à des discriminations injustes ou à des disparités injustifiées.
Le droit à la sécurité et à la santé souligne l’importance de protéger les individus contre les risques inhérents aux systèmes d’IA. Les entreprises qui développent, mettent sur le marché ou utilisent des systèmes d’IA doivent garantir que ces technologies n’entraînent pas de préjudices physiques ou psychologiques aux individus.
La protection des données personnelles et de la vie privée. Dans la continuité du RGPD, les entreprises doivent ainsi garantir la confidentialité des données personnelles traitées par les systèmes d’IA. Cela implique une transparence totale sur les données collectées, les finalités du traitement et les mécanismes permettant aux individus de contrôler l’utilisation de leurs informations personnelles.
Les entreprises devront instaurer et suivre un processus itératif de gestion des risques, mettre en place des procédures de gouvernance des données, et garantir la robustesse, l’exactitude, ainsi que la cybersécurité. Les entreprises pourront compter sur les autorités européennes de standardisation qui élaboreront des normes techniques harmonisées pour faciliter la démonstration de la conformité des systèmes d’IA. Les autorités nationales compétentes auront la possibilité de créer des « bacs à sable réglementaires », offrant ainsi un cadre contrôlé pour évaluer les technologies innovantes sur une période déterminée.
Ces regulatory sandboxes reposent sur un plan d’essai visant à garantir la conformité des systèmes et à faciliter l’accès aux marchés auxquels les PME et les start-ups auront une priorité. Avant même la mise sur le marché des systèmes d’IA, les Etats membres devront désigner des « autorités notifiantes ». Cellesci sont désignées afin de superviser le processus de certification des organismes d’évaluation de la conformité. Ces organismes notifiés auront la tâche de vérifier la conformité des systèmes d’IA à haut risque.

« Cnil » européennes, futures gendarmes de l’IA
Il ne faut pas confondre ces entités avec les autorités nationales de contrôle, qui auront la tâche, après la mise en service des systèmes d’IA, de surveiller l’utilisation des systèmes et de s’assurer qu’ils respectent les normes établies par l’AI Act. En France, la Cnil (9) est pressentie. Le règlement comprend également la création du Comité européen de l’IA. Celui-ci sera composé d’un représentant par Etat membre et son rôle sera de conseiller et d’assister la Commission européenne ainsi que les Etats membres dans la mise en œuvre du règlement. L’AI Act prévoit également des mécanismes rigoureux pour garantir la conformité et sanctionner financièrement (10) d’éventuels manquements. @

De l’image détournée par l’IA aux deepfakes vidéo, la protection du droit à l’image en prend un coup

La manipulation d’images par l’intelligence artificielle, poussée jusqu’aux hypertrucages vidéo (deepfakes), n’épargne potentiellement personne. Angèle, Scarlett Johansson, Volodymyr Zelensky et bien autres en font les frais. Reste à savoir si le droit à l’image sera garanti par l’AI Act européen.

Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés*

L’intelligence artificielle (IA) représente un défi désormais bien connu en matière de droit d’auteur (1). Mais de nouveaux enjeux se dessinent également en termes de droit à l’image, un des composants du droit au respect de la vie privée. Voyons ce qu’il en est sur ce point, à l’aube de l’adoption de l’AI Act (2). Malgré une entrée tardive dans le droit positif français (3), le droit au respect de la vie privée est un pilier des droits de la personnalité. Le droit à l’image, qui protège le droit de s’opposer à sa reproduction par des tiers (4) en fait également partie.

L’image inclut le physique et la voix
Parmi les composantes de l’image figurent non seulement l’aspect physique mais aussi, notamment, la voix. Le tribunal de grande instance de Paris avait ainsi considéré, en 1982, lors d’un procès relatif à des enregistrements de Maria Callas, que « la voix est un attribut de la personnalité, une sorte d’image sonore dont la diffusion sans autorisation expresse et spéciale est fautive ». Or, de même que les outils de l’IA utilisent des œuvres protégées et s’exposent à des risques de contrefaçon, leur utilisation peut consister à reproduire l’image ou la voix de personnes existantes ou décédées, par exemple en réalisant la fausse interview d’une personne défunte ou en faisant tenir à une personnalité politique un discours à l’encontre des opinions qu’elle défend. Ces usages sont-ils licites ?
Quels sont les droits des personnes concernées ? Les exemples ne manquent pas. A l’été 2023, un beatmaker (compositeur de rythmiques) nancéen, nommé Lnkhey, a remixé au moyen de l’IA une chanson des rappeurs Heuss l’Enfoiré et Gazo avec la voix de la chanteuse Angèle, dont les œuvres sont bien évidemment très éloignées de celles de ces rappeurs. Le remix (5) a eu un succès tel qu’Angèle l’a elle-même repris en public lors de la Fête de l’Humanité en septembre 2023.

La même année, l’éditeur d’une application (Lisa AI) a utilisé la voix de l’actrice Scarlett Johansson dans un spot publicitaire. La publicité précisait avoir été créée par un procédé d’intelligence artificielle. Scarlett Johansson a annoncé avoir porté plainte. Le même type de mésaventure est arrivé, entre autres, à Tom Hanks et Bruce Willis. D’autres images ont aussi fait le tour du monde : celles du Pape François en doudoune blanche, d’Emmanuel Macron manifestant dans les rues de Paris, ou de Barack Obama et Angela Merkel construisant un château de sable ou tendrement enlacés à la plage. Les images de nombreuses stars de cinéma ont même été réutilisées en mars 2023 dans des vidéos à caractère pornographique diffusées sur les réseaux sociaux pour la promotion de Face Mega, un logiciel de « deepfakes », ces « hypertrucages » vidéo. Une autre vidéo diffusée sur la chaîne d’informations Ukraine 24 a montré Volodymyr Zelensky tenant un discours en faveur de la reddition du pays.
Ces différents exemples sont intéressants à rapprocher car ils montrent que l’usage de l’image d’une personnalité peut : être totalement inoffensif, voire relever de la liberté d’expression ; être approuvés implicitement ou explicitement par la « victime » ; ou porter une atteinte grave à la victime, voire présenter un danger pour la démocratie. Les photographies de Barack Obama et d’Angela Merkel sont humoristiques et ne portent aucun tort aux intéressés. Elles pourraient relever de la parodie ou de la satire légitime appliquées à des dirigeants politiques, dès lors que les images sont clairement identifiées comme ayant été créées par IA. La reprise par Angèle elle-même, en concert, de la chanson créée avec sa voix et sans son autorisation peut faire penser qu’elle aurait avalisé a posteriori cette atteinte à ses droits. Mais les propos qu’elle a tenus par ailleurs dénotent une certaine gêne et une pression pesant sur elle : « Et pourquoi je ne ferais pas ce que les gens me demandent depuis des semaines ? » ; « Je sais pas quoi penser de l’intelligence artificielle. J’trouve que c’est une dinguerie mais en même temps j’ai peur pour mon métier » (6). Il est en tout cas significatif qu’elle ait préféré « surfer » sur le succès du remix plutôt que de faire valoir judiciairement une atteinte à son droit à l’image, comme le droit français lui en donne la possibilité.

En cas d’avantage économique indu
C’est une attitude différente qu’a choisie Scarlett Johansson. La violation de son image par la reprise de sa voix dans un cadre commercial, et non artistique, est en effet moins « excusable » dans la mesure où les célébrités monnayent fréquemment l’utilisation de leur image et de leur voix par des marques, et sont en droit de refuser d’être associées à tel ou tel annonceur, même de manière rémunérée. Utiliser la voix de Scarlett Johansson sans autorisation n’est motivé par aucune prétention artistique ou satirique, mais par la volonté de profiter de sa notoriété pour en tirer un avantage économique indu. Le droit français offre, bien sûr, des fondements (articles 9 et 1240 du code civil) pour faire sanctionner ce type d’atteinte.

Code pénal durci contre les deepfakes ?
La France dispose également, depuis 1994, d’un texte qui condamne d’un an d’emprisonnement et de 15.000 euros d’amende « le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » (article 226-8 du code pénal). Pour que ce texte couvre mieux les deepfakes, il a fait l’objet d’un amendement du gouvernement adopté au Sénat (7) et modifié par un autre amendement toujours discuté à l’Assemblée nationale (8) dans le cadre du projet de loi visant à sécuriser et réguler l’espace numérique (9). Le projet prévoit qu’« est assimilé à l’infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne, sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention » (10). Une circonstance aggravante serait caractérisée lorsque le contenu deepfake est publié sur les réseaux sociaux (ou tout service de communication en ligne) : en ce cas, les peines pourraient être portées à deux ans d’emprisonnement et 45.000 euros d’amende.
A aussi été proposée l’introduction d’un nouvel article 226- 8-1 dans le code pénal, permettant la condamnation de la diffusion non consentie d’un hypertrucage à caractère sexuel, assortie d’une peine de deux ans d’emprisonnement et de 60.000 euros d’amende (article 5 ter du projet de loi). Quid cette fois de l’image « ressuscitée » de personnes décédées ? L’émission de télévision « L’Hôtel du Temps » diffusée sur France 3 a « ressuscité » différentes personnalités (Dalida, François Mitterrand ou encore Lady Di) grâce à des procédés d’IA tels que Face Retriever et Voice Cloning. Ces « résurrections » ont suscité de vifs débats : la personne dont on reproduit l’image et la voix aurait-elle réellement tenu ces propos ? Les héritiers disposent-ils de recours et d’un droit de regard sur les réponses de leurs ascendants ? Les archives utilisées aux fins de création de deepfakes sont-elles toutes utilisées légalement ? Une « démocratisation » de cette pratique semble se dessiner. Lors de sa conférence « re:Mars » (11) du 22 juin 2022, Amazon avait annoncé une nouvelle fonctionnalité d’IA dont serait dotée son logiciel Alexa, à savoir la capacité de reproduire la parole d’un défunt, à partir d’un très court extrait d’enregistrement de sa voix, ce qui pourrait aider les personnes survivantes à faire leur deuil. Mais dans le cas d’un usage non sollicité par les survivants, le fondement de l’article 9 du code civil n’est pas disponible car les droits de la personnalité sont intransmissibles aux héritiers. Ces derniers ne pourraient guère que se prévaloir d’un préjudice personnel résultant de l’atteinte à la mémoire d’un défunt. Par exemple, l’utilisation de l’image du défunt ne doit pas porter atteinte à la vie privée de ses héritiers.
Que prévoit alors le projet d’AI Act européen pour protéger les droits de la personnalité ? En avril 2021, la Commission européenne a proposé d’encadrer l’IA juridiquement. Ce n’est que le 9 décembre 2023 que les institutions européennes se sont accordées provisoirement sur un premier texte. Ce texte prévoit notamment une quasiinterdiction de pratiques présentant un « risque inacceptable », notamment en matière de droit à l’image et de protection des données personnelles : extractions non ciblées d’images faciales sur Internet à des fins de création de bases de données de reconnaissance faciale, systèmes de reconnaissance des émotions sur le lieu de travail ou d’études, ou encore systèmes de catégorisation biométrique. Le projet prévoit également que « les utilisateurs d’un système d’IA, qui génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d’autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques (“hypertrucage”), précisent que les contenus ont été générés ou manipulés artificiellement » (article 52). La difficulté est que le processus législatif ne progresse pas aussi rapidement que les outils d’IA et qu’il existe un risque d’obsolescence avant même l’adoption du texte final. D’autre part, la négociation a révélé des tensions non dissipées entre Etats membres.

Emmanuel Macron veut assouplir l’AI Act
Ainsi, Emmanuel Macron a plaidé lundi 11 décembre 2023, lors du premier bilan du plan d’investissement France 2030, en faveur d’une accélération de l’innovation, en affirmant que l’« on peut décider de réguler beaucoup plus vite et plus fort, mais on régulera ce qu’on n’inventera pas ». La France, dont la position consistant à faire primer l’innovation sur le droit d’auteur et sur la protection des droits humains est inhabituelle, est allée jusqu’à considérer que le projet sur lequel les institutions européennes se sont accordées n’était pas définitif et pourrait encore être amendé dans le sens de moins de régulation (12). @

* Article rédigé avec l’aide de Bérénice Leg.

Pour la protection de leurs œuvres, les auteurs ont un droit d’opt-out, mais est-il efficace ?

Les IA génératives sont voraces et insatiables : elles ingurgitent de grandes quantités de données pour s’améliorer sans cesse. Problème : les ChatGPT, Midjourney et autres Bard utilisent des œuvres protégées sans avoir toujours l’autorisation. Pour les auteurs, l’opt-out est une solution insuffisante.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

L’utilisation de l’intelligence artificielle (IA) dans les domaines artistiques tend à révolutionner la manière dont nous analysons, créons et utilisons les œuvres cinématographiques, littéraires ou encore musicales. Si, dans un premier temps, on a pu y voir un moyen presque anecdotique de créer une œuvre à partir des souhaits d’un utilisateur ayant accès à une IA, elle inquiète désormais les artistes. Les algorithmes et les AI peuvent être des outils très efficaces, à condition qu’ils soient bien conçus et entraînés. Ils sont par conséquent très fortement dépendants des données qui leur sont fournies. On appelle ces données d’entraînement des « inputs », utilisées par les IA génératives pour créer des « outputs ».

Des œuvres utilisées comme inputs
Malgré ses promesses, l’IA représente cependant un danger pour les ayants droit, dont les œuvres sont intégrées comme données d’entraînement. A titre d’exemple, la version 3.5 de ChatGPT a été alimentée avec environ 45 téraoctets de données textuelles. On peut alors se poser la question de la protection des œuvres utilisées comme inputs : l’ayant droit peut-il s’opposer ? La législation a prévu un droit d’« opt-out », que peuvent exercer les auteurs pour s’opposer à l’utilisation de leurs œuvres par une IA. A travers le monde, l’IA est encore peu règlementée.
Aux Etats Unis, il n’existe pas encore de lois dédiées portant spécifiquement sur l’IA, mais de plus en plus de décisions font office de « guidelines ». Au sein de l’Union européenne (UE), l’utilisation croissante de l’IA, à des fins de plus en plus variées et stratégiques, a conduit à faire de son encadrement une priorité. En effet, dans le cadre de sa stratégie numérique, l’UE a mis en chantier l’ « AI Act », un projet de règlement (1) visant à encadrer « l’usage et la commercialisation des intelligences artificielles au sein de l’UE » qui a été voté le 14 juin 2023 par le Parlement européen (2). Son adoption est prévue pour fin 2023 ou début 2024, avec une mise application 18 à 24 mois après son entrée en vigueur.

A travers ce texte, le principal objectif du Parlement européen est d’établir un cadre juridique uniforme permettant l’innovation via l’IA, et de garantir que les systèmes d’intelligence artificielle utilisés dans l’UE soient sécurisés, transparents, traçables, non discriminatoires et respectueux de l’environnement. Au niveau national, l’encadrement de l’IA fait également couler beaucoup d’encre comme en témoigne, en France, la proposition de loi visant à encadrer l’intelligence artificielle par le droit d’auteur (3), déposée mi-septembre 2023. Trouver un équilibre entre deux objectifs – à savoir la protection des œuvres par le droit d’auteur et la libre utilisation des données nécessaire au bon fonctionnement des IA – constitue le but que cherche à atteindre l’UE, notamment à travers sa directive « Droit d’auteur dans le marché unique numérique » (4) de 2019, où elle établit un cadre qui permet aux IA de se développer – droit de fouilles de données – tout en offrant un contrôle aux auteurs sur leurs données – droit d’opt-out. Mais ce dernier droit suffit il à assurer la protection des œuvres ?
L’article 4 de cette directive dédiée au droit d’auteur permet les reproductions et les extractions d’objets protégés accessibles de manière licite, aux fins de la fouille de textes et de données, ou TDM (5). Elle permet la fouille de textes et de données tout en recherchant « un équilibre entre deux éléments : protéger les droits, et faciliter l’exploration de textes et de données ». En effet, la directive prévoit en son article 3 les fouilles de données dans un but scientifique tandis que l’article 4 prévoit la fouille effectuée par toute autre personne, peu importe la finalité. A la différence de l’article 3, l’article 4 prévoit une exception permettant aux auteurs de s’opposer à la fouille de données prévue dans ce même article : le droit d’opt-out (6). Précisons que les données utilisées peuvent être « conservées aussi longtemps que nécessaire aux fins de la fouille de textes et de données » (7).

Plaintes contre les IA « non autorisées »
On connaît le cas de Radio France qui a interdit l’accès d’OpenAI – la société californienne à l’origine de ChatGPT – à ses contenus, suivi par d’autres médias tels que France Médias Monde ou TF1. L’écrivain américain de science-fiction et de fantasy George R.R Martin, ainsi que d’autres auteurs tels que John Grisham, ont également porté plainte contre OpenAI pour avoir utilisé leurs œuvres pour se développer. Plus récemment, entre autres cas, la Sacem a utilisé ce droit afin de conditionner l’utilisation des données de ses membres par une IA à une « autorisation préalable et à une négociation financière » (8). Quant à la transposition de la directive « Droit d’auteur » de 2019 en droit français par une ordonnance de 2021 (9), elle rend l’exercice du droit d’opt-out plus restrictif. En effet, l’article L. 122-5-3 du code de la propriété intellectuelle (CPI) réserve ce droit aux auteurs alors que la directive ouvre ce droit aux ayants droits.

L’opt-out est-il efficace pour protéger ?
La propriété littéraire et artistique peut-elle protéger contre l’utilisation des données par les IA ? Il y a tout d’abord les difficultés de mise en œuvre du droit d’opt-out. La directive « Droit d’auteur » de 2019 a été votée à une époque où le législateur ne mesurait pas encore pleinement l’importance qu’allait prendre l’IA, et le système d’opt-out semble désormais insuffisant pour protéger les auteurs car il est difficile à appliquer. Tout d’abord, il existe une insuffisance d’information relative aux moyens d’exercer ce droit. Ensuite, Internet permet une multiplication des occurrences d’un même contenu en ligne, donc exercer son droit d’opt-out, alors que l’œuvre a déjà été diffusée et relayée par des internautes, semble inefficace. De surcroît, il a été mis en place en 2019, après qu’un nombre gigantesque d’œuvres aient déjà été rendues accessibles sur de nombreuses bases de données. Se pose donc la question du sort des œuvres qui ont déjà été utilisées précédemment par autrui ou par une IA pour générer un autre élément. Le droit d’opt-out n’a-t-il d’effet que sur les utilisations futures ?
Devant la difficulté d’exercer ce droit, certains acteurs tentent de mettre en place des solutions pour pallier ce problème, notamment en assurant une meilleure transparence quant au fonctionnement de l’IA. Google, par exemple, a mis en avant « Google-Extended » pour permettre aux auteurs d’avoir un meilleur contrôle sur leur contenu et sur la manière dont il pourrait être utilisé par des IA génératives (10). Il faut aussi sécuriser les droits d’auteur dans l’ère de l’intelligence artificielle : discernement, transparence, contreparties, protections de l’humain, … Les artistes et ayants droit réclament un droit d’accès leur permettant de savoir quelles œuvres et quelles données sont utilisées dans la fouille de données. Et ce, quand bien même ils auraient consenti à l’utilisation de certaines de leurs œuvres – leur autorisation ne couvrant pas nécessairement toutes leurs œuvres ni tous les systèmes d’IA. Dans le cas où ils se seraient opposés, ce dispositif d’information leur permettrait aussi de s’assurer qu’une autorisation n’a pas été accordée indûment par des tiers. La plupart des ayants droit estiment que, dans la mesure où le fonctionnement des algorithmes d’IA implique une reproduction d’objets protégés, « l’humain doit rester prioritaire et la titularité des droits doit revenir en priorité aux humains » (11). C’est d’ailleurs dans cette logique que s’est inscrite la table ronde de la Federal Trade Commission (FTC) sur l’« économie créative et les IA génératives » (12), organisée le 4 octobre 2023 pour que le législateur américain et les différentes autorités compétentes prennent en considération, dans leur mission de régulation, le point de vue des artistes, auteurs, compositeurs, réalisateurs et de toute personne dont les œuvres pourraient être utilisées par une IA générative.
Des syndicats américains tels que SAG-AFTRA ou WGA, rassemblant des centaines de milliers d’acteurs et de professionnels des médias, étaient présents lors de cette table ronde pour défendre une utilisation de l’IA saine, qui soit bénéfique à l’ensemble de leurs membres, aux travailleurs d’autres industries et au public en général. Pour s’assurer que l’ensemble des individus de cette industrie soient justement payés pour leur travail, plusieurs syndicats n’ont pas hésité à faire une grève générale de plusieurs mois à Hollywood (13) pour s’assurer du bon équilibre entre l’utilisation des IA génératives et les intérêts des individus car « les humains ont beau essayer de créer des IA de plus en plus intelligentes, elles ne remplaceront jamais la créativité humaine ». La grève – historique – a d’ailleurs porter ses fruits dans la mesure où elle a abouti sur un accord qui « permettra de construire des carrières de façon durable ». Outre des compensations financières obtenues des studios, le SAG-AFTRA affirme qu’ils ont négocié des « provisions sans précédent pour s’assurer du consentement et de la compensation [des acteurs], afin de protéger [ses] membres de la menace de l’IA » (15). @

* Anne-Marie Pecoraro est avocate spécialisée
en droit de la propriété intellectuelle,
des médias et des technologies numériques.

ZOOM

L’IA générative : quésaco ?
ChatGPT, Dall-E, Midjourney, Bard, Claude, … On connaît des exemples d’intelligence artificielle générative qui produisent de nouvelles données à partir de celles créées par des êtres humains, que ce soit sous forme de texte, d’images ou encore de musique. L’IA générative se concentre sur la création de données, de contenu ou de productions artistiques, de façon indépendante, tandis que l’IA classique se concentre, elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA, qu’elle soit générative ou classique, repose sur l’apprentissage automatique (machine learning) et donc sur des algorithmes conçus de sorte que leur comportement évolue dans le temps en fonction des données qui leur sont fournies. L’IA générative utilise la puissance d’un modèle de langage naturel (GPT-3 et GPT-4 pour ChatGPT, par exemple). On parle d’« invite » pour une simple instruction donnée à l’IA générative en langage naturel (texte ou voix), sinon d’« ingénierie rapide » (prompt engineering, en anglais) lorsque les demandes sont plus élaborées. @

Guerre israélo-palestinienne : baptême du feu pour le Digital Services Act au sein des Vingt-sept

Depuis le déclenchement le 7 octobre par le Hamas de la nouvelle guerre en Israël/Palestine, les réseaux sociaux dans les Vingt-sept sont sous haute surveillance, avec des rappels à l’ordre de la part de la Commission européenne qui entend lutter contre les « contenus illicites » avec son DSA.

« Nous nous trouvons dans une période marquée par le terrorisme et la guerre aux portes de l’UE. Cela s’accompagne d’une guerre de l’information, d’une vague de désinformation et de manipulation et d’ingérence de l’information étrangère. Nous l’avons vu clairement avec le Kremlin après l’agression russe contre l’Ukraine. Nous le voyons maintenant après les actes barbares du Hamas. Nous devons sécuriser notre espace d’information. C’est de la plus grande urgence », a prévenu le 18 octobre à Strasbourg la vice-présidente de la Commission européenne Véra Jourová (photo), en charge des valeurs et de la transparence.

« Plateformes, outils pour les terroristes »
Et la commissaire européenne tchèque de mettre en garde les Twitter, Facebook et autres YouTube : « Nous ne pouvons tout simplement pas accepter ce que nous voyons actuellement : les plateformes en ligne deviennent un outil pour les terroristes, un outil pour diffuser du contenu illégal antisémite et violent. L’espace d’information doit être sûr pour les citoyens européens. L’incitation au terrorisme, le discours de haine, illégal, la louange des meurtres, la désinformation peuvent déclencher la violence dans la vie réelle ». Pourtant, l’arsenal juridique de l’Union européenne, avec lourdes sanctions pécuniaires maximales à la clé en cas de non-respect des obligations, est maintenant bien fourni. Entre le règlement européen du 29 avril 2021 de lutte contre la diffusion des contenus à caractère terroriste en ligne ou « Anti-Terrorism Online Act » (1), d’une part, et le règlement européen du 19 octobre 2022 concernant le marché unique des services numériques ou « Digital Services Act » (2), d’autre part, les réseaux sociaux et les plateformes de partage ont deux épées de Damoclès au-dessus de leur tête.

Le « ATOA » et le « DSA » les menacent de sanctions financières en cas d’infractions à ces deux législations contraignantes, ou autrement dit si elles ne coopèrent pas avec les autorités compétentes des Etats membres. Ces amendes peuvent aller respectivement « jusqu’à 4 % du chiffre d’affaires mondial du fournisseur de services d’hébergement pour l’exercice précédent » (son article 18) et « jusqu’à concurrence de 6 % du chiffre d’affaires mondial annuel réalisé au cours de l’exercice précédent » (son article 74).
L’ATOA, applicable dans toute l’Union européenne depuis le 7 juin 2022, oblige que tous les « fournisseurs de services d’hébergement » (réseaux sociaux, plateformes de partage vidéo ou encore moteurs de recherche, indépendamment du pays de leur établissement principal) « retirent les contenus à caractère terroriste ou bloquent l’accès à ces contenus dans tous les Etats membres dès que possible et, en tout état de cause, dans un délai d’une heure à compter de la réception de l’injonction de retrait » (article 3). Un formulaire est même indexé à l’ATOA – publié au Journal Officiel de l’UE daté du 17 mai 2021 – pour que l’autorité compétent d’émission de l’injonction de retrait du (ou des) contenu(s) en ligne à caractère terroriste puisse(nt) être supprimé(s) – dans l’heure. De plus, le destinataire (la plateforme numérique concernée) « conserve le contenu et les données connexes qui ont été retirés ou auxquels l’accès a été bloqué, pendant une période de six mois ou davantage à la demande des autorités ou juridictions compétentes » (article 6).
Malgré cette obligation de supprimer ou de bloquer dans l’heure les contenus terroristes en ligne notifiés, la Commission européenne estime que ce règlement ATOA n’empêche pas toujours ces contenus illicites de circuler sur les réseaux sociaux après les faits de terrorisme et les cas d’apologie du terrorisme. « Nous avons vu récemment, également après le tragique attentat terroriste en Belgique [lundi 16 octobre 2023 où des vidéos ont été diffusées et partagées sur les réseaux sociaux pendant plusieurs heures, ndlr], que des efforts sont nécessaires pour rendre cette loi plus efficace. Avec le vice-président Schinas [Margaritis Schinas, commissaire européen en charge de la promotion de notre mode de vie européen, ndlr] et le commissaire Johansson [Ylva Johansson, chargé des affaires intérieures, ndlr], nous nous entretenons avec les Etats membres, Europol et Interpol pour améliorer les mécanismes de notification. Je suis également en contact avec les plateformes sur cette question », a annoncé à Strasbourg Véra Jourová (3).

« Obligations de diligence » et rapport annuel
Le DSA, applicable dans toute l’Union européenne à partir du 17 février 2024, est néanmoins applicable depuis le 16 novembre 2022 aux « très grandes plateformes en ligne et très grands moteurs de recherche en ligne » (article 33), dont la Commission européenne a officiellement dressé la liste le 25 avril 2023. Ce « Big 19 », comme Edition Multimédi@ a surnommé (4) ces grands acteurs du Net (Alibaba, AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Zalando, Bing, et Google Search), ont eu jusqu’au 25 août dernier pour se mettre en règle. Ce « Big 19 » a une « obligation de diligence » (chapitre III de ce règlement) vis-à-vis des « contenus illicites » qui sont signalés à ces très grandes plateformes numériques (moteurs de recherche compris), lesquelles doivent les supprimer ou les bloquer sans tarder. En outre, chacune d’elle s’apprête à fournir à la Commission européenne leur premier rapport d’« évaluation des risques », notamment « tout risque systémique » au sein de l’UE (article 34) – puis après un rapport « au moins une fois par an ».

Liberté d’expression, victime collatérale ?
Le problème est que le DSA donne une « définition large » (son considérant 12) de la notion de « contenus illicites ». Chaque géant du Net est tenu ainsi de lutter contre « la diffusion de contenus illicites en ligne et contre les risques pour la société que la diffusion d’informations trompeuses ou d’autres contenus peuvent produire ». L’extension du domaine de la lutte se le dispute au manque de délimitation claire du champ d’intervention de la loi, au risque de porter atteinte à la liberté d’expression des Européens (5). « Nous utilisons nos structures uniques pour lutter contre la montée de la haine, de la violence et du contenu illégal en ligne. Il n’y a pas de solution miracle, il n’y a pas un seul outil pour s’attaquer à tous les problèmes. Aussi, parce que la liberté d’expression doit, est et sera protégée en ligne et hors ligne », a tenu tout de même à rassurer Véra Jourová. D’autant que cette bataille contre ces « contenus illicites », qui ne sont pas forcément générés par des criminels et des terroristes (loin s’en faut) ne relève pas, la plupart du temps, de la décision d’un juge mais d’une autorégulation privée sans qu’il y ait de véritable garde-fou judiciaire.
« Le DSA travaille main dans la main avec notre code anti désinformation (6) qui est un outil plus agile qui nous permet de réagir rapidement aux risques et aux crises en coopération avec la société civile et les plateformes, a précisé Véra Jourová. Nous utilisons une structure unique pour prendre rapidement les mesures nécessaires et améliorer les situations. […] J’ai ainsi demandé à l’Observatoire européen indépendant des médias numériques [l’Edmo, financé par Bruxelles, ndlr] de faciliter le travail au niveau opérationnel avec la communauté et les plateformes d’experts ». Cet organisme de la société civile, l’European Digital Media Observatory (Edmo), a été créé en juin 2020 par l’Institut universitaire européen de Florence (Italie), le Datalab de l’université d’Aarhus à Athènes (Grèce), et Pagella Politica, un site italien dédié au fact-checking des déclarations politiques (7). Le 17 octobre, le jour-même du bombardement de l’hôpital Al-Ahli Arab au sujet duquel chaque partie du conflit israélo-palestinien se rejette la faute, l’Edmo a publié une « analyse préliminaire de la désinformation liée au conflit entre Israël et le Hamas », dont la Commission européenne a aussitôt pris connaissance. Il en ressort que « l’attaque surprise du Hamas contre des villes israéliennes à la frontière avec Gaza le matin du samedi 7 octobre 2023, ainsi que la réaction militaire suivante d’Israël, ont provoqué une vague considérable de désinformation sur toutes les grandes plateformes de médias sociaux » (8).
Le commissaire européen Thierry Breton (photo ci-dessous) a immédiatement réagi en faisant savoir le 18 octobre qu’il adressait quatre lettres aux dirigeants respectifs de X – Elon Musk (9) –, Meta (Facebook, Instagram), TikTok et YouTube (Google) pour les rappeler à l’ordre et leur rappeler que ces très grandes plateformes doivent respecter leurs obligations « DSA » depuis le 25 août. « Nous ne laisserons pas la terreur & la #désinformation nous diviser ou miner notre démocratie », a tweeté Thierry Breton (10) après son intervention à ce sujet au Parlement européen. Et le 19 octobre, la Commission européenne a ouvert trois enquêtes (demandes formelles d’informations) à l’encontre de X, Meta et TikTok, tout en demandant aux Etats membres « d’accélérer la mise en place de la gouvernance prévue par le DSA ». Et ce, sans attendre « le 17 février 2024 au plus tard » pour désigner leur « coordinateur pour les services numériques » (Digital Services Coordinator), une autorité indépendante chargée de contrôler le respect du règlement par les services en ligne établis sur leur territoire (11). A savoir pour la France : l’Arcom (12).
Mais des voix de la société civile, plus soucieuses de la liberté d’expression et de droits fondamentaux, se sont élevées contre la pression exercée par la Commission européenne. « A l’attention du commissaire européen chargé du marché intérieur Thierry Breton, nous, les organisations soussignées [une trentaine d’ONG, ndlr], vous écrivons en réponse à quatre lettres que vous avez récemment adressées à Meta, X, TikTok, et plus récemment, YouTube […] dans le contexte des conflits […] dans la bande de Gaza et en Israël », a par exemple écrit Accessnow dans une lettre ouverte datée du 18 octobre (13).

Thierry Breton en fait trop, selon 30 ONG
Et cette association internationale basée à New-York de mettre en garde Thierry Breton : « Nous sommes préoccupés par l’interprétation de la loi présentée dans ces lettres. Premièrement, les lettres établissent une fausse équivalence entre le traitement du contenu illicites du DSA et la “désinformation” […] pouvant présenter un risque important pour les droits de la personne et le discours public. […] Deuxièmement, le DSA ne prévoit pas de délais pour les suppressions de contenu […]. Troisièmement, le DSA n’impose pas aux fournisseurs de services l’obligation d’appliquer [leurs] propres politiques de façon uniforme et diligente ». La démocratie est prise en étaux entre l’ATOA et le DSA. @

Charles de Laubier

Etat de la « Décennie numérique » : le premier rapport illustre l’échec européen face aux GAFAM

La Commission européenne a publié le 27 septembre son premier rapport sur l’état d’avancement de « la décennie numérique ». Le constat est sévère : « lacunes », « retard », « insuffisance », « écart d’investissement », … Les champions européens du digital se font rares, les licornes aussi.

Lors de son tout premier discours annuel sur l’état de l’Union européenne (exercice renouvelé chaque année), le 16 septembre 2020 devant les eurodéputés, la présidente de la Commission européenne, Ursula von der Leyen, avait déclaré qu’il était grand temps de réagir face à la domination des GAFAM et de faire des années 2020 « la décennie numérique » de l’Europe qui doit « montrer la voie à suivre dans le domaine du numérique, sinon elle sera contrainte de s’aligner sur d’autres acteurs qui fixeront ces normes pour nous ». Trois ans après, force est de constater que les acteurs américains dominent encore et toujours Internet.

Champions européens du numérique ?
Dans son premier rapport sur l’état d’avancement de « la décennie numérique » 2020-2030, présenté le 27 septembre par les commissaires européens Véra Jourová (photo de gauche), vice-présidente chargée des valeurs et de la transparence, et Thierry Breton (photo de droite), commissaire au marché intérieur, la Commission européenne n’y trouve pas son compte. Le spectre des GAFAM plane sur l’Europe numérique, même s’ils ne sont pas nommés dans ce rapport. Aucun européen n’apparaît d’ailleurs parmi les six très grands acteurs du Net (les « gatekeepers ») désignés le 6 septembre dernier par la Commission européenne (1). Les américains Alphabet (Google Search/Maps/Play/ Shopping /YouTube/Android/Chrome), Amazon (Marketplace), Apple (iOS/App Store/Safari), Meta (Instagram/Facebook/ WhatsApp/Messenger) et Microsoft (Windows/LinkedIn), ainsi que le chinois ByteDance (TikTok), devront à partir du 6 mars 2024 se conformer tous aux obligations du Digital Market Act (DMA).

Auparavant, le 25 avril dernier, la Commission européenne avait publié la liste des très grandes plateformes grand public (2) tenues de se conformer, cette fois, au Digital Services Act (DSA) : sur les dix-neuf acteurs du Net ainsi désignés, seulement deux d’entre eux émanent de l’Union européenne, à savoir le néerlandais Booking, et l’allemand Zalando. Tous les autres sont soit américains : Google retenu avec cinq plateformes (Google Play, Google Search, YouTube, Google Maps et Google Shopping), Meta avec deux (Facebook et Instagram), Microsoft avec deux (Bing et LinkedIn). Amazon avec Amazon Store, Apple avec App Store, ainsi que Pinterest, Snap avec Snapchat, ByteDance avec TikTok, Twitter (devenu X) et Wikipedia. Le chinois Alibaba avec AliExpress complète ce « Big 19 » (3).
Autant dire que l’Union européenne reste colonisée, surtout par les géants américains du numérique et dans une moindre mesure par des géants chinois. Ce premier rapport du « Digital Decade » (4) ne dit mot sur la quasi-absence de champions européens du digital au sein des Vingt-sept, du moins explicitement. « Il est essentiel de progresser (…) pour favoriser la montée en puissance des acteurs numériques mondiaux européens, qui concevront les modèles économiques de demain et façonneront les technologies et applications numériques qui intègrent les valeurs européennes et contribuent aux intérêts de l’UE », est-il toujours fixé comme ambition à l’horizon 2030. Entre mars 2021 – date de la publication de la communication de la Commission européenne intitulée « Une boussole numérique pour 2030 : l’Europe balise la décennie numérique » (5) – et septembre 2023, les géants européens du Net tardent à émerger. Il y a deux ans et demi, le constat était déjà sans appel : « La position des acteurs européens est loin d’être en rapport avec le poids économique mondial de l’UE dans des secteurs technologiques clés tels que ceux des processeurs, des plateformes web et des infrastructures du nuage : par exemple, 90 % des données de l’UE sont gérées par des entreprises américaines, moins de 4 % des principales plateformes en ligne sont européennes et les puces électroniques européennes représentent moins de 10 % du marché européen ». Une autre préoccupation majeure pour la Commission européenne réside dans le secteur des fournisseurs de services de données sur le marché du cloud (services infonuagiques), « de plus en plus dominé par des acteurs non européens »malgré un contexte de forte croissance de ce marché.

Consortium EDIC, censé accélérer vers 2030
Aujourd’hui, à défaut de champions européens du numérique, et encore moins de taille mondiale capables de rivaliser avec les GAFAM et les BATX, le rapport « Digital Decade » recommande de faciliter la croissance des entreprises innovantes et d’améliore leur accès au financement, « ce qui entraîne au moins le doublement du nombre de licornes ». Et face à la déferlante de l’intelligence artificielle, popularisée par les IA génératives (ChatGPT en tête de l’américain OpenAI), elle craint aussi que les acteurs européens soient aux abonnés absents. « Les Etats membres devraient prendre des mesures politiques et affecter des ressources pour soutenir l’adoption de solutions fiables et souveraines basées sur l’IA par les entreprises européennes », recommande-t-elle. Les Vingtsept sont aussi invités à s’unir au sein du consortium EDIC (European Digital Infrastructure Consortium), créé dans le cadre du programme « Digital Decade 2030 » pour accélérer dans l’IA, le cloud et le Big Data (6).

Licornes européennes à défaut de Big Tech
La Commission européenne estime en outre que les Vingtsept peuvent mieux faire en matière de licornes, ces entreprises non cotées en Bourse mais valorisées au moins 1 milliard d’euros. « Au début de 2023, seules 249 licornes étaient basées dans l’UE contre 1.444 aux Etats-Unis et 330 en Chine. Des efforts supplémentaires importants sont […] nécessaires pour stimuler l’écosystème à grande échelle. En effet, il n’existe actuellement aucun écosystème de start-up de l’UE dans le Top 10 mondial. Le meilleur écosystème de l’UE – Berlin – s’est classé au 13e rang mondial, suivi d’Amsterdam (14e) et de Paris (18e). La situation est encore plus critique dans les technologies de pointe, y compris l’IA, où le capital-risque de l’UE est encore loin derrière les EtatsUnis ».
Mais le rapport « Digital Decade » ne désespère pas puisqu’il constate que l’Union européenne semble avoir bien progressé en ce qui concerne l’objectif « Licornes » qui table sur 498 licornes basées dans l’UE d’ici 2030. Seulement la moitié du chemin a été fait, et il reste beaucoup à faire pour faire naître un géant mondial du numérique d’origine européenne : « Si cette tendance se poursuit, l’UE devrait atteindre l’objectif de la décennie numérique concernant le nombre de licornes dans deux ans. Malgré cela, des efforts supplémentaires sont nécessaires pour atteindre une position de leader sur la scène mondiale, en facilitant la croissance des entreprises innovantes de l’Union [européenne] et en améliorant leur accès au financement ». Les Etats membres sont donc encouragés à créer de nouvelles opportunités de financement telles que des fonds pour boucler des tours de table d’investisseurs (late-growth funding ou late stage, comme les fonds de fonds) afin de propulser la croissance de la start-up pour la transformer en licorne, et peut-être ensuite en Big Tech européenne. Cela peut passer par des fonds publics pour attirer des capitaux privés dans des start-up et des scale-up de haute technologie (deep tech), notamment par le biais de l’initiative européenne ETCI (European Tech Champions Initiative), qui est un fonds de fonds doté de 3,7 milliards d’euros grâce à l’implication financière de la Banque européenne d’investissement (EIB), l’Espagne, l’Allemagne, l’Italie, la Belgique et la France (7).
L’« Union » fait la force. Encore faut-il qu’émergent de tous ces financements public-privé des « GAFAM » européens capables de concurrencer les géants américains et chinois du numérique. Il reste sept ans et demi pour y parvenir d’ici 2030. La commission « von der Leyen » (2019-2024) a pris du retard (8) ; la prochaine Commission européenne (2024-2029) devra relever le défi. @

Charles de Laubier