Le « Big 19 » en Europe se voit contraint de renforcer sa régulation de l’Internet

Alibaba/AliExpress, Amazon Store, Apple/AppStore, Booking, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Zalando, Bing et Google Search : ce sont les « très grands régulateurs » du Net en Europe.

Le règlement européen sur les services numériques (1) a prévu de les identifier ; la Commission européenne les a listés. Ce sont les « très grandes plateformes en ligne », au nombre de dix-sept, et les « très grands moteurs de recherche en ligne », au nombre de deux. Ce « Big 19 », du moins à ce stade puisque la liste sera actualisée tous les six mois, devra se conformer dans un délai de quatre mois – à savoir d’ici fin août 2023 – à l’ensemble des nouvelles obligations cumulatives découlant du Digital Services Act (DSA).

2 « VLOP » européens : Booking et Zalendo
La première liste de ces « Very large Online Platforms (VLOP) en Europe, a été publiée le 25 avril dernier par la vice-présidente Margrethe Vestager (photo) et le commissaire Thierry Breton (2). Parmi ce « Big 19 », l’américain Google – la filiale du géant Alphabet – compte à lui seul cinq plateformes (Google Play, Google Search, YouTube, Google Maps et Google Shopping), tandis que son compatriote Meta en compte deux (Facebook et Instagram). Autre américain, Microsoft est présent aussi avec deux plateformes (Bing et LinkedIn). Les dix autres de la liste – avec cette fois une seule plateforme chacun – sont les américains Amazon Store, Apple/AppStore, Pinterest, Snapchat, TikTok, Twitter et Wikipedia, le chinois Alibaba avec AliExpress, ainsi que les européens Booking, et Zalando. Ces deux dernières plateformes – le néerlandais Booking, et l’allemand Zalando – sont à ce stade les deux seuls grands acteurs du Net émanant de l’Union européenne.
Les Etats-Unis, eux, sont surreprésentés avec pas moins de seize plateformes sur les dix-neuf. Tous ont en commun de cumuler « au moins 45 millions d’utilisateurs actifs par mois » dans les Vingt-sept, soit 10 % de la population européenne qui est de 446,7 millions au dernier recensement (3). Le « Big 19 » se retrouve ainsi avec le plus d’« obligations cumulatives », soit une vingtaine, par rapport aux autres acteurs du Net moins fréquentés que sont les « services intermédiaires », les « services d’hébergement » et les « plateformes en ligne » (voir page suivante). Les VLOP – dans lesquels nous incluons les deux « VLOSE » (4) que sont, dans le jargon de Bruxelles, les moteurs de recherche Google (Alphabet) et Bing (Microsoft) – sont tenus de :
redonner la main à leurs utilisateurs (consentir aux recommandations et au profilage, lesquels doivent pouvoir signaler des contenus illicites, exclure les données sensibles pour le ciblage publicitaire, être informé sur le caractère publicitaire des messages, avoir un résumer clair des conditions générales d’utilisation, etc.).
protéger les mineurs en ligne (protection de la vie privée, interdiction de faire du profilage publicitaire sur les enfants, fournir une évaluation des risques et des effets négatifs sur la santé mentale, revoir la conception de la plateforme pour limiter les risques, etc.).
modérer plus rapidement les contenus et limiter les fake news (éviter les contenus illicites et les effets négatifs sur la liberté d’expression et d’information, faire respecter plus rapidement les conditions générales d’utilisation, permettre aux utilisateurs de signaler les contenus illicites et y répondre rapidement, identifier les risques et les atténuer, etc.).
rendre des comptes (se soumettre à un audit externe et indépendant d’évaluation des risques et du respect des obligations européennes, permettre aux chercheurs d’accéder aux données publiques, rendre public le registre de toutes les publicités, publier des rapports de transparence sur les décisions de modération des contenus et la gestion des risques, etc.).
Alors que la Commission européenne a désormais le pouvoir de « surveiller les plateformes et les moteurs de recherche » considérés comme « très grands », avec la collaboration d’« autorités nationales » que chaque Etat membre devra désigner d’ici le 17 février 2024, le « Big 19 », lui, joue un rôle d’auto-régulation pour la part d’Internet les concernant. Cette régulation en cascade – publique-privée – instaurée par le DSA va accroître la pression réglementaire sur le Web en général et l’Internet mobile en particulier.

Effets et biais : algorithmes sous surveillance
Concernant la « gestion de risques » par les VLOP, la Commission européenne a annoncé le 17 avril le lancement du Centre européen pour la transparence des algorithmes (CETA) (5), afin de veiller à ce que les systèmes algorithmiques soient conformes aux obligations du règlement sur les services numériques (6). Objectifs : atténuer leurs effets et éviter les biais. @

Charles de Laubier

Ce que les GAFAM pensent de l’« accord politique provisoire » européen sur le Digital Services Act

Les grandes plateformes « systémiques » concernées par la future régulation du Digital Services Act (DSA) font bonne figure face à l’arsenal législatif qui entrera en vigueur d’ici fin 2023. Google, Amazon, Facebook, Apple ou encore Microsoft devront être plus précautionneux en Europe. Qu’en disent-ils ?

« Nous apprécions les efforts déployés pour créer un marché unique numérique européen plus efficace, clarifier les responsabilités de chacun et protéger les droits en ligne », a déclaré Victoria de Posson (photo de gauche), directrice des affaires publiques de la CCIA Europe, la représentation à Bruxelles de l’association américaine du même sigle, dont sont notamment membres les géants du Net, mais pas Microsoft (1). Elle « reconnaît le travail acharné des décideurs pour parvenir à cet accord historique », tout en mettant un bémol : « Cependant, un certain nombre de détails importants restent à éclaircir » (2). C’est le cas des obligations de retrait de contenus notifiés comme illicites.

« Accord politique provisoire » : et après ?
Car ce qui a été signé le 23 avril vers 2 heures du matin (3), après de longues négociations entamées la veille, n’est encore qu’un « accord politique provisoire » obtenu à l’arrachée entre les négociateurs de la commission « marché intérieur et protection des consommateurs » (Imco), tête de file dans le processus législatif de ce projet de règlement européen sur les services numériques, et le Conseil de l’Union européenne – dont Cédric O représentait la France qui préside l’Union européenne jusqu’au 30 juin prochain. Le DSA en cours de finalisation prévoit de réguler les grandes plateformes numériques dites « systémiques » pour : les obliger à lutter contre le piratage et les contenus illicites, les contraindre à donner accès à leurs algorithmes, les amener à renforcement de la protection des mineurs notamment vis-à-vis des contenus pornographiques ou vis-à-vis de la publicité ciblée fondée sur des données sensibles (orientation sexuelle, religion, origine ethnique, etc.), les forcer à mieux informer les utilisateurs sur la manière dont les contenus leur sont recommandés.
Mais le diable étant dans « les détails importants », la CCIA Europe attend beaucoup de la dernière ligne droite de ce texte unique au monde. Selon les informations de Edition Multimédi@, ce futur règlement DSA devra être approuvé par le Coreper, à savoir le comité des représentants permanents au Conseil de l’UE, et par l’Imco. « Nous espérons que le vote final en plénière aura lieu en juillet, mais cela doit encore être confirmé. Le vote en plénière sera suivi d’un accord formel au Conseil de l’UE », indique une porte-parole du Parlement européen. Pour l’heure, le texte passe par les fourches caudines des juristes-linguistes pour être finalisé techniquement et vérifié jusqu’à la virgule près. Une fois la procédure terminée, probablement l’été prochain, il entrera en vigueur vingt jours après sa publication au Journal officiel de l’UE – sous la présidence cette fois de la République tchèque – et les règles commenceront à s’appliquer quinze mois après, c’est-à-dire au second semestre 2023. Car un règlement européen s’applique dans sa totalité et directement, contrairement à une directive européenne qui donne des objectifs à atteindre par les Etats membres, en leur accordant un délai de plusieurs mois pour les transposer dans la législation nationale.
Les GAFAM auront le temps (quinze mois) de se préparer pour ne pas tomber sous le coup de cette nouvelle loi européenne. Par ailleurs, il ne faudra pas s’attendre à ce que le voyage prévu du 23 au 27 mai prochain dans la Silicon Valley par une délégation de la commission Imco – pour notamment visiter plusieurs sièges sociaux de Big Tech telles que Meta (ex-Facebook), Google ou Apple – change les données du problème. Cette délégation d’eurodéputés y rencontrera également d’autres entreprises du numérique, des start-up, des universitaires américains ainsi que des représentants du gouvernement. « La mission aux Etats-Unis n’affectera pas l’accord politique déjà conclu avec les autres institutions. Elle sera une occasion d’explorer plus en profondeur les questions actuelles liées aux dossiers en cours sur le marché unique numérique au sein de la commission du marché intérieur (Imco) », nous précise la porte-parole du Parlement européen.

Attention aux libertés fondamentales
Cette escapade au pays des GAFAM sera notamment une opportunité pour les députés d’examiner la législation américaine sur le commerce électronique et les plateformes, en faisant le point sur les négociations récemment conclues en rapport avec les dossiers DSA et DMA (Digital Markets Act, pendant concurrentiel du DSA), ainsi que sur d’autres dossiers en cours comme celui sur l’intelligence artificielle. Également contactée, Victoria de Posson n’attend « pas d’impact sur le DSA » de ce voyage. Reste que le DSA, lui, ne sera pas facile à mettre en oeuvre par les GAFAM tant il touche à la liberté des internautes européens. C’est en tout cas ce que pointe DigitalEurope (ex-Eicta), organisation professionnelle des GAFAM entre autres Big Tech (4), et également installée à Bruxelles : « Le cadre du DSA crée un ensemble d’obligations à plusieurs niveaux pour différents types et tailles de services Internet, dont certains seront très complexes à mettre en oeuvre parce qu’ils touchent aux droits fondamentaux comme la liberté d’expression. Nous exhortons tous les intervenants à collaborer de façon pragmatique pour obtenir les meilleurs résultats », prévient sa directrice générale, Cecilia Bonefeld-Dahl (photo de droite).

Retrait de contenus : risque de censure
Bien que le futur règlement sur les services numériques aidera, d’après DigitalEurope, à rendre l’Internet plus sûr et plus transparent, tout en réduisant la propagation de contenus illégaux et de produits dangereux en ligne, « la modération du contenu sera toujours difficile, compte tenu des intérêts concurrents en cause » (5). D’autant que la réglementation d’Internet est un équilibre entre la protection des droits fondamentaux comme la liberté d’expression, d’une part, et la prévention des activités illégales et nuisibles en ligne, d’autre part.
Il y a un an, dans un « position paper » sur le DSA, DigitalEurope se félicitait déjà que « la proposition préserve les principes fondamentaux de la directive sur le commerce électronique, qui ont permis à l’Europe de se développer et de bénéficier d’une économie Internet dynamique ». Et de se dire satisfaite : « Le maintien de principes tels que la responsabilité limitée, l’absence de surveillance générale et le pays d’origine est essentiel à la poursuite de l’innovation et de la croissance de ces services numériques en Europe et sera crucial pour une reprise économique rapide ». Par exemple, le lobby des GAFAM a souligné que le DSA reconnaît que le contenu préjudiciable (mais légal) exige un ensemble de dispositions différent du contenu illégal. Le contenu nuisible et contextuel, difficile à définir, peut être subjectif sur le plan culturel et est souvent juridiquement ambigu. Est apprécié également le fait que le texte impose aux plateformes numériques des « exigences de diligence raisonnable » (signaleurs fiables, traçabilité des négociants et mécanismes de transparence), « de façon proportionnelle et pratique ». De plus, DigitalEurope est favorable pour fournir aux intervenants une transparence significative au sujet des pratiques de modération du contenu et d’application de la loi. « Toutefois, ajoute DigitalEurope, il sera important que les mesures de transparence du DSA garantissent que la vie privée des utilisateurs est protégée, que les mauvais acteurs ne peuvent pas manipuler le système et que les renseignements commerciaux sensibles ne sont pas divulgués » (6).
Les intermédiaires de l’écosystème numérique, à savoir les plateformes en ligne que sont les réseaux sociaux et les places de marché, devront prendre des mesures pour protéger leurs utilisateurs contre les contenus, les biens et les services illicites. Une procédure de notification et d’action plus claire permettra aux utilisateurs de signaler du contenu illicite en ligne et obligera les plateformes en ligne à réagir rapidement (les contenus cyberviolents comme le « revenge porn » seront retirés immédiatement). Et ces notifications devront être traitées de manière non-arbitraire et non-discriminatoire, tout en respectant les droits fondamentaux, notamment la liberté d’expression et la protection des données. Quant aux places de marché en ligne, elles seront plus responsables : les consommateurs pourront acheter des produits et services en ligne sûrs et non-illicites, « en renforçant les contrôles permettant de prouver que les informations fournies par les vendeurs sont fiables (principe de “connaissance du client”, (…) notamment via des contrôles aléatoires ».
En cas d’infraction à toutes ces obligations et bien d’autres, des pénalités pécuniaires sont prévues à l’encontre des plateformes en ligne et des moteurs de recherche qui pourront se voir infliger des amendes allant jusqu’à 6% de leur chiffre d’affaires mondial. Concernant les très grandes plateformes (disposant de plus de 45 millions d’utilisateurs), la Commission européenne aura le pouvoir exclusif d’exiger le respect des règles. Algorithmes de recommandation, publicité en ligne, protection des mineurs, choix et désabonnement facilités, compensation des utilisateurs en cas d’infraction, … Une multitude de mesures en faveur du consommateur seront mises en place pour un Internet plus sûr.

Bruxelles dompte la Silicon Valley
Par exemple, les plateformes numériques qui utilisent des « systèmes de recommandation » – basés sur des algorithmes qui déterminent ce que les internautes voient à l’écran – devront fournir au moins une option qui ne soit pas fondée sur le profilage des utilisateurs. « Les très grandes plateformes devront évaluer et atténuer les risques systémiques et se soumettre à des audits indépendants chaque année », est-il en outre prévu (7). Malgré la distance de 8.894 km qui les séparent, Bruxelles et la Silicon Valley n’ont jamais été aussi proches. @

Charles de Laubier

Les recommandations algorithmiques en question

En fait. Le 15 décembre, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) s’est réuni en séance plénière et en visio. Parmi les points à l’ordre du jour : la présentation du rapport « Frachy & Benabou » sur les algorithmes de recommandation des œuvres audiovisuelles et musicales.

En clair. Un an après avoir été missionnées par le CSPLA sur « les dispositifs de recommandation des œuvres auprès des utilisateurs des plateformes en ligne », les professeures Valérie- Laure Benabou et Joëlle Farchy ont présenté leur rapport de 80 pages (1). Elles étaient assistées par Steven Tallec, rapporteur de la mission et par ailleurs chercheur associé au sein de la chaire « PcEn » (Pluralisme culturel & Ethique du numérique) que dirige sa fondatrice Joëlle Farchy à l’université Paris 1 Panthéon-Sorbonne (2). Cette chaire créée en 2020 est notamment financée par Netflix et Amazon Prime Video. Popularisée par l’iTunes Store à partir de 2003 et surtout par Netflix depuis le lancement de sa plateforme de SVOD en 2007, la recommandation algorithmique est devenue la boîte noire des services de streaming. Les deux auteures tentent de tordre le cou à l’idée répandue d’un enfermement de l’utilisateur induit par les algorithmes de recommandation au détriment de sa « découvrabilité » et donc de la diversité culturelle : « Des travaux menés sur les moteurs de recherche ou les réseaux sociaux font état de biais avérés, sans pour autant accréditer la thèse d’un enfermement généralisé dans une bulle de filtre ». Pourtant, lorsque TikTok ne propose que des vidéos tristes et dépressives à un utilisateur concernés, cela pose problème. Lorsque YouTube, dont l’algorithme de recommandation « Watch Next » décrié, propose à l’internaute la lecture automatique de vidéos « sensationnelles, clivantes ou complotistes » après celle du même genre qu’il vient de visionner, cela soulève la question de l’enfermement et de l’amplification. Mais des chercheurs du CNRS, cités par les deux auteures, relativisent : « Si la recommandation implicite proposée n’a clairement pas un rôle neutre, il reste difficile d’apporter une réponse univoque et définitive à la question de l’enfermement sur YouTube » (3). Quant à la rémunération des auteurs et artistes, elle peut être directement impactée par des algorithmes de recommandation – surtout dans la musique où le « market centric » domine au détriment du « user centric » (4), et où les « Fake Streams » (achats de streams) se le disputent aux « Fake Artists » (faux artistes) ! La dernière version du projet de règlement européen Digital Services Act (DSA), discutée le 25 novembre dernier (5), va dans le sens de plus de transparence de la recommandation. @

A 75 ans, l’Unesco – dirigée par Audrey Azoulay – prend des airs de régulateur mondial de l’Internet

C’est en novembre 1946 qu’est formellement créée l’organisation des Nations Unies pour l’éducation, la science et la culture. Soixante-quinze ans après, son onzième directeur général et deuxième femme – Audrey Azoulay – a été réélue pour un second mandate de quatre ans. Parmi ses priorités : le numérique.

Comme en octobre 2017, la Française Audrey Azoulay (photo) a été élue en novembre 2021 – cette fois pour un second mandat de quatre ans – à la direction générale de l’Unesco, lors de la 41e conférence générale de celle-ci, avec à nouveau le soutien de « la République française » qui a proposé une seconde fois sa candidature. Entre le précédent locataire de l’Elysée, François Hollande, et l’actuel, Emmanuel Macron – lequel, faut-il le rappeler, y a été le secrétaire général adjoint du premier puis « son » ministre de l’Economie, de l’Industrie et du Numérique (avant de devenir son rival) –, il y a un point commun : celui d’avoir été à l’origine de la nomination d’Audrey Azoulay à la tête de cette organisation onusienne basée à Paris. Autant son accession à ce poste international n’avait pas été évidente il y a quatre ans, autant sa réélection est passée comme une lettre à la poste : sur 193 Etats membres de l’Unesco, 169 ont voté le 9 novembre, dont 155 voix se sont portées sur l’ancienne ministre de la Culture et de la Communication (après avoir été conseillère dans ces domaines auprès de François Hollande à l’Elysée). Il faut dire que l’énarque était seule en lice pour ce mandat 2021-2025, alors que pour remporter son premier mandat (après une candidature déposée in extremis) elle avait dû battre le Qatari Hamad bin Abdulaziz al-Kawari.

Encadrer l’intelligence artificielle, les algorithmes et les données
Bientôt quinquagénaire (en août 2022), la voici à pied d’œuvre pour quatre nouvelles années à l’Unesco, laquelle organisation a fêté ses 75 ans le 12 novembre dernier . Le premier jour de cette 41e conférence générale de l’Unesco, qui s’est tenue du 9 au 24 novembre, Audrey Azoulay a prononcé – en français, en anglais et en espagnol – son discours de politique générale. Plus que jamais, en plus des défis de l’éducation, de l’environnement et de la paix, le défi du numérique est désormais au cœur de son action. « Le quatrième défi que je souhaite relever est celui de construire un univers numérique qui soit au service de nos valeurs sans les assujettir A l’ère des métavers, des mégadonnées et des robots d’Asimov [écrivain américano-russe et biochimiste, auteur de science-fiction et de vulgarisation scientifique, ndlr], nous avons besoin d’orientations claires », a déclaré la directrice générale fraîchement reconduite à la tête de l’Unesco. Pour Audrey Azoulay, l’organisation onusienne doit avoir son mot à dire sur le monde du numérique, comme elle l’a eu sur le génome humain par exemple, quand bien même 2,9 milliards de personnes sur près de 8 milliards d’être humains ne sont toujours pas connectés, selon l’Union internationale des télécommunication (UIT), elle aussi organisation des Nations Unies (2).

Recommandations et directives opérationnelles
Sur fond de fracture numérique, l’Unesco veut sans tarder dompter l’intelligence artificielle (IA) : « Il appartiendra à cette conférence générale d’incarner cette voix en se prononçant sur l’adoption du premier instrument normatif mondial sur l’éthique de l’intelligence artificielle. Il faudra ensuite lui donner vie et forme, en aidant les Etats membres à le mettre en oeuvre, en renforçant les capacités et en suivant de près les progrès accomplis ». Une quinzaine de jours après cette déclaration, l’Unesco présentait le tout premier accord mondial sur l’éthique de l’IA – une « recommandation sur l’éthique de l’intelligence artificielle » d’une trentaine de pages (3) adoptée formellement le 22 novembre lors de la 41e conférence générale de l’Unesco. L’ont ratifiée 193 pays, y compris la Russie, la Chine ou l’Iran, mais pas les Etats-Unis ni Israël qui ne sont plus membres de l’Unesco. « Les technologies de l’IA peuvent rendre de grands services à l’humanité et tous les pays peuvent en bénéficier, mais elles soulèvent également des préoccupations éthiques de fond, à l’égard, par exemple, des biais qu’elles sont susceptibles de comporter et d’accentuer, lesquels pourraient entraîner discrimination, inégalité, fractures numériques et exclusion, menacer la diversité culturelle, sociale et biologique et entraîner des clivages sociaux ou économiques », met en garde l’Unesco. Et d’insister sur « la nécessité d’assurer la transparence et l’intelligibilité du fonctionnement des algorithmes et des données à partir desquelles ils ont été entraînés ».
Cette recommandation sans précédent, et à portée mondiale, part du constat qu’il n’y a pas de définition unique de l’IA, « celle-ci étant appelée à évoluer en fonction des progrès technologiques » mais qu’il est bien question de « systèmes capables de traiter les données et l’information par un processus s’apparentant à un comportement intelligent, et comportant généralement des fonctions de raisonnement, d’apprentissage, de perception, d’anticipation, de planification ou de contrôle ». L’Unesco appelle les Etats à encadrer l’IA quant à ses « implications éthiques » dans plusieurs domaines : éducation, science, culture, communication et information. Par exemple, concernant « l’identité et la diversité culturelles », l’Unesco estime avec inquiétude que « les technologies de l’IA peuvent enrichir les industries culturelles et créatives, mais aussi aboutir à une concentration accrue de l’offre, des données, des marchés et des revenus de la culture entre les mains d’un petit nombre d’acteurs, avec des répercussions potentiellement négatives sur la diversité et le pluralisme des langues, des médias, des expressions culturelles, la participation et l’égalité ». Autre préoccupation : l’IA jouant un rôle croissant dans le traitement, la structuration et la transmission de l’information, « les questions du journalisme automatisé et de l’utilisation d’algorithmes pour diffuser des actualités et pour modérer et organiser des contenus sur les réseaux sociaux et les moteurs de recherche » soulèvent de multiples sujets : accès à l’information, désinformation, mésinformation, discours de haine, discrimination, liberté d’expression, protection de la vie privée, éducation aux médias et à l’information, etc… « Les Etats membres devraient veiller à ce qu’il soit toujours possible d’attribuer la responsabilité éthique et juridique de tout stade du cycle de vie des systèmes d’IA à des personnes physiques ou des entités juridiques existantes », recommande notamment l’Unesco, laquelle propose avec l’ONU d’apporter son « soutien » aux pays du monde pour qu’ils puissent « adopter une approche d’”espace commun numérique” des données » et « accroître l’interopérabilité des outils et des ensembles de données ». Cette recommandation « Ethique de l’IA » vient compléter les avancées de l’Unesco dans le domaine du numérique, à travers ses « directives opérationnelles » de mise en oeuvre dans l’environnement numérique de la Convention de 2005, à savoir la Convention de l’Unesco sur la protection et la promotion de la diversité des expressions culturelles.
Celle-ci, historique, fut signée le 20 octobre 2005 à Paris. Les récentes directives opérationnelles sur le numérique, qui sont comparables à des décrets pour les lois (c’est-à-dire contraignantes mais sans sanctions), ont commencé à être élaborées il y a huit ans (4). Il s’agit d’adapter ce texte international qu’est la Convention de l’Unesco – ratifiée par 150 pays (5) et par l’Union européenne – pour que l’éducation, la science et la culture soient protégées et promues sur Internet. Et ce, en coopération avec les GAFAM (américains), les BATX (chinois), les YVOT (russes) et toutes les plateformes numériques du cyberespace. Les premières « directives opérationnelles destinées à promouvoir la diversité des expressions culturelles dans l’environnement numérique » (6) ont été adoptées en juin 2017 et une « feuille de route » (7) pour leur mise en œuvre a été établie en juin 2019 par la prédécesseure d’Audrey Azoulay, la Bulgare Irina Bokova.

Convention de 2005 : 15e comité début 2022
La quinzième session du « comité intergouvernemental pour la protection et la promotion de la diversité des expressions culturelles », qui se tiendra du 8 au 11 février 2022, sera décisive sur les avancées « numériques » de la Convention de 2005 et sur le bilan de son Fonds international pour la diversité culturelle (FIDC) ou IFCD (8). Problème : les Etats-Unis ne sont plus membres de l’Unesco depuis 2019 et encore moins signataires de la Convention de 2005. Outre le reproche de « préjugés anti-israéliens » qu’ils font à l’Unesco (qu’Israël a quitté en même temps), les Américains exigent depuis des années d’inclure les services audiovisuels et culturels dans les accords de libreéchange (9). Audrey Azoulay réussira-t-elle l’exploit de faire revenir les Etats-Unis de Joe Biden, et Israël, dans l’organisation culturelle de l’ONU ? Ce serait la plus grande réussite de son second mandat qui s’achèvera en novembre 2025. @

Charles de Laubier

Création d’une œuvre ou d’une invention par une IA : la justice commence à faire bouger les lignes

C’est un peu le paradoxe de l’oeuf et de la poule : qui est apparu le premier ? Dans le cas d’une création ou d’une invention par une intelligence artificielle, qui est l’auteur : la personne humaine ou la technologie créatrice ? Cette question existentielle commence à trouver des réponses, en justice.

Par Boriana Guimberteau (photo), avocatE associéE, cabinet Stephenson Harwood

L’intelligence artificielle (IA) fait l’objet de développements exponentiels dans des domaines aussi variés que les voitures autonomes (et les données générées par celle-ci), la rédaction d’articles ou la création de musiques. Au-delà de la compréhension de son fonctionnement, l’intelligence artificielle soulève la question de la paternité et de la titularité des œuvres créées ou des inventions générées par elle.

Vers un « Artificial Intelligence Act »
Avant d’explorer plus en amont cette question, il convient de fournir une définition de l’intelligence artificielle. Selon l’Organisation mondiale de la propriété intellectuelle (OMPI), l’intelligence artificielle désigne une branche de l’informatique qui a pour objet de concevoir des machines et des systèmes à même d’accomplir des tâches faisant appel à l’intelligence humaine, avec un intervention humaine limitée ou nulle. Cette notion équivaut généralement à l’intelligence artificielle spécialisée, c’est-à-dire aux techniques et applications programmées pour exécuter des tâches individuelles. L’apprentissage automatique (machine learning) et l’apprentissage profond (deep learning) font tous deux parties des applications de l’intelligence artificielle (1).
L’IA peut ainsi produire différents résultats dont certains pourraient être qualifiés de créations ou d’inventions, les premières protégeables par le droit d’auteur et les secondes par le droit des brevets d’invention. La question est alors de savoir qui sera titulaire des créations ou des inventions générées par l’IA, et si l’IA pourrait être qualifiée d’auteur ou d’inventeur par le droit positif français.
En matière de droit d’auteur tout d’abord, de nombreux auteurs se sont penchés sur la question de savoir si l’intelligence artificielle pouvait bénéficier de la qualité d’auteur. La majorité d’entre eux reconnaissent la conception personnaliste et humaniste du droit français qui considère comme auteur la personne qui crée une œuvre. Par définition, un fait créatif est un fait matériellement imputable à une personne humaine. Cette conception s’impose également par le seul critère d’admission à la protection des œuvres de l’esprit qu’est l’originalité, laquelle se caractérise par l’empreinte de la personnalité de l’auteur (2). Eu égard à la personne de l’auteur, le professeur Christophe Caron a pu affirmer que « le duo formé par la notion de création et de personne physique est indissociable » et donc que « le créateur est forcément une personne physique ». Si la définition de l’auteur est absente du code de propriété intellectuelle (CPI), on y retrouve néanmoins diverses références : « Est dite de collaboration l’œuvre à la création de laquelle ont concouru plusieurs personnes physiques » (3) ; « Ont la qualité d’auteur d’une œuvre audiovisuelle la ou les personnes physiques qui réalisent la création intellectuelle de cette œuvre » (4). Dans le cadre de l’œuvre radiophonique, « ont la qualité d’auteur d’une œuvre radiophonique la ou les personnes physiques qui assurent la création intellectuelle de cette œuvre » (5). La seule exception à la naissance ab initio du droit d’auteur sur la tête d’une personne physique : l’œuvre collective (6).
De plus, la nécessité d’une intervention consciente de l’homme implique qu’un animal ou une machine ne peuvent être considérés comme auteurs. L’intelligence artificielle ne peut alors être qu’un outil de création supplémentaire.

L’approche « création intellectuelle »
Dans le cadre du projet de réglementation européenne sur les droits de propriété intellectuelle pour le développement des technologies liées à l’intelligence artificielle – l’« Artificial Intelligence Act » actuellement en cours d’examen en commissions au sein du Parlement européen (7) –, une résolution du 20 octobre 2020 du Parlement européen précisait sa teneur en affirmant ceci : « Les œuvres produites de manière autonome par des agents artificiels et des robots pourraient ne pas bénéficier de la protection par le droit d’auteur, afin de respecter le principe d’originalité, qui est lié à une personne physique, et étant donné que la notion de “création intellectuelle” porte sur la personnalité de l’auteur » (8). Cette approche se retrouve également dans les pays du système juridique dit Common Law. En 2012, la cour fédérale d’Australie affirmait la nécessité d’une intervention humaine en jugeant qu’une base de données générée automatiquement par un système d’intelligence artificielle n’est pas protégeable par le copyright dans la mesure où l’effort d’extraction des données n’était pas le fait d’une personne ou d’un groupe de personnes (9). Aux Etats-Unis, une position identique ressortait de l’affaire médiatisée du macaque Naruto ayant pris un selfie. La cour américaine n’a pas manqué de rappeler qu’une photographie prise par un animal n’est pas susceptible de protection eu égard à l’absence d’intervention humaine (10).

L’IA créatrice demande protection
L’AIPPI – association Internationale pour la protection de la propriété intellectuelle (11) – s’est également penchée sur cette question et a adopté, après d’âpres discussions, une résolution (12) lors de son congrès de septembre 2019. Selon cette résolution, les œuvres générées par une IA pourraient bénéficier de la protection par le droit d’auteur à condition qu’une intervention humaine ait lieu lors de leur création. Néanmoins, pour la première fois, le tribunal de Shenzhen en Chine a jugé qu’un article financier écrit par Dreamwriter, un algorithme conçu par Tencent, avait été reproduit sans autorisation reconnaissant ainsi que la création d’une intelligence artificielle peut bénéficier de la protection du droit d’auteur (13). Si diverses réflexions sont en cours pour faire émerger de nouveaux concepts juridiques appréhendant l’IA dans le cadre de la propriété intellectuelle, nulles n’ont connu de réels aboutissements législatifs jusqu’à présent. La protection des réalisations de l’IA s’opère ainsi notamment par la voie contractuelle. A titre illustratif, l’entreprise Aiva Technologies, connue pour son IA capable de composer de la musique, offre le choix entre une utilisation gratuite pour une exploitation privée des résultats créatifs et une utilisation payante pour une exploitation commerciale de ceux-ci.
Parallèlement, la problématique de l’IA-inventeur se pose également dans le cadre du droit des brevets. En effet, en France, le CPI prévoit que le droit au titre de propriété industrielle « appartient à l’inventeur ou à son ayant cause. Si plusieurs personnes ont réalisé l’invention indépendamment l’une de l’autre, le droit au titre de propriété industrielle appartient à celle qui justifie de la date de dépôt la plus ancienne » (14).
Ainsi, l’on retrouve en matière de brevets la même dimension humaniste dont est empreint le droit d’auteur. La question a néanmoins été posée aux offices et aux juridictions de savoir si une IA pouvait être l’inventeur d’un brevet. Les demandes déposées par « Dabus » ont ainsi pu illustrer cette problématique et les solutions retenues actuellement. Dabus est un réseau de neurones artificiel développé par le chercheur américain Stephen Thaler qui (l’IA neuronale) a notamment conçu, de manière autonome, un récipient pour boissons basé sur la géométrie fractale et un dispositif embarquant une lumière vacillante pour attirer l’attention pendant des opérations de recherche et de sauvetage. Depuis, l’équipe de « The Artificial Inventor Project » a amorcé une quête visant à faire reconnaître Dabus comme inventeur d’un brevet dans divers pays.
En décembre 2019, l’Office européen des brevets (EPO) a refusé deux demandes d’enregistrement de brevets européens (15) soumises au nom de Dabus dans la mesure où seule une personne physique peut être inventeur d’un brevet européen (16).
Le bureau américain des brevets et des marques de commerce (USPTO) a, lui, rejeté le 22 avril 2020 la demande de brevet indiquant Dabus comme inventeur pour les mêmes motifs (17). Le 2 septembre 2021, le tribunal du district Est de Virginie statuait lui aussi « qu’un système d’intelligence artificielle (IA) ne peut pas déposer de brevet » (18).
De l’autre côté de l’Atlantique, la cour d’appel de Londres suivit l’office des brevets britanniques (IPO) qui avait rejeté une même demande, le 21 septembre 2021. La juge Elisabeth Laing affirma ainsi que « seule une personne peut avoir des droits. Pas une machine » (19).
Néanmoins, au mois de juillet 2021, l’office des brevets sud-africain (CIPC) a reconnu Dabus comme inventeur lors d’un dépôt de brevet pour la première fois (20), suivi de près par la Cour fédérale australienne qui jugea que « Dabus pouvait être un inventeur au sens de la loi australienne » (21).

Vers des règles ad hoc ?
En conclusion, la question de l’intelligence artificielle et de la titularité des droits de propriété intellectuelle demeure globalement dominée par le principe de prééminence de l’humain, le droit français ne se démarquant pas tant de ses voisins européens et anglo-saxons. Toutefois, les développements de l’IA sont encore à un stade peu avancé et il faudrait suivre son évolution pour apprécier la nécessité d’une adaptation des règles juridiques en conséquence, notamment celles relatives à la protection des investissements ayant abouti à l’IA. @

* Boriana Guimberteau est avocate experte en
propriété intellectuelle, que cela soit dans les
domaines des marques de commerce, du droit
d’auteur, des dessins et modèles et des brevets. Elle
vient d’intégrer le cabinet Stephenson Harwood en tant
que partner, après dix ans chez FTPA Avocats.