Les recommandations algorithmiques en question

En fait. Le 15 décembre, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) s’est réuni en séance plénière et en visio. Parmi les points à l’ordre du jour : la présentation du rapport « Frachy & Benabou » sur les algorithmes de recommandation des œuvres audiovisuelles et musicales.

En clair. Un an après avoir été missionnées par le CSPLA sur « les dispositifs de recommandation des œuvres auprès des utilisateurs des plateformes en ligne », les professeures Valérie- Laure Benabou et Joëlle Farchy ont présenté leur rapport de 80 pages (1). Elles étaient assistées par Steven Tallec, rapporteur de la mission et par ailleurs chercheur associé au sein de la chaire « PcEn » (Pluralisme culturel & Ethique du numérique) que dirige sa fondatrice Joëlle Farchy à l’université Paris 1 Panthéon-Sorbonne (2). Cette chaire créée en 2020 est notamment financée par Netflix et Amazon Prime Video. Popularisée par l’iTunes Store à partir de 2003 et surtout par Netflix depuis le lancement de sa plateforme de SVOD en 2007, la recommandation algorithmique est devenue la boîte noire des services de streaming. Les deux auteures tentent de tordre le cou à l’idée répandue d’un enfermement de l’utilisateur induit par les algorithmes de recommandation au détriment de sa « découvrabilité » et donc de la diversité culturelle : « Des travaux menés sur les moteurs de recherche ou les réseaux sociaux font état de biais avérés, sans pour autant accréditer la thèse d’un enfermement généralisé dans une bulle de filtre ». Pourtant, lorsque TikTok ne propose que des vidéos tristes et dépressives à un utilisateur concernés, cela pose problème. Lorsque YouTube, dont l’algorithme de recommandation « Watch Next » décrié, propose à l’internaute la lecture automatique de vidéos « sensationnelles, clivantes ou complotistes » après celle du même genre qu’il vient de visionner, cela soulève la question de l’enfermement et de l’amplification. Mais des chercheurs du CNRS, cités par les deux auteures, relativisent : « Si la recommandation implicite proposée n’a clairement pas un rôle neutre, il reste difficile d’apporter une réponse univoque et définitive à la question de l’enfermement sur YouTube » (3). Quant à la rémunération des auteurs et artistes, elle peut être directement impactée par des algorithmes de recommandation – surtout dans la musique où le « market centric » domine au détriment du « user centric » (4), et où les « Fake Streams » (achats de streams) se le disputent aux « Fake Artists » (faux artistes) ! La dernière version du projet de règlement européen Digital Services Act (DSA), discutée le 25 novembre dernier (5), va dans le sens de plus de transparence de la recommandation. @

A 75 ans, l’Unesco – dirigée par Audrey Azoulay – prend des airs de régulateur mondial de l’Internet

C’est en novembre 1946 qu’est formellement créée l’organisation des Nations Unies pour l’éducation, la science et la culture. Soixante-quinze ans après, son onzième directeur général et deuxième femme – Audrey Azoulay – a été réélue pour un second mandate de quatre ans. Parmi ses priorités : le numérique.

Comme en octobre 2017, la Française Audrey Azoulay (photo) a été élue en novembre 2021 – cette fois pour un second mandat de quatre ans – à la direction générale de l’Unesco, lors de la 41e conférence générale de celle-ci, avec à nouveau le soutien de « la République française » qui a proposé une seconde fois sa candidature. Entre le précédent locataire de l’Elysée, François Hollande, et l’actuel, Emmanuel Macron – lequel, faut-il le rappeler, y a été le secrétaire général adjoint du premier puis « son » ministre de l’Economie, de l’Industrie et du Numérique (avant de devenir son rival) –, il y a un point commun : celui d’avoir été à l’origine de la nomination d’Audrey Azoulay à la tête de cette organisation onusienne basée à Paris. Autant son accession à ce poste international n’avait pas été évidente il y a quatre ans, autant sa réélection est passée comme une lettre à la poste : sur 193 Etats membres de l’Unesco, 169 ont voté le 9 novembre, dont 155 voix se sont portées sur l’ancienne ministre de la Culture et de la Communication (après avoir été conseillère dans ces domaines auprès de François Hollande à l’Elysée). Il faut dire que l’énarque était seule en lice pour ce mandat 2021-2025, alors que pour remporter son premier mandat (après une candidature déposée in extremis) elle avait dû battre le Qatari Hamad bin Abdulaziz al-Kawari.

Encadrer l’intelligence artificielle, les algorithmes et les données
Bientôt quinquagénaire (en août 2022), la voici à pied d’œuvre pour quatre nouvelles années à l’Unesco, laquelle organisation a fêté ses 75 ans le 12 novembre dernier . Le premier jour de cette 41e conférence générale de l’Unesco, qui s’est tenue du 9 au 24 novembre, Audrey Azoulay a prononcé – en français, en anglais et en espagnol – son discours de politique générale. Plus que jamais, en plus des défis de l’éducation, de l’environnement et de la paix, le défi du numérique est désormais au cœur de son action. « Le quatrième défi que je souhaite relever est celui de construire un univers numérique qui soit au service de nos valeurs sans les assujettir A l’ère des métavers, des mégadonnées et des robots d’Asimov [écrivain américano-russe et biochimiste, auteur de science-fiction et de vulgarisation scientifique, ndlr], nous avons besoin d’orientations claires », a déclaré la directrice générale fraîchement reconduite à la tête de l’Unesco. Pour Audrey Azoulay, l’organisation onusienne doit avoir son mot à dire sur le monde du numérique, comme elle l’a eu sur le génome humain par exemple, quand bien même 2,9 milliards de personnes sur près de 8 milliards d’être humains ne sont toujours pas connectés, selon l’Union internationale des télécommunication (UIT), elle aussi organisation des Nations Unies (2).

Recommandations et directives opérationnelles
Sur fond de fracture numérique, l’Unesco veut sans tarder dompter l’intelligence artificielle (IA) : « Il appartiendra à cette conférence générale d’incarner cette voix en se prononçant sur l’adoption du premier instrument normatif mondial sur l’éthique de l’intelligence artificielle. Il faudra ensuite lui donner vie et forme, en aidant les Etats membres à le mettre en oeuvre, en renforçant les capacités et en suivant de près les progrès accomplis ». Une quinzaine de jours après cette déclaration, l’Unesco présentait le tout premier accord mondial sur l’éthique de l’IA – une « recommandation sur l’éthique de l’intelligence artificielle » d’une trentaine de pages (3) adoptée formellement le 22 novembre lors de la 41e conférence générale de l’Unesco. L’ont ratifiée 193 pays, y compris la Russie, la Chine ou l’Iran, mais pas les Etats-Unis ni Israël qui ne sont plus membres de l’Unesco. « Les technologies de l’IA peuvent rendre de grands services à l’humanité et tous les pays peuvent en bénéficier, mais elles soulèvent également des préoccupations éthiques de fond, à l’égard, par exemple, des biais qu’elles sont susceptibles de comporter et d’accentuer, lesquels pourraient entraîner discrimination, inégalité, fractures numériques et exclusion, menacer la diversité culturelle, sociale et biologique et entraîner des clivages sociaux ou économiques », met en garde l’Unesco. Et d’insister sur « la nécessité d’assurer la transparence et l’intelligibilité du fonctionnement des algorithmes et des données à partir desquelles ils ont été entraînés ».
Cette recommandation sans précédent, et à portée mondiale, part du constat qu’il n’y a pas de définition unique de l’IA, « celle-ci étant appelée à évoluer en fonction des progrès technologiques » mais qu’il est bien question de « systèmes capables de traiter les données et l’information par un processus s’apparentant à un comportement intelligent, et comportant généralement des fonctions de raisonnement, d’apprentissage, de perception, d’anticipation, de planification ou de contrôle ». L’Unesco appelle les Etats à encadrer l’IA quant à ses « implications éthiques » dans plusieurs domaines : éducation, science, culture, communication et information. Par exemple, concernant « l’identité et la diversité culturelles », l’Unesco estime avec inquiétude que « les technologies de l’IA peuvent enrichir les industries culturelles et créatives, mais aussi aboutir à une concentration accrue de l’offre, des données, des marchés et des revenus de la culture entre les mains d’un petit nombre d’acteurs, avec des répercussions potentiellement négatives sur la diversité et le pluralisme des langues, des médias, des expressions culturelles, la participation et l’égalité ». Autre préoccupation : l’IA jouant un rôle croissant dans le traitement, la structuration et la transmission de l’information, « les questions du journalisme automatisé et de l’utilisation d’algorithmes pour diffuser des actualités et pour modérer et organiser des contenus sur les réseaux sociaux et les moteurs de recherche » soulèvent de multiples sujets : accès à l’information, désinformation, mésinformation, discours de haine, discrimination, liberté d’expression, protection de la vie privée, éducation aux médias et à l’information, etc… « Les Etats membres devraient veiller à ce qu’il soit toujours possible d’attribuer la responsabilité éthique et juridique de tout stade du cycle de vie des systèmes d’IA à des personnes physiques ou des entités juridiques existantes », recommande notamment l’Unesco, laquelle propose avec l’ONU d’apporter son « soutien » aux pays du monde pour qu’ils puissent « adopter une approche d’”espace commun numérique” des données » et « accroître l’interopérabilité des outils et des ensembles de données ». Cette recommandation « Ethique de l’IA » vient compléter les avancées de l’Unesco dans le domaine du numérique, à travers ses « directives opérationnelles » de mise en oeuvre dans l’environnement numérique de la Convention de 2005, à savoir la Convention de l’Unesco sur la protection et la promotion de la diversité des expressions culturelles.
Celle-ci, historique, fut signée le 20 octobre 2005 à Paris. Les récentes directives opérationnelles sur le numérique, qui sont comparables à des décrets pour les lois (c’est-à-dire contraignantes mais sans sanctions), ont commencé à être élaborées il y a huit ans (4). Il s’agit d’adapter ce texte international qu’est la Convention de l’Unesco – ratifiée par 150 pays (5) et par l’Union européenne – pour que l’éducation, la science et la culture soient protégées et promues sur Internet. Et ce, en coopération avec les GAFAM (américains), les BATX (chinois), les YVOT (russes) et toutes les plateformes numériques du cyberespace. Les premières « directives opérationnelles destinées à promouvoir la diversité des expressions culturelles dans l’environnement numérique » (6) ont été adoptées en juin 2017 et une « feuille de route » (7) pour leur mise en œuvre a été établie en juin 2019 par la prédécesseure d’Audrey Azoulay, la Bulgare Irina Bokova.

Convention de 2005 : 15e comité début 2022
La quinzième session du « comité intergouvernemental pour la protection et la promotion de la diversité des expressions culturelles », qui se tiendra du 8 au 11 février 2022, sera décisive sur les avancées « numériques » de la Convention de 2005 et sur le bilan de son Fonds international pour la diversité culturelle (FIDC) ou IFCD (8). Problème : les Etats-Unis ne sont plus membres de l’Unesco depuis 2019 et encore moins signataires de la Convention de 2005. Outre le reproche de « préjugés anti-israéliens » qu’ils font à l’Unesco (qu’Israël a quitté en même temps), les Américains exigent depuis des années d’inclure les services audiovisuels et culturels dans les accords de libreéchange (9). Audrey Azoulay réussira-t-elle l’exploit de faire revenir les Etats-Unis de Joe Biden, et Israël, dans l’organisation culturelle de l’ONU ? Ce serait la plus grande réussite de son second mandat qui s’achèvera en novembre 2025. @

Charles de Laubier

Création d’une œuvre ou d’une invention par une IA : la justice commence à faire bouger les lignes

C’est un peu le paradoxe de l’oeuf et de la poule : qui est apparu le premier ? Dans le cas d’une création ou d’une invention par une intelligence artificielle, qui est l’auteur : la personne humaine ou la technologie créatrice ? Cette question existentielle commence à trouver des réponses, en justice.

Par Boriana Guimberteau (photo), avocatE associéE, cabinet Stephenson Harwood

L’intelligence artificielle (IA) fait l’objet de développements exponentiels dans des domaines aussi variés que les voitures autonomes (et les données générées par celle-ci), la rédaction d’articles ou la création de musiques. Au-delà de la compréhension de son fonctionnement, l’intelligence artificielle soulève la question de la paternité et de la titularité des œuvres créées ou des inventions générées par elle.

Vers un « Artificial Intelligence Act »
Avant d’explorer plus en amont cette question, il convient de fournir une définition de l’intelligence artificielle. Selon l’Organisation mondiale de la propriété intellectuelle (OMPI), l’intelligence artificielle désigne une branche de l’informatique qui a pour objet de concevoir des machines et des systèmes à même d’accomplir des tâches faisant appel à l’intelligence humaine, avec un intervention humaine limitée ou nulle. Cette notion équivaut généralement à l’intelligence artificielle spécialisée, c’est-à-dire aux techniques et applications programmées pour exécuter des tâches individuelles. L’apprentissage automatique (machine learning) et l’apprentissage profond (deep learning) font tous deux parties des applications de l’intelligence artificielle (1).
L’IA peut ainsi produire différents résultats dont certains pourraient être qualifiés de créations ou d’inventions, les premières protégeables par le droit d’auteur et les secondes par le droit des brevets d’invention. La question est alors de savoir qui sera titulaire des créations ou des inventions générées par l’IA, et si l’IA pourrait être qualifiée d’auteur ou d’inventeur par le droit positif français.
En matière de droit d’auteur tout d’abord, de nombreux auteurs se sont penchés sur la question de savoir si l’intelligence artificielle pouvait bénéficier de la qualité d’auteur. La majorité d’entre eux reconnaissent la conception personnaliste et humaniste du droit français qui considère comme auteur la personne qui crée une œuvre. Par définition, un fait créatif est un fait matériellement imputable à une personne humaine. Cette conception s’impose également par le seul critère d’admission à la protection des œuvres de l’esprit qu’est l’originalité, laquelle se caractérise par l’empreinte de la personnalité de l’auteur (2). Eu égard à la personne de l’auteur, le professeur Christophe Caron a pu affirmer que « le duo formé par la notion de création et de personne physique est indissociable » et donc que « le créateur est forcément une personne physique ». Si la définition de l’auteur est absente du code de propriété intellectuelle (CPI), on y retrouve néanmoins diverses références : « Est dite de collaboration l’œuvre à la création de laquelle ont concouru plusieurs personnes physiques » (3) ; « Ont la qualité d’auteur d’une œuvre audiovisuelle la ou les personnes physiques qui réalisent la création intellectuelle de cette œuvre » (4). Dans le cadre de l’œuvre radiophonique, « ont la qualité d’auteur d’une œuvre radiophonique la ou les personnes physiques qui assurent la création intellectuelle de cette œuvre » (5). La seule exception à la naissance ab initio du droit d’auteur sur la tête d’une personne physique : l’œuvre collective (6).
De plus, la nécessité d’une intervention consciente de l’homme implique qu’un animal ou une machine ne peuvent être considérés comme auteurs. L’intelligence artificielle ne peut alors être qu’un outil de création supplémentaire.

L’approche « création intellectuelle »
Dans le cadre du projet de réglementation européenne sur les droits de propriété intellectuelle pour le développement des technologies liées à l’intelligence artificielle – l’« Artificial Intelligence Act » actuellement en cours d’examen en commissions au sein du Parlement européen (7) –, une résolution du 20 octobre 2020 du Parlement européen précisait sa teneur en affirmant ceci : « Les œuvres produites de manière autonome par des agents artificiels et des robots pourraient ne pas bénéficier de la protection par le droit d’auteur, afin de respecter le principe d’originalité, qui est lié à une personne physique, et étant donné que la notion de “création intellectuelle” porte sur la personnalité de l’auteur » (8). Cette approche se retrouve également dans les pays du système juridique dit Common Law. En 2012, la cour fédérale d’Australie affirmait la nécessité d’une intervention humaine en jugeant qu’une base de données générée automatiquement par un système d’intelligence artificielle n’est pas protégeable par le copyright dans la mesure où l’effort d’extraction des données n’était pas le fait d’une personne ou d’un groupe de personnes (9). Aux Etats-Unis, une position identique ressortait de l’affaire médiatisée du macaque Naruto ayant pris un selfie. La cour américaine n’a pas manqué de rappeler qu’une photographie prise par un animal n’est pas susceptible de protection eu égard à l’absence d’intervention humaine (10).

L’IA créatrice demande protection
L’AIPPI – association Internationale pour la protection de la propriété intellectuelle (11) – s’est également penchée sur cette question et a adopté, après d’âpres discussions, une résolution (12) lors de son congrès de septembre 2019. Selon cette résolution, les œuvres générées par une IA pourraient bénéficier de la protection par le droit d’auteur à condition qu’une intervention humaine ait lieu lors de leur création. Néanmoins, pour la première fois, le tribunal de Shenzhen en Chine a jugé qu’un article financier écrit par Dreamwriter, un algorithme conçu par Tencent, avait été reproduit sans autorisation reconnaissant ainsi que la création d’une intelligence artificielle peut bénéficier de la protection du droit d’auteur (13). Si diverses réflexions sont en cours pour faire émerger de nouveaux concepts juridiques appréhendant l’IA dans le cadre de la propriété intellectuelle, nulles n’ont connu de réels aboutissements législatifs jusqu’à présent. La protection des réalisations de l’IA s’opère ainsi notamment par la voie contractuelle. A titre illustratif, l’entreprise Aiva Technologies, connue pour son IA capable de composer de la musique, offre le choix entre une utilisation gratuite pour une exploitation privée des résultats créatifs et une utilisation payante pour une exploitation commerciale de ceux-ci.
Parallèlement, la problématique de l’IA-inventeur se pose également dans le cadre du droit des brevets. En effet, en France, le CPI prévoit que le droit au titre de propriété industrielle « appartient à l’inventeur ou à son ayant cause. Si plusieurs personnes ont réalisé l’invention indépendamment l’une de l’autre, le droit au titre de propriété industrielle appartient à celle qui justifie de la date de dépôt la plus ancienne » (14).
Ainsi, l’on retrouve en matière de brevets la même dimension humaniste dont est empreint le droit d’auteur. La question a néanmoins été posée aux offices et aux juridictions de savoir si une IA pouvait être l’inventeur d’un brevet. Les demandes déposées par « Dabus » ont ainsi pu illustrer cette problématique et les solutions retenues actuellement. Dabus est un réseau de neurones artificiel développé par le chercheur américain Stephen Thaler qui (l’IA neuronale) a notamment conçu, de manière autonome, un récipient pour boissons basé sur la géométrie fractale et un dispositif embarquant une lumière vacillante pour attirer l’attention pendant des opérations de recherche et de sauvetage. Depuis, l’équipe de « The Artificial Inventor Project » a amorcé une quête visant à faire reconnaître Dabus comme inventeur d’un brevet dans divers pays.
En décembre 2019, l’Office européen des brevets (EPO) a refusé deux demandes d’enregistrement de brevets européens (15) soumises au nom de Dabus dans la mesure où seule une personne physique peut être inventeur d’un brevet européen (16).
Le bureau américain des brevets et des marques de commerce (USPTO) a, lui, rejeté le 22 avril 2020 la demande de brevet indiquant Dabus comme inventeur pour les mêmes motifs (17). Le 2 septembre 2021, le tribunal du district Est de Virginie statuait lui aussi « qu’un système d’intelligence artificielle (IA) ne peut pas déposer de brevet » (18).
De l’autre côté de l’Atlantique, la cour d’appel de Londres suivit l’office des brevets britanniques (IPO) qui avait rejeté une même demande, le 21 septembre 2021. La juge Elisabeth Laing affirma ainsi que « seule une personne peut avoir des droits. Pas une machine » (19).
Néanmoins, au mois de juillet 2021, l’office des brevets sud-africain (CIPC) a reconnu Dabus comme inventeur lors d’un dépôt de brevet pour la première fois (20), suivi de près par la Cour fédérale australienne qui jugea que « Dabus pouvait être un inventeur au sens de la loi australienne » (21).

Vers des règles ad hoc ?
En conclusion, la question de l’intelligence artificielle et de la titularité des droits de propriété intellectuelle demeure globalement dominée par le principe de prééminence de l’humain, le droit français ne se démarquant pas tant de ses voisins européens et anglo-saxons. Toutefois, les développements de l’IA sont encore à un stade peu avancé et il faudrait suivre son évolution pour apprécier la nécessité d’une adaptation des règles juridiques en conséquence, notamment celles relatives à la protection des investissements ayant abouti à l’IA. @

* Boriana Guimberteau est avocate experte en
propriété intellectuelle, que cela soit dans les
domaines des marques de commerce, du droit
d’auteur, des dessins et modèles et des brevets. Elle
vient d’intégrer le cabinet Stephenson Harwood en tant
que partner, après dix ans chez FTPA Avocats.

L’Europe veut encadrer les algorithmes pour retirer les contenus illicites et éviter les « faux positifs »

Le futur règlement européen Digital Services Act (DSA) veut encadrer l’utilisation d’algorithmes dans la gestion des contenus sur les réseaux sociaux et d’en retirer ceux « jugés » illicites. Mais le risque de « faux positifs » (bloqués à tort) va poser des problèmes aux régulateurs et aux juges.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

Bloquer la publication d’un contenu est une décision grave, portant potentiellement atteinte à l’un des droits fondamentaux les plus importants pour la démocratie : la liberté d’expression. Pour la préserver, le droit constitutionnel américain et français exigent généralement qu’une décision interdisant la diffusion de contenus soit prise par une autorité judiciaire, et qu’elle le soit prise après la publication du contenu, non avant (1).

Blocage automatique : quelle légitimité ?
Les plateformes ne s’embarrassent pas de ces principes, filtrant des contenus avant leur publication par l’utilisation de robots. Faut-il s’en inquiéter ? S’agit-il d’une violation des droits fondamentaux des utilisateurs ? Le recours aux algorithmes pour identifier des contenus illégaux est devenu incontournable en raison de la quantité des informations publiées par les utilisateurs des réseaux sociaux. Même si la loi n’impose pas aux plateformes une obligation générale de surveillance des contenus, laquelle reste interdite (2), celles-ci ont mis en place des systèmes automatisés de détection de contenus illicites. Le champ d’application de ces outils s’est élargi grâce à l’émergence de modèles d’apprentissage automatique (machine learning), capables d’identifier des images et textes plus complexes, de comprendre le contexte d’une phrase ou d’une image, voire de juger de la véracité d’une affirmation.
Le futur règlement européen Digital Services Act (DSA) met en lumière les multiples rôles d’algorithmes dans la gestion de contenus sur les réseaux sociaux. Ces algorithmes identifient des contenus illicites et procèdent à leur retrait avec ou sans intervention humaine ; ils signalent l’existence d’utilisateurs potentiellement abusifs du service ; ils organisent la présentation de contenus et de publicités aux utilisateurs en fonction de leurs profils. Le règlement DSA propose d’encadrer l’utilisation d’algorithmes, surtout ceux utilisés pour retirer des contenus illicites. Les outils sont calibrés pour bloquer automatiquement, et sans intervention humaine, des contenus les plus manifestement illégaux. En cas de doute, la machine enverra le cas à des décisionnaires humains. Une grande partie des décisions de retrait de contenus sont aujourd’hui prises sans intervention humaine (3), ce qui soulève la question de leur légitimité et des garanties qui les entourent. Le DSA prévoit des garanties procédurales et de transparence similaires à celles qui existent pour les décisions prises par l’Etat. Le droit constitutionnel impose à l’Etat des règles contraignantes en matière de blocage de contenus illicites, alors que les plateformes, elles, ne sont pas directement concernées par ces contraintes constitutionnelles. Cependant, les plateformes dites « structurantes » ont un pouvoir quasi-étatique en matière de liberté d’expression. Il est donc logique d’étendre à ces plateformes les règles de transparence et de procédure qui s’appliquent aux décisions de l’Etat.
En 2018, les organisations de défense des droits civiques aux Etats-Unis ont élaboré des principes minimaux de transparence et de procédure équitable qui doivent s’appliquer aux décisions de retrait de contenus ou de suspension de comptes sur les réseaux sociaux. Appelés « Santa Clara Principles » (4), ces principes non-contraignants recommandent la publication par chaque plateforme numérique de données détaillées sur les alertes, les décisions de retrait et de suspension. Ils prévoient la notification aux utilisateurs affectés par les décisions de retrait, la publication de règles claires sur les types de contenus interdits sur la plateforme, la mention de raisons du retrait, la fourniture d’informations sur l’utilisation ou non d’un outil automatique, et une procédure efficace de contestation devant un décisionnaire humain différent de la personne qui a pris la décision initiale. Les Santa Clara Principles (SCP) reprennent, pour les adapter aux plateformes, une partie des règles constitutionnelles de « due process » aux Etats-Unis qui s’appliquent aux décisions, notamment algorithmiques, de l’Etat.

Le DSA va plus loin que les « SCP »
Le projet de règlement DSA rendrait contraignant un certain nombre des SCP, et notamment l’obligation d’informer l’utilisateur que son contenu a été retiré et de lui fournir une explication sur les raisons du retrait. La notification doit également mentionner l’utilisation éventuelle d’un outil automatique, et fournir des informations claires sur la possibilité de contester la décision. Le DSA exige une procédure efficace pour gérer les contestations d’utilisateurs, une procédure qui ne peut pas s’appuyer uniquement sur des moyens automatisés. Les utilisateurs peuvent donc contester un retrait devant un décisionnaire humain. Le DSA va au-delà des SCP en matière de transparence algorithmique, en exigeant la publication par les plateformes structurantes d’information sur les objectifs poursuivis par l’algorithme, les indices de performance, et les garanties entourant son utilisation.
Le projet de loi français sur le « respect des principes de la République », adopté par l’Assemblée nationale le 16 février dernier et actuellement examiné au Sénat (5), va plus loin encore en prévoyant la communication au Conseil supérieur de l’audiovisuel (CSA) des paramètres utilisés par les outils automatisés, des méthodes et des données utilisées pour l’évaluation et l’amélioration de leur performance.

Algorithmes, « faux positifs » et censure
La performance des algorithmes sera un sujet-clé pour le régulateur. Quel est le niveau acceptable de « faux positifs », à savoir des contenus bloqués à tort ? On sait que les tribunaux n’apprécient guère les faux positifs en matière de liberté d’expression (lire encadré ci-dessous) et qu’un algorithme d’apprentissage automatique va forcément générer des faux positifs. Le niveau de faux positifs dépendra notamment du niveau de sensibilité de l’algorithme dans la détection de « vrais » positifs, par exemple une vraie vidéo terroriste. Si l’on réduit le nombre de faux positifs, on va nécessairement réduire la sensibilité de l’algorithme dans la détection de vrais cas de contenus illégaux. Le bon équilibre entre les faux positifs et les faux négatifs sera un sujet délicat, et le niveau d’équilibre sera différent selon le type de contenus. Laisser passer la vidéo d’un acte terroriste du type Christchurch aura un coût très élevé pour la société, alors que laisser passer un morceau de musique protégé par le droit d’auteur sera a priori moins dommageable.
Les taux d’erreurs algorithmiques peuvent varier en fonction de la langue utilisée – un algorithme d’analyse de textes sera généralement plus performant en anglais – et peuvent également refléter les biais présents dans les données d’entraînement. Les algorithmes apprennent à partir des exemples de contenus retirés précédemment par les analystes humains. Ces analystes humains sont faillibles. Ils ont leur propre biais – biais culturels, linguistiques, ethniques, de genre – et commettent eux-aussi des erreurs d’appréciation qui seront reproduits ensuite par les algorithmes (6). Ainsi, il faut veiller non seulement au « bon » niveau de faux positifs et de faux négatifs selon le type de contenu, mais également vérifier que le niveau de perfor-mances de l’algorithme ne varie pas selon la couleur de la peau ou le sexe des personnes impliquées, selon la langue utilisée, ou selon le type de discours haineux (7). Ces multiples équilibres devraient être abordés dans un premier temps dans les études de risques systémiques conduites par les plateformes structurantes, en application de l’article 26 du futur règlement DSA en Europe. Ces études devront analyser l’impact des algorithmes d’identification et de retrait de contenus sur les droits fondamentaux. Ainsi, les plateformes devront proposer des solutions techniques et humaines pour concilier des objectifs – souvent contradictoires – liés à la mise en place d’un système de détection performant qui respecte en même temps la liberté d’expression, la protection des données personnelles et la protection contre les discriminations. Actuellement, le projet de règlement DSA prévoit que la Commission européenne sera le régulateur principal pour les plateformes structurantes. Celle-ci pourra émettre des recommandations relatives aux systèmes algorithmiques. Mais la manière de gérer les tensions entre la liberté d’expression et d’autres droits est avant tout une affaire nationale, dépendant du contexte, de l’histoire et de la culture de chaque pays (8).
En France, le CSA serait mieux placé que la Commission européenne pour évaluer les systèmes algorithmiques mis en place par les grandes plateformes pour analyser des contenus destinés au public français. Le paramétrage des algorithmes devra nécessairement refléter ces circonstances locales, et le contrôle de ces paramètres relèverait plus naturellement de la compétence du régulateur national. Un contrôle national de ces outils renforcerait en revanche le morcèlement des approches réglementaires entre Etats membres, et nécessiterait donc un système de coordination au niveau européen similaire à ce qui existe pour la régulation des télécoms et le RGPD. @

* Winston Maxwell, ancien avocat, est depuis juin 2019
directeur d’études Droit et Numérique à Telecom Paris.

FOCUS

Le droit est allergique aux surblocages
Le droit constitutionnel est peu tolérant aux « faux positifs » en matière de liberté d’expression. Les risques de surblocage ont été soulignés par la Cour suprême des Etats-Unis dans l’affaire « Reno c. ACLU » (9) dans les années 1990, et par la Cour de justice de l’Union européenne (CJUE) dans les affaires « Scarlet c. Sabam » (10) en 2011 et « Sabam c. Netlog » (11) en 2012. Ces deux dernières affaires concernaient la mise en place, à la demande d’un tribunal belge, d’un dispositif simple pour bloquer des contenus protégés par le droit d’auteur, s’appuyant sur un procédé de « hash » pour identifier les fichiers contrevenants.
La CJUE a considéré que ce procédé créait une atteinte disproportionnée à la protection des données à caractère personnel, mais également à la liberté d’expression en raison du risque de surblocage. L’outil serait incapable de détecter s’il s’agissait d’une citation, d’une parodie ou d’une autre utilisation permises par l’une des exceptions du droit d’auteur. Plus récemment, le Conseil constitutionnel a annulé deux dispositions de la loi française « Avia » (contre la cyberhaine) en raison du risque de surblocage de contenus « non manifestement illicites » (12). Pour des contenus faisant l’apologie du terrorisme, le Conseil constitutionnel a considéré que les injonctions de l’autorité administrative (13) ne constituaient pas une garantie suffisante et que les opérateurs de plateformes ne devaient pas suivre ces injonctions de manière automatique. @

Streaming : le Centre national de la musique (CNM) bute sur « une boîte noire »

En fait. Les 3 février, le président du Centre national de la musique (CNM), Jean-Philippe Thiellay, a été auditionné au Sénat par la commission de la culture. Il est revenu sur le rapport qu’il a publié le 27 janvier sur la répartition des revenus des plateformes de streaming musical. Ses travaux ont buté sur « une boîte noire ».

En clair. En menant cette étude d’impact du passage possible du mode actuel dit « market centric » (1) à un autre mode dit « user centric » (2) pour la répartition des revenus générés par les écoutes de la musique en streaming, le Centre national de la musique (CNM) a buté sur « une boîte noire ». C’est ce que son président Jean-Philippe Thiellay (photo) a reconnu devant les sénateurs lors de son audition le 3 février : « Il y a énormément de questions que l’on n’a pas pu explorer en raison de l’anonymisation des données et au fait que les données s’arrêtent aux distributeurs, même pas aux labels et encore moins à l’artiste. Il y a des questions qu’il faut continuer à explorer : la transparence des données, les algorithmes, les recommandations sur les playlists, les compositions des playlists, … Pour nous, c’est une boîte noire », a-t-il dit. Par ailleurs, la fraude des « fermes à clics » maximise automatiquement l’écoute de certains artistes.

La rémunération des musiciens dépend aussi d’algorithmes opaques
Réalisée avec le cabinet Deloitte, cette étude a aussi buté sur le manque de transparence des plateformes de streaming musical. Spotify et Deezer sont les seuls à avoir répondu au CNM, « tous les autres ont refusé ». Il faut dire que cet établissement public à caractère industriel et commercial (Epic), créé le 1er janvier 2020 et placé sous tutelle du ministère de la Culture, n’a pas le pouvoir d’un régulateur ni d’enquête comme l’Arcep, le CSA ou l’Autorité de la concurrence. Le fonctionnement des algorithmes de recommandation est en tout cas « opaque ». Passer du market centric au user centric revaloriserait les fonds de catalogues et accentuerait la diversité des genres musicaux, mais l’impact sur les artistes les moins écoutés serait néanmoins minime. A moins que cette « boîte noire »… Une part non négligeable des rémunérations en dépend, surtout que 10 % à… 80 % des écoutes sont dites « passives », c’est-à-dire issues d’algorithmes de recommandation qu’il reste à expertiser. « Le user centric, ce n’est pas la baguette magique. En revanche, comme le marché est dynamique, cela peut changer et il reste beaucoup de questions à explorer », a prévenu Jean-Philippe Thiellay. Quant au piratage du streaming musical, il réside surtout dans « le piratage des comptes qui, selon le président du CNM, peut être une vraie source de déperdition de valeur ». Une étude va être faite sur ce point avec l’Hadopi. @