Souveraineté numérique européenne : Microsoft se dit compatible

En fait. Le 19 mai, se sont tenues les 5es Assises de la souveraineté numérique, organisées par l’agence Aromates sur le thème cette année de « Quelle stratégie pour une 3e voie européenne ? ». Parmi les intervenants extra-européens : l’américain Microsoft, qui, par la voix de Marc Mossé, se dit eurocompatible.

En clair. Le directeur des affaires publiques et juridique de Microsoft – fonction que Marc Mossé (photo) a exercée pour la filiale française entre février 2006 et mai 2016 avant de passer à l’échelon européen (1) tout en restant basé à Paris et non au siège de Microsoft Europe à Dublin en Irlande –, était attendu au tournant. Lors de ces 5es Assises de la souveraineté numérique, le « M » de GAFAM a voulu montrer pattes blanches et démontrer que l’on pouvait être une « entreprise étrangère américaine » et être compatible avec la « souveraineté numérique européenne ». Antinomique ? Non. Marc Mossé, lui, parle de « ligne de crête » en rappelant les propos tenus par quatre femmes au pouvoir en Europe, Angela Merkel (chancelière d’Allemagne), Mette Frederiksen (Première ministre du Danemark), Sanna Marin (Première ministre de Finlande) et Kaja Kallas (Première ministre d’Estonie), dans une lettre adressée le 1er mars dernier à une cinquième femme de pouvoir, Ursula von der Leyen (présidente de la Commission européenne).

La souveraineté numérique, ce n’est ni exclure ni faire du protectionnisme
« La souveraineté numérique, c’est miser sur nos forces et réduire nos faiblesses stratégiques, et non pas exclure les autres ou adopter une approche protectionniste. Nous faisons partie d’un monde mondial avec des chaînes d’approvisionnement mondiales que nous voulons développer dans l’intérêt de tous. Nous sommes déterminés à ouvrir les marchés et à favoriser un commerce libre, équitable et fondé sur des règles ». Tout est dit. Et le directeur juridique de Microsoft Europe d’approuver : « C’est cette ligne de crête sur laquelle il faut être, qui renvoie à l’essentiel lorsque l’on parle de la souveraineté. C’est aussi la question de la règle de droit. La souveraineté, c’est la garantie par le droit de fonctions essentielles comme les valeurs européennes [auxquelles] les acteurs qui opèrent en Europe (et donc en France) doivent le plein respect ». Marc Mossé a aussi rappelé l’annonce faite le 6 mai par Microsoft qui s’engage à stocker et à traiter dans ses data centers en Europe – au nombre de treize dont trois en France – les données de ses clients, entreprises ou Continuer la lecture

Généraliser « à la va-vite » le Pass Culture ne passe pas vraiment en temps de restrictions culturelles

La généralisation du Pass Culture décidée pour 2021 par le gouvernement ne passe toujours pas pour certains. Le Sénat s’était dit « étonné » de tant de précipitation sans « évaluation préalable d’ampleur ». La musique en streaming en profite le plus et les disquaires physiques vont l’intégrer.

Sur le Pass Culture, la musique est plébiscitée par ses utilisateurs et se retrouve au premier rang des pratiques culturelles. C’est un outil de relance très utile. Il y a le spectacle vivant, le streaming, et l’idée serait d’intégrer les disquaires, notamment les indépendants, qui représentent l’achat physique, soit 40 % du marché de la musique enregistré [36,8 % précisément en 2019, soit 230 millions d’euros, bien moins en 2020, ndlr]. C’est beaucoup d’argent », a relevé le président du Centre national de la musique (CNM), Jean-Philippe Thiellay, lors de son audition au Sénat le 3 février dernier. Le Sénat justement est très regardant sur le déploiement du Pass Culture, pour lequel il a créé dès 2018 un « groupe de travail » transpartisan, composé d’un sénateur de chaque groupe politique et présidé par Jean-Raymond Hugonet (photo). Il reporte à la commission de la culture, de l’éducation et de la communication de la chambre haute.

Généralisation à 300 euros au lieu de 500
Dans sa configuration actuelle qui va évoluer cette année, ce Pass Culture permet à des jeunes de 18 ans de bénéficier d’une application sur laquelle chacun d’eux disposent de 500 euros pendant deux ans, afin de découvrir et de réserver parmi les offres culturelles de proximité et offres numériques proposées (livres, concerts, théâtres, musées, cours de musique, abonnements numériques, etc.). Pour l’instant, quatorze départements (1) sont éligibles au Pass Culture. « Les personnes de 18 ans n’ayant pas la nationalité française mais vivant dans l’un des départements de l’expérimentation depuis un an sont éligibles au Pass Culture », précise la société Pass Culture. Le 19 janvier dernier, ce groupe de travail avait fait part de son étonnement à la suite de l’annonce sept jours plus tôt de la ministre de la Culture, Roselyne Bachelot, de la décision de généraliser le Pass Culture. Elle l’avait confirmé le 12 janvier dernier devant les députés qui l’auditionnaient au sein de la commission des affaires culturelles et de l’éducation de l’Assemblée nationale, sans donner de date précise de Continuer la lecture

Les « CSA » européens veulent plus de la Commission européenne contre les fake news

Les Google, Facebook et autres Twitter ont été contraints de se constituer en « police privée » pour chasser sur Internet les fausses informations. Liberté d’expression et liberté d’informer sont passées au crible pour supprimer les infox. Mais pour les « CSA » européens, cela ne pas assez loin.

Le groupe des régulateurs européens des médias audiovisuels, l’Erga (1), a publié le 6 mai son « rapport sur la désinformation et l’évaluation de la mise en œuvre du code de pratique » pour lutter contre les fake news. Ce rapport final intervient deux ans après l’adoption par la Commission européenne de mesures fondées sur les conclusions et les recommandations présentées le 12 mars 2018 par « un groupe d’experts de haut niveau » pour lutter contre la désinformation en ligne (2).

Autorégulation des acteurs du Net
Dans la foulée, le 24 avril 2018, la Commission européenne publiait une communication intitulée « Lutter contre la désinformation en ligne : une approche européenne » (3), qui préconisait un code de bonnes pratiques et de nouvelles règles visant à accroître la transparence et l’équité des plateformes en ligne, notamment la mise en place d’un réseau indépendant de vérificateurs de faits dans le cadre d’une démarche d’autorégulation des acteurs du Net. Ces derniers ont été fermement invités à coopérer avec l’exécutif européen dans cette croisade contre les mensonges, les manipulations et les informations erronées. Le 16 octobre 2018, les premiers signataires de ce « code de bonne conduite » furent Facebook, Google, Twitter et Mozilla (éditeur du navigateur Firefox).
Dans le même temps, l’Edima (European Digital Media Association) – lobby basé à Bruxelles et représentant les GAFAM (Google, Amazon, Facebook, Apple et Microsoft) ainsi que Airbnb, Allegro, eBay, Expedia, Mozilla Mozilla, OLX, Snap, TripAdvisor, Twitter, Verizon Media, Yelp et Spotify – signait également ce code « anti-fake news », tout comme les associations professionnelles représentant l’industrie de la publicité et les annonceurs (EACA, IAB Europe, WFA et UBA). Microsoft a également rejoint le 22 mai 2019 les entreprises signataires. C’est lors des élections européennes de mai 2019 que les plateformes numériques participantes – Facebook, Google et Twitter en tête – ont publié des rapports mensuels sur la mise en œuvre de leurs actions dans le cadre de ce « code de pratique sur la désinformation » et dans un souci de « transparence de la publicité politique ». Cinq relevés mensuels ont été publiés sur cette période électorale, de janvier à mai 2019, dont le dernier publié il y a un an, le 14 juin (4). L’Erga en a fait la synthèse dans un rapport « monitoring » intermédiaire, en concluant que les GAFAM pouvaient mieux faire. « Google, Twitter et Facebook ont fait des progrès évidents dans la mise en œuvre des engagements du “Code of Practice on Disinformation” en créant une procédure ad hoc pour l’identification des publicités politiques et de leurs sponsors, et en rendant accessible au public les publicités en question. Il s’agissait d’un effort sérieux visant à accroître la transparence. Cependant, bien que les plateformes aient fourni des informations substantielles qui pouvaient être significatives pour les utilisateurs individuels, le suivi indique que les bases de données auraient dû être davantage développées [notamment plus détaillées, ndlr] afin de fournir les outils et les données nécessaires pour assurer la qualité électorale » (5). Les régulateurs européens de l’audiovisuel avaient en outre déjà constaté que les notions de « désinformation » et de « publicité politique » n’ont pas de définitions partagées par les Etats membres, dont certains n’ont même aucune définition des publicités politiques. A cela s’ajoutait aussi le fait que la plupart des « CSA » en Europe disposaient de compétences, de pouvoirs et de ressources juridiques très limités pour s’engager dans l’activité de surveillance des plateformes en ligne. Il y a un an, l’Erga estimait alors que l’approche de coopération en matière de régulation – appelée aussi co-régulation – adoptée par les institutions européennes ne devait pas empêcher d’aller plus loin en rendant exécutoires ou contraignantes (enforceable) les dispositions du code « anti-infox ».

Renforcer les autorités de surveillance
Cela supposait aussi, selon l’Erga, que les autorités de régulation chargées de surveiller le respect de ces dispositions par les plateformes du Net disposent également d’outils, d’accès aux informations et de l’autonomie nécessaires pour s’acquitter de cette tâche. « Il est crucial que les autorités de surveillance [« monitors », dans le texte, ndlr] aient la possibilité de créer leurs propres requêtes, filtres et outils d’analyse qui devraient être orientés vers les données brutes, non filtrées et non gérées dans les bases de données des plateformes numériques. L’information devrait être fournie de manière à leur permet également d’établir facilement le volume de publicité sur une période de temps définie, de comprendre des informations détaillées sur les pages où les publicités apparaissent, de connaître qui financent ces publicités, et d’identifier le problème pertinent pour chaque annonce en question », avait encore conclu l’Erga. Toujours dans son rapport intermédiaire de juin 2019, le groupe des régulateurs européens des médias audiovisuels avait appelé la Commission européenne à aller plus loin et au-delà de la seule publicité politique, « première étape d’un processus qui, inévitablement, rapprochera les deux parties (régulateurs et plateformes) tant au niveau européen qu’au niveau national ». L’Erga souhaitait « un niveau de coopération plus élevé ». Un an après son rapport intermédiaire, force est de constater que les premières recommandations de l’Erga n’ont toujours pas été suivis d’effet.

Mais respecter la liberté d’expression
Le groupe des régulateurs européens des médias audiovisuels en a donc remis une couche à travers son rapport final publié le 6 mai dernier (6). « Malgré des efforts notables fournis par les plateformes, l’application de ce code n’est pas encore optimale, à ce jour », insiste le groupe des « CSA » européens auprès de la Commission européenne. Il lui recommande d’agir maintenant dans trois directions pour améliorer la lutte contre la dissémination des infox en ligne : « Améliorer le code existant, étendre ses engagements et explorer de nouveaux outils pour tendre vers une régulation plus efficace, cette dernière étant assortie d’obligations claires de rendre compte selon des procédures davantage harmonisées et dans des délais appropriés », résume le communiqué du CSA en France, daté du 6 mai. Et le président de l’Erga, Tobias Schmid (photo) d’enfoncer le clou : « La lutte contre la désinformation est de la plus haute importance pour notre démocratie. Nous devons préserver la valeur du discours public sur Internet en empêchant la diffusion délibérée de fausses informations tout en respectant la liberté d’expression. (…) Mais un danger doit être combattu là où il se présente. Par conséquent, nous devons également trouver des moyens de renforcer les efforts des [plateformes numériques] signataires pour accroître l’efficacité des mesures du code et de leurs activités de reporting ». L’Allemand Tobias Schmid est par ailleurs directeur de l’autorité médiatique du plus puissant Land, la Rhénaniedu- Nord-Westphalie, ainsi que chargé des Affaires européennes de la DLM qui réunit en Allemagne les directeurs des autorités médiatiques. Au-delà des publicités politiques, l’Erga estime que la pandémie du coronavirus démontre qu’il faut aller plus loin dans la lutte contre la désinformation : « La prolifération de fausses nouvelles, guidées par des objectifs politiques et/ou axés sur le profit, qui accompagne la récente éclosion de covid-19, n’est qu’un exemple de la façon dont les stratégies de manipulation de l’information posent de graves menaces à la formation de l’opinion publique. Il est important de démystifier de telles nouvelles pour protéger les valeurs démocratiques et contrer les tentatives d’incitation à la haine et à la violence ». A nouveau, les régulateurs de l’audiovisuel recommandent que l’ensemble des plateformes numérique de contenus sur Internet opérant en Europe adhèrent à ce code contre la désinformation. Et concrètement, ils appellent à une bien plus grande transparence, y compris des données beaucoup plus détaillées (en particulier des données par pays) sur la façon dont les signataires mettent en œuvre le code « antiinfox ». De façon à uniformiser l’application de ce code de bonne conduite, l’Erga suggère que les plateformes mettent à disposition des ensembles de data, des outils de suivi des données et des informations spécifiques à chaque pays donné pour permettre au régulateur national un suivi indépendant. L’Erga propose en outre d’aider la Commission européenne (au niveau de sa DG Connect) à établir des définitions pertinentes, y compris en matière de publicité politique, ainsi que des lignes directrices pour assurer une approche plus cohérente entre les Etats membres.
Et pour que la lutte contre les fake news soit vraiment efficace, se limiter à Google, Facebook ou Twitter ne suffit plus, toujours selon les « CSA » européens : « Le nombre de signataires du code de pratique sur la désinformation est limité et ne comprend pas certaines plateformes importantes, les services d’information et de communication et les acteurs de l’industrie de la publicité qui sont actifs dans l’Union européenne. Par conséquent, tous les efforts possibles doivent être déployés pour augmenter le nombre de plateformes signataires du code, afin d’éviter les asymétries réglementaires ». Quant à l’auto-régulation flexible actuelle, si elle a pu être un premier pas important et nécessaire, elle a montré aussi ses limites et son insuffisante efficacité. Pour contrer la désinformation en ligne, il est aussi suggéré à la Commission européenne de passer à « une approche de co-régulation ». Aussi, l’Erga se propose de l’aider en 2020 à identifier les mesures spécifiques et pour les plateformes les indicateurs de performance-clés – les « KPI », disent les Anglo-saxons, pour Key Performance Indicators. Last but not the least : l’Erga veut aider Bruxelles à définir des outils nécessaires aux activités de surveillance (monitoring) et d’exécution des autorités de régulation nationales.

Vers une loi européenne « anti-infox » ?
Mais les régulateurs européens de l’audiovisuel et des médias veulent que les institutions européennes aillent encore plus loin, quitte « à envisager une régulation fixée par la loi, comme l’ont fait certains Etats membres tels que la France (7) ou l’Allemagne (8) ». Cette régulation pourrait être prévue par le futur Digital Services Act (DSA) que doit présenter (lire p. 3) la Commission européenne d’ici la fin de l’année. @

Charles de Laubier

Copyright et filtrage : la France veut peser dans les réunions « Article 17 » de la Commission européenne

Le 17 mai marquera le premier anniversaire de la publication au Journal Officiel européen de la directive « Droit d’auteur et droits voisins dans le marché unique numérique ». Son article 17, toujours controversé sur le filtrage des contenus, fait l’objet de négociations pilotées par la Commission européenne.

Après le confinement, la septième « réunion de dialogue avec les parties prenantes » – consacrée comme les six précédentes au controversé article 17 de la nouvelle directive européenne « Droit d’auteur » – va pouvoir se tenir à Bruxelles. Ces « stakeholder dialogue » (1) sont organisés par la Commission européenne depuis l’automne dernier pour parvenir à un accord sur « les meilleures pratiques », afin que cette dernière puisse émettre d’ici la fin de l’année des orientations (guidance) sur l’application cet épineux article 17.

Le blocage risque d’être un point de blocage
Alors que cette directive européenne « sur le droit d’auteur et les droits voisins dans le marché unique numérique » a été publié au Journal officiel de l’Union européenne (JOUE) il y aura un an le 17 mai, et qu’elle doit être transposée par chacun des Vingt-sept d’ici au 7 juin 2021 au plus tard, son article 17 fait toujours l’objet d’un bras de fer entre les industries culturelles et les acteurs de l’Internet. Car c’est lui qui impose désormais aux YouTube, Facebook et autres Dailymotion une nouvelle responsabilité, cette fois directe, vis-à-vis de contenus soumis au droit d’auteur qui auraient été piratés. Bénéficiant jusqu’alors de la responsabilité limitée et indirecte que leur conférait la directive européenne de 2000 sur le commerce électronique (2), les hébergeurs du Web sont maintenant tenus de « fourni[r] leurs meilleurs efforts (…) pour garantir l’indisponibilité d’œuvres et autres objets protégés » et de « bloquer l’accès [à ces contenus] faisant l’objet de la notification ou [de] les retirer de leurs sites Internet ».
Autrement dit, les GAFAM américains, leurs homologues chinois BATX et tous les autres acteurs du Net réalisant un chiffre d’affaires annuel supérieur à 10 millions d’euros n’auront pas d’autres choix que de généraliser la reconnaissance de contenus en ligne, et donc le « filtrage » de l’Internet – même si cette directive « Copyright » ne mentionne pas explicitement ce mot, préférant utiliser les termes « bloquer » ou « blocage ». De l’aveu même du législateur européen exprimé dans cette directive « Droit d’auteur » et de son article 17 « border line », il y a de sérieux risques de dommages collatéraux sur « les droits fondamentaux inscrits dans la Charte des droits fondamentaux de l’Union européenne, notamment la liberté d’expression et la liberté des arts » (3). Comment dès lors définir les « meilleures pratiques » à adopter, afin de garantir la liberté d’expression des utilisateurs du Net et d’éviter la censure non justifiée au nom de la sacro-sainte propriété intellectuelle ? C’est ce sur quoi discutent les parties prenantes lors de ces « réunions de dialogue » qui se tenaient au moins tous les mois – depuis le 15 octobre 2019 jusqu’au confinement – sous la houlette de l’unité « Copyright » (4) dirigée par le juriste italien Marco Giorello (photo de gauche). Avec la crise sanitaire, aucune réunion ne s’était tenue en mars et avril. Au cours des six premières réunions à Bruxelles, les organisations d’utilisateurs – telles que le Bureau européen des unions de consommateurs (Beuc), dont sont membres en France l’UFC-Que choisir et le CLCV – ont appelé la Commission européenne à « s’assurer que le contenu utilisé légitimement n’est pas bloqué, y compris lorsque ce contenu est téléchargé sous des exceptions et des limitations au droit d’auteur » et à « élaborer des solutions pour prévenir ou réduire les demandes abusives ». Dans le dernier « Discussion paper » que Edition Multimédi@ a consulté (5), et datant de la sixième réunion du 10 février dernier, certains intervenants ont mis en garde Bruxelles sur le filtrage obligatoire car « les technologies utilisées aujourd’hui ont des limites importantes en ce qui concerne la reconnaissance des utilisations légitimes [des contenus en ligne], y compris les utilisations en vertu des exceptions et des limitations du droit d’auteur » (6). Des participants ont également estimé qu’« une plus grande transparence est nécessaire en ce qui concerne le contenu bloqué ou supprimé, ainsi que les données stockées par les fournisseurs de services de partage de contenu en ligne ».
Le blocage de l’article 17 ne risque-t-il pas de devenir le point de… blocage, justement, de ces discussions européennes ? La France, elle, reste décidée à être le premier pays à transposer la directive « Copyright » et son article controversé qu’elle a fortement contribué à élaborer au nom de « l’exception culturelle ». Alors que cette disposition de filtrage a été introduite aux articles 16 et 17 du projet de loi sur l’audiovisuel (7), dont l’examen devrait reprendre d’ici l’été, le gouvernement français entend peser au niveau européen.

CSPLA, Hadopi et CNC : mission II
Le 13 janvier dernier, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – du ministère de la Culture – a confié au conseiller d’Etat Jean-Philippe Mochon une seconde mission sur la reconnaissance des contenus. Et ce, dans la foulée de son premier rapport sur ce thème publié en début d’année (8). Cette fois, son deuxième rapport – réalisé à nouveau avec l’Hadopi et le CNC (9) et attendu « d’ici l’automne 2020 » – se focalisera notamment sur cet article 17 de la directive « Copyright » en vue d’être porté à la connaissance de la Commission européenne. @

Charles de Laubier

Brainstorming politique et législatif sur les multiples enjeux de l’intelligence artificielle

Il ne se passe pas un mois sans que l’intelligence artificielle (IA) ne fasse l’objet d’un rapport, d’un livre blanc, ou d’une déclaration politique. Il en va pour les uns de la « souveraineté », pour les autres de droit de propriété intellectuelle, ou encore de révolution numérique, c’est selon. Et après ?

La Commission européenne a publié le 19 février – dans le cadre de la présentation de sa stratégie numérique (1) – son livre blanc intitulé « Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance » (2), soumis à consultation publique jusqu’au 19 mai (3). En France, le 7 février, c’était le Conseil supérieur de la propriété littéraire et artistique (CSPLA) qui publiait son rapport sur l’IA et la culture au regard du droit d’auteur (4). En octobre 2019, l’OCDE (5) présentait son rapport « L’intelligence artificielle dans la société » (6). Le gouvernement français, lui, présentait à l’été 2019 sa stratégie économique d’IA (7), dans le prolongement du rapport Villani de 2018.

Contrôler les « systèmes d’IA à haut risque »
Quels que soient les initiatives et travaux autour de l’intelligence artificielle, les regards se tournent vers le niveau européen lorsque ce n’est pas à l’échelon international. Appréhender l’IA d’un point de vue politique et/ou réglementaire nécessite en effet une approche transfrontalière, tant les enjeux dépassent largement les préoccupations des pays pris isolément. Ainsi, la Commission européenne et l’OCDE se sont chacune emparées du sujet pour tenter d’apporter des réponses et un cadre susceptible de s’appliquer à un ensemble de plusieurs pays. La présidente de la Commission européenne, Ursula von der Leyen (photo), s’était engagé à ouvrir dans les 100 premiers jours de son mandat le débat sur « l’intelligence artificielle humaine et éthique » et sur l’utilisation des méga données (Big Data). Le livre blanc sur l’IA, un document d’une trentaine de pages, expose ses propositions pour promouvoir le développement de l’intelligence artificielle en Europe tout en garantissant le respect des droits fondamentaux. Cette initiative avait été enclenchée il y a près de deux ans par l’ancienne Commission « Juncker » et sa stratégie européenne pour l’IA (8) présentée en avril 2018. Concrètement, il s’agit maintenant pour la Commission « Leyen » de limiter au maximum les risques potentiels que l’IA peut induire, tels que « l’opacité de la prise de décisions, la discrimination fondée sur le sexe ou sur d’autres motifs, l’intrusion dans nos vies privées ou encore l’utilisation à des fins criminelles » (dixit le livre blanc). « Par exemple, des biais dans des algorithmes ou des données de formation utilisés dans des systèmes de recrutement reposant sur l’IA pourraient conduire à des résultats qui seraient injustes et discriminatoires et, partant, illégaux en vertu de la législation de l’UE en matière de non-discrimination ». La Commission européenne compte mettre en place « un écosystème d’excellence » en rationalisant la recherche, en encourageant la collaboration entre les Vingt-sept, et en accroissant les investissements dans le développement et le déploiement de l’IA. Cet écosystème « IA » devra être basé sur la confiance. Aussi, la Commission européenne envisage la création d’un « cadre juridique » qui tienne compte des risques pour les droits fondamentaux et la sécurité. La précédente Commission « Juncker » avait déjà balisé le terrain avec un groupe d’experts de haut niveau – 52 au total (9) – dédié à l’intelligence artificielle, dont les travaux ont abouti à des lignes directrices en matière d’éthique « pour une IA digne de confiance » (10) que des entreprises ont mises à l’essai à la fin de 2019 dans le cadre du forum European AI Alliance constitué à cet effet par 500 membres (11).
Mais la Commission européenne ne veut pas effrayer les entreprises sur un cadre règlementaire trop stricte au regard de cette technologie émergente. « Un cadre juridique devrait reposer sur des principes et porter avant tout sur les systèmes d’IA à haut risque afin d’éviter une charge inutile pour les entreprises qui veulent innover. (…) Les systèmes d’IA à haut risque doivent être certifiés, testés et contrôlés, au même titre que les voitures, les cosmétiques et les jouets. (…) Pour les autres systèmes d’IA, la Commission propose un système de label non obligatoire lorsque les normes définies sont respectées. Les systèmes et algorithmes d’IA pourront tous accéder au marché européen, pour autant qu’ils respectent les règles de l’UE », a prévenu la Commission européenne. Encore faut-il que savoir comment caractériser une application d’IA « à haut risque ».

Une approche internationale nécessaire
Selon le livre blanc, c’est le cas si cette dernière cumule deux critères : l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir (santé, transports, énergie, certains services publics, …) ; l’application d’IA est de surcroît utilisée de façon telle que des risques importants sont susceptibles d’apparaître (risque de blessure, de décès ou de dommage matériel ou immatériel, …). L’Europe entend jouer « un rôle moteur, au niveau mondial, dans la constitution d’alliances autour de valeurs partagées et dans la promotion d’une utilisation éthique de l’IA ». Il faut dire que la Commission européenne n’est pas la seule – loin de là – à avancer sur le terrain encore vierge de l’IA.

5 principes éthiques édictés par l’OCDE
L’OCDE, dont sont membres 37 pays répartis dans le monde (des pays riches pour la plupart), s’est aussi emparée de la question de l’IA en élaborant des principes éthiques. Cette organisation économique a elle aussi constitué son groupe d’experts sur l’intelligence artificielle (AIGO), qui, le 22 mai 2019, a amené l’OCDE à adopter des principes sur l’IA, sous la forme d’une recommandation (12) considérée comme « le premier ensemble de normes internationales convenu par les pays pour favoriser une approche responsable au service d’une IA digne de confiance ». Après en avoir donné une définition précise (voir encadré ci-dessous), l’OCDE recommande à ses Etats membres de promouvoir et de mettre en œuvre cinq grands principes pour « une IA digne de confiance », à savoir :
• 1. Croissance inclusive, développement durable et bienêtre (renforcement des capacités humaines et de la créativité humaine, inclusion des populations sous-représentées, réduction des inégalités économiques, sociales, entre les sexes et autres, et protection des milieux naturels, favorisant ainsi la croissance inclusive, le développement durable et le bien-être).
• 2. Valeurs centrées sur l’humain et équité (liberté, dignité, autonomie, protection de la vie privée et des données, non-discrimination, égalité, diversité, équité, justice sociale, droits des travailleurs, attribution de la capacité de décision finale à l’homme).
• 3. Transparence et explicabilité (transparence et divulgation des informations liées aux systèmes d’IA, favoriser une compréhension générale des systèmes d’IA, informer les parties prenantes de leurs interactions avec les systèmes d’IA, permettre aux personnes subissant les effets néfastes d’un système d’IA de contester les résultats sur la base d’informations claires et facilement compréhensibles).
• 4. Robustesse, sûreté et sécurité (veiller à la traçabilité, notamment pour ce qui est des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA, approche systématique de la gestion du risque, notamment ceux liés au respect de la vie privée, à la sécurité numérique, à la sûreté et aux biais).
• 5. Responsabilité (du bon fonctionnement des systèmes d’IA et du respect de ces principes).
Le G20 a ensuite approuvé ces principes dans sa déclaration ministérielle des 8-9 juin 2019 sur le commerce et l’économie numériques (13), en présence également du Chili, de l’Egypte, de l’Estonie, des Pays-Bas, du Nigéria, du Sénégal, de Singapour, de l’Espagne et du Viet Nam. « Afin de favoriser la confiance du public dans les technologies de l’IA et de réaliser pleinement leur potentiel, nous nous engageons à adopter une approche de l’IA axée sur l’être humain, guidée par les principes de l’IA du G20 tirés de la recommandation de l’OCDE sur l’IA, qui sont annexés et qui ne sont pas contraignants », ont déclarés les ministres de l’économie numérique et/ou du commerce des pays signataires.
D’autres organisations multilatérales mènent aussi des réflexions sur l’intelligence artificielle, telles que le Conseil de l’Europe, l’Unesco (14), l’OMC (15) et l’UIT (16). Au sein de l’ONU, l’UE participe au suivi du rapport du groupe de haut niveau sur la coopération numérique, et notamment de sa recommandation sur l’IA. Le 21 novembre dernier, l’Unesco a été mandatée à l’unanimité par ses 193 Etats membres pour élaborer avec l’aide d’experts des normes éthiques en matière d’IA. « Parce que l’intelligence artificielle dépasse le registre de l’innovation, c’est une rupture, une rupture anthropologique majeure qui nous place devant des choix éthiques », a lancé sa directrice générale, la Française Audrey Azoulay, lors de la 40e Conférence générale de cette agence de l’ONU.
En France, le CSPLA s’est penché sur l’IA au regard du droit d’auteur. Dans leur rapport publié en février, les deux professeures – Alexandra Bensamoun et Joëlle Farchy – suggèrent « la création d’un droit spécial du droit d’auteur (pour manifester la parenté évidente de ces créations avec les œuvres classiques), assis sur les critères classiques dans une lecture renouvelée ». Il s’agit d’un choix politique, comme ce fut le cas pour le logiciel. Une autre option avancée par les auteures serait de créer un droit spécifique, en droit d’auteur et à la lisière d’un droit voisin, en s’inspirant du régime de l’œuvre posthume.

Quel droit pour l’œuvre créée par une IA ?
Le droit privatif sur les productions créatives d’une IA pourrait ensuite consister en un droit sui generis, sur le modèle du droit accordé au producteur de bases de données, avec un objectif affiché, celui de soutenir et de protéger l’investissement. « La publication de notre rapport sur l’IA permet de contribuer utilement à la réflexion européenne et internationale sur ce sujet. Il sera d’ailleurs traduit prochainement en anglais dans ce but », indique à Edition Multimédi@ Olivier Japiot, président du CSPLA. @

Charles de Laubier

ZOOM

La définition de l’IA, par l’OCDE
« Un système d’intelligence artificielle (ou système d’IA) est un système automatisé qui, pour un ensemble donné d’objectifs définis par l’homme, est en mesure d’établir des prévisions, de formuler des recommandations, ou de prendre des décisions influant sur des environnements réels ou virtuels. Les systèmes d’IA sont conçus pour fonctionner à des degrés d’autonomie divers ». @