Commission européenne : la face digitale d’UVDL

En fait. Le 16 juillet, l’Allemande Ursula von der Leyen (UVDL) a été élue par les eurodéputés – d’une courte majorité (52,25 %) – à la présidence de la Commission européenne, où elle remplacera le 1er novembre prochain Jean-Claude Juncker.
Elle a présenté son agenda 2019-2024 pour l’Europe, encore plus digitale.

En clair. C’est la première femme élue à la tête de la Commission européenne (1). Il y a dix ans, alors ministre du Travail d’Angela Merkel, Ursula von der Leyen (UVDL) faisait du blocage de sites web pédopornographiques son cheval de bataille. Ce qui lui a valu le surnom de « Zensursula » (2). C’est face à elle que le Parti pirate allemand rencontre un succès électoral, jusqu’à son apogée en 2013. Avec aujourd’hui la lutte contre les contenus illicites en ligne et la cyberhaine, la chasse aux fausses nouvelles ou encore les mesures contre le piratage des œuvres protégées par le droit d’auteur, c’est à se demander si « Censursula » n’est finalement pas la bonne personne pour prendre la tête de la Commission européenne. Pour l’heure, l’ex-ministre allemande de la Défense (décembre 2013-juillet 2019) – issue du parti conservateur des chrétiens démocrates (CDU) – fait du numérique une de ses six priorités de son quinquennat européen (novembre 2019-novembre 2024). Dans ses « orientations politiques pour la prochaine Commission européenne » qu’elle a détaillées devant les eurodéputés le 16 juillet (3), le digital apparaît en troisième place de ses six ambitions. UVDL déclare que « l’Europe doit mener la transition vers une planète saine et un nouveau monde numérique ». Alors que la « taxe Moscovici » applicable aux GAFA est déjà sur son bureau à Bruxelles (lire en Une), elle se veut déterminée : « Je défendrai l’équité fiscale, que ce soit pour les entreprises physiques ou numériques, et je veillerai à ce que la fiscalité des Big Tech soit une priorité ».
Et de prévenir : « Si d’ici la fin de 2020 il n’y a toujours pas de solution mondiale [via l’OCDE, ndlr] pour une taxe numérique équitable, l’UE devrait agir seule ». Sous le leitmotiv « Une Europe digne de l’ère numérique », UVDL entend faire de l’intelligence artificielle (IA), de l’Internet des objets, des réseaux 5G ou encore de la blockchain, sur fond de « souveraineté technologique », des leviers de croissance pour l’Europe. « Au cours de mes 100 premiers jours au pouvoir, je proposerai une législation pour une approche européenne coordonnée sur les implications humaines et éthiques de l’intelligence artificielle. (…) Une nouvelle loi sur les services numériques – Digital Services Act – améliorera nos règles de responsabilité et de sécurité pour les plateformes, les services et les produits numériques », a-t-elle promis. @

Explicabilité des algorithmes : à quel niveau faut-il mettre le curseur de la régulation ?

Le néologisme « explicabilité » prend de l’ampleur à l’heure des algorithmes
et de l’intelligence artificielle. En Europe, France comprise, la loi exige déjà qu’ils doivent être explicables dans un souci de transparence et de responsabilisation. La question est de savoir s’il faut encore plus réguler.

Par Winston Maxwell* et David Bounie**, Telecom Paris, Institut polytechnique de Paris

lL’« explicabilité » est devenue un principe incontournable de la future bonne régulation des algorithmes. L’explicabilité figure dans les recommandations que l’OCDE (1) a adoptées le 22 mai (2)
sur l’intelligence artificielle (IA), dans
la communication de la Commission européenne du 8 avril (3), dans le rapport du groupe d’experts correspondant (4),
et dans le rapport Villani (5). Garante de plus de transparence, l’explicabilité des algorithmes n’est pas un concept nouveau.

Explicabilité : déjà présente dans la loi
Dans les années 1980 et 1990, de nombreux travaux scientifiques en France et aux Etats-Unis ont étudié l’explicabilité de l’intelligence artificielle, explicabilité jugée nécessaire pour promouvoir l’acceptabilité des systèmes « experts » (6). L’année
2018 marque le renouveau du concept. Le rapport Villani évoque la nécessité d’« ouvrir les boîtes noires » (7) ; le groupe d’experts européens souligne l’importance de l’explicabilité pour la confiance dans les systèmes IA (8). Que recouvre ce terme qui ne figure nulle part dans les dictionnaires (9) ? Les nouvelles recommandations de l’OCDE font la meilleure synthèse, se focalisant sur les finalités des explications (10). Les législateurs français et européen n’ont pas attendu les conclusions de l’OCDE pour imposer des obligations de transparence.
Le règlement général sur la protection des données (RGPD) impose l’obligation de fournir « des informations utiles concernant la logique sous-jacente » de toute décision automatique entraînant un effet important sur la personne (11). La récente révision de
la Convention 108 du Conseil de l’Europe (12) confère aux personnes le droit d’obtenir connaissance « du raisonnement qui sous-tend le traitement ». La loi « Lemaire » et ses décrets d’application imposent à l’administration l’obligation de communiquer à l’individu les « règles définissant tout traitement » algorithmique et les « principales caractéristiques de sa mise en oeuvre » (14). Ces mêmes textes imposent aux plateformes l’obligation de communiquer les « critères de classement », ainsi que leur
« principaux paramètres » (15). Au niveau européen, le futur règlement « Plateformes » – surnommé aussi P2B (16) – imposera aux places de marché et aux moteurs de recherche l’obligation d’indiquer les « principaux paramètres » qu’ils utilisent pour classer les biens et les services sur leurs sites. Ce règlement, qui devait être adopté
le 20 juin 2019 par le Conseil de l’Union européenne, n’imposera pas en revanche la communication de l’algorithme lui-même, protégé par la directive sur le secret des affaires (17). Avec autant de dispositions déjà en place, faut-il encore plus réguler ? L’explicabilité est un problème qui dépasse le débat sur la transparence des plateformes. Elle touche à des secteurs clés de l’industrie, et risque de freiner le déploiement des algorithmes si les contours de l’explicabilité ne sont pas bien définis par le régulateur. La difficulté est à la fois économique et juridique. Sur le plan économique, l’utilisation des algorithmes les plus performants sera freinée si leur fonctionnement n’est pas suffisamment compris par les utilisateurs et les régulateurs. Par exemple, dans la lutte contre le blanchiment d’argent, les algorithmes les plus performants sont également les plus opaques. Or, les banques et leurs régulateurs n’adopteront ces algorithmes que si leur fonctionnement est compris et auditable.
Faire parler ces boîtes noires est donc une condition nécessaire à leur adoption par l’industrie et par l’administration. L’explicabilité est également déterminante pour des questions de responsabilité. En cas d’accident, de discrimination ou toute autre
« mauvaise » décision algorithmique, il sera essentiel d’auditer le système afin d’identifier la source de la mauvaise décision, corriger l’erreur pour l’avenir, et déterminer les éventuelles responsabilités. De plus, l’exploitant du système doit être
en mesure de démontrer sa conformité avec le RGPD et d’autres textes applicables. Comment démontrer une conformité si le fonctionnement interne de l’algorithme reste énigmatique pour son exploitant ? Une documentation expliquant le fonctionnement de l’algorithme sera nécessaire.

Apprentissage machine et interprétation
Un algorithme d’apprentissage machine (machine learning) est l’aboutissement de différentes phases de développement et de tests : on commence par la définition du problème à résoudre, le choix du modèle, le choix des données d’apprentissage, le choix des données de test et de validation, les ajustements des paramètres (tuning),
et le choix des données d’exploitation. Le modèle qui émerge après son apprentissage sera très performant mais presqu’aussi inscrutable que le cerveau humain. Si les théories mathématiques sous-jacentes aux modèles utilisés sont bien comprises, il
est délicat – pour ne pas dire souvent impossible – de comprendre le fonctionnement interne de certains modèles. C’est le cas bien souvent de certains modèles tels que les machines à vecteurs de support, les forêts aléatoires, les arbres améliorés par gradient, et les algorithmes d’apprentissage profonds tels que les réseaux de neurones artificiels, les réseaux de neurones convolutifs et les réseaux de neurones récurrents difficiles à interpréter.

Transparence, auditabilité et explicabilité
Le concept d’explicabilité – ou « explainable AI » (XAI) en anglais) –, parfois désigné par intelligibilité, est un thème de recherche en informatique en plein essor. Il est en particulier soutenu par un programme ambitieux de l’agence du département de la Défense des Etats-Unis, Darpa (18). Les recherches s’orientent sur le développement de méthodes qui aident à mieux comprendre ce que le modèle a appris, ainsi que des techniques pour expliquer les prédictions individuelles. Les solutions techniques se regroupent autour de deux familles : l’identification des facteurs les plus importants utilisés par le modèle (« saliency approach »), et la perturbation des données d’entrée afin de comprendre l’impact sur les décisions de sortie (« perturbation approach »).
Ces approches permettront la visualisation des facteurs déterminants dans la prise
de décision algorithmique.
Aux concepts d’interprétabilité et d’explicabilité sont associés ceux de transparence et d’« auditabilité » des algorithmes. L’idée est de rendre publics, ou bien de mettre sous séquestre, des algorithmes en vue les auditer pour étudier des difficultés potentielles. Comme illustré dans le débat sur le règlement « Plateformes » (P2B), imposer la communication des algorithmes se heurterait à la protection des secrets d’affaires, protégée par la directive européenne du 8 juin 2016 (19). Cependant, il existe des solutions intermédiaires, qui permettraient à la fois un audit approfondi du système
tout en protégeant le secret des affaires. La Cnil recommande de mettre en place
une plateforme nationale d’audit des algorithmes (20). L’une des difficultés pour le régulateur est l’impossibilité de répliquer le fonctionnement d’un algorithme à un moment T. Un algorithme d’apprentissage machine peut se mettre à jour régulièrement, apprenant à améliorer sa performance au fur et à mesure, en fonction des nouvelles données analysées. Ainsi, l’algorithme pourra donner un score de 93,87 % le lundi, et un score de 94,28 % le jeudi, s’appuyant sur exactement les mêmes données d’entrée. Cette absence de reproductibilité peut poser problème pour un régulateur en charge de valider un système avant sa mise en service, car le modèle changera lors de chaque nouvelle phase d’apprentissage. Pour un algorithme de moteur de recherche, ce n’est pas grave. Mais pour un algorithme pouvant provoquer des dommages corporels en cas d’erreur, cette évolutivité posera problème.
Exiger une transparence totale sur le fonctionnement de l’algorithme ne servirait à rien. Une telle exigence se heurterait à la protection du secret des affaires et, dans la plupart des cas, ne rendrait pas l’algorithme plus intelligible, même pour les initiés. La réglementation doit plutôt se concentrer sur les différentes finalités de l’explicabilité et les différents publics visés – grand public, régulateur, expert judiciaire.
Une explication envers un demandeur de crédit pourrait privilégier une approche dite
« contrefactuelle », par laquelle l’individu pourrait tester d’autres hypothèses d’entrée pour voir l’effet sur son score algorithmique.
Les outils d’explicabilité envers un régulateur seraient plus élaborés, permettant une explication du fonctionnement global de l’algorithme (dit « global explainability »), ainsi qu’une explication concernant chaque décision particulière (« local explainability »).
Les outils mis à la disposition du régulateur pourraient inclure des cartographies de pertinence (saliency maps), et autres outils de visualisation statistique. Enfin, en cas d’audit, l’exploitant de l’outil devra être en mesure de donner accès à l’ensemble de
la documentation concernant l’algorithme et les données d’apprentissage, et permettre au régulateur de conduire des tests, notamment des tests de perturbation de données d’entrée.
L’explicabilité, comme la régulation, est source de coûts. Un fort niveau d’explicabilité peut limiter le type de modèle utilisé, conduisant à des pertes de performance. Cependant, certains estiment que le compromis entre performance et explicabilité n’est que temporaire, et disparaîtra avec le progrès technique. La régulation est également source de coûts, surtout lorsque la régulation ne suit pas l’évolution technologique.

Privilégier une régulation « bacs à sable »
Ainsi, la Commission européenne et le Conseil d’Etat recommandent la régulation expérimentale – des « bacs à sable » de régulation – permettant de tester différentes approches de régulation pour déterminer celle qui sera la plus efficace. Le principe européen de la proportionnalité guidera le niveau de régulation. Le niveau d’exigences en matière d’explicabilité augmentera avec le niveau de risques. Pour certains usages, aucune explicabilité ne sera nécessaire. Pour un algorithme qui apprend à jouer aux échecs, le fonctionnement interne ne soulève pas d’enjeu réglementaire. Par conséquent, la boîte noire pourra rester fermée. @

* Winston Maxwell, ancien avocat associé du cabinet
Hogan Lovells, est depuis juin 2019 directeur d’étude, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.
** David Bounie est professeur d’économie
à Telecom Paris, Institut polytechnique de Paris.

Culture : la Convention de 2005 apprivoise Internet

En fait. Du 5 au 7 juin, au siège de l’Unesco à Paris, s’est tenue une nouvelle conférence autour de la Convention de 2005 sur « la protection et la promotion
de la diversité des expressions culturelles ». Il s’agit notamment d’adapter à l’ère numérique ce texte ratifié par 45 pays et l’Union européenne.

En clair. « Promouvoir la diversité des expressions culturelles à l’ère numérique ». L’Unesco, organisation des Nations unies pour l’éducation, la science et la culture, poursuit depuis plus de six ans maintenant (1)) l’objectif d’étendre la Convention de 2005 à Internet. Cela passe par une feuille de route (2) et des directives dites opérationnelles (3) à mettre en oeuvre en 2020 et 2021. Il s’agit d’adapter les politiques publiques culturelles aux domaines du digital, au moment où des questions se posent sur la réforme de la régulation des médias, la concentration des contenus et des plateformes numériques, l’impact des algorithmes dans l’accès aux contenus culturels, ou encore sur l’intelligence artificielle pour la créativité.
« L’un des principaux défis consiste à renforcer la production nationale afin de parvenir à un équilibre entre les contenus locaux, régionaux et internationaux », pointe l’Unesco, actuellement dirigée par la Française Audrey Azoulay (4). Autrement dit, comment éviter que les GAFAN ne remportent la bataille des contenus dans le monde et n’uniformise la culture. D’autant que les Etats-Unis, patrie des géants du Net, ne sont pas signataires de la Convention de 2005 ! Par ailleurs, les Américains exigent d’inclure les services audiovisuels et culturels dans les accords de libre-échange qu’ils signent, alors que des pays comme la France au sein de l’Union européenne le refusent catégoriquement pour préserver une certaine « exception culturelle » (5). La Convention de l’Unesco doit en outre réaffirmer le principe de neutralité technologique et le droit souverain des Etats de formuler, d’adopter et de mettre en oeuvre « des politiques et mesures en matière de protection et de promotion de la diversité des expressions culturelles dans l’environnement numérique ». En creux, il faut éviter, d’après l’Unesco, que les pouvoirs publics ne perdent justement le pouvoir de financement et d’influence dont ils jouissent dans le monde créatif au profit de grands acteurs privés et globaux. Quant au Fonds international pour la diversité culturelle (FIDC), institué par la Convention de 2005, il finance des projets dans plus de 54 pays en développement – notamment dans le cinéma, l’audiovisuel et l’art numérique – mais son budget (7,5 millions de dollars investis depuis 2010), est très limité : seuls 2% des projets soumis sont financés. @

Le marché mondial du cloud est en plein boom, au risque d’échapper aux régulateurs nationaux

Les services de cloud dans le monde devraient franchir cette année la barre des 200 milliards de dollars. Les « as a service » (activité, infrastructure, application, logiciel, …) et les mégadonnées du Big Data font les affaires des prestataires du cloud computing, où les GAFAM s’en donnent à coeur joie.

« Les services en nuage bouleversent vraiment l’industrie.
Les prestataires bénéficient de plus en plus de stratégies cloud-first d’entreprises. Ce que nous voyons maintenant
n’est que le début. D’ici 2022, la croissance de l’industrie
des services infonuagiques sera près de trois fois celle de l’ensemble des services numériques », prévient Sid Nag (photo), vice-président analyste chez Gartner.

Stratégies de cloud-first, voire de cloud-only
Le marché mondial du cloud devrait encore progresser de 17,5 % durant cette année 2019 pour franchir la barre des 200 milliards de dollars, à 214,3 milliards précisément. C’est du moins ce que prévoit le cabinet d’études international Gartner, qui a fait part
de ses projections début avril. Cette croissance exponentielle à deux chiffres a de quoi faire pâlir d’autres secteurs numériques. A ce rythme, après les 200 milliards de dollars franchis cette année, la barre des 300 milliards sera allègrement dépassée en 2022.
Le segment le plus dynamique de ce marché en plein boom est celui du cloud des infrastructures systèmes, appelé IaaS (Infrastructure as a Service), suivi par le cloud des infrastructures d’applications, appelé PaaS (Platform as a Service). La troisième plus forte croissance est aussi celle du premier segment du marché des nuages numériques, à savoir le cloud des services logiciel, appelé SaaS (Software as a Service), qui pèse à lui seul 43,8 % du marché en 2018 et devrait même en représenter 44,6 % en 2022. « D’ici la fin de l’année, plus de 30 % des nouveaux investissements des fournisseurs de technologie dans les logiciels passeront du cloud-firstau cloud-only. Cela signifie que la consommation de logiciels sous licence continuera de chuter, tandis que les modèles de consommation en nuage par abonnement et le SaaS continueront de croître », prévoit Gartner. Les segments du cloud les plus techniques tels que les processus opérationnels, désignés par BPaaS (Business Process as a Service), et le management et la sécurité, désignés a fortiori par MSaaS (Management and Security as a service), continueront de progresser mais dans une moindre mesure par rapport aux autres segments. On retrouve ces tendances d’évolution du marché infonuagiques en France, qui devrait passer de 5,1 milliards de dollars/4,6 milliards d’euros en 2018
à 8,6 milliards de dollars/7,6 milliards d’euros en 2022 (voir tableau ci-dessous). Sur l’Hexagone comme ailleurs, SaaS est le plus gros segment, suivi du BPaaS, de l’IaaS, du PaaS, puis du MSaS.
Selon l’organisme de statistiques européen Eurostat, 26 % des entreprises de l’Union européenne (UE) – soit plus d’une sur quatre – ont acheté des services de cloud computing l’an dernier. La proportion est majoritaire chez les grandes entreprises
(56 %) et bien moindre chez les petites et moyennes entreprises (23 %). La première utilisation qui est faite de ces prestations à distance dans le « nuage informatique » concerne la messagerie électronique (69 %), suivie de près par le stockage des fichiers sous forme dématérialisée (68 %). Viennent ensuite la puissance de calcul achetée pour faire fonctionner leurs propres logiciels (23 %) et l’utilisation de logiciels dans le cloud pour gérer les informations sur la clientèle (29 %).
Pour les entreprises en Europe qui exploitent le Big Data, soit 12 % d’entre elles, les mégadonnées proviennent de sources de données variées : près de la moitié ont d’abord analysé les données de géolocalisation des appareils portables, tels que les smartphones, des connexions sans fil comme le Wifi ou le GPS (49 %). Ensuite, les mégadonnées sont issues des données générées par les médias sociaux et réseaux sociaux (45 %), de dispositifs ou de capteurs intelligents (29 %) ou encore de données provenant d’autres sources (26 %). Si aujourd’hui le Big Data est une expression dépassée par l’IA (l’intelligence artificielle), l’IoT (l’Internet des objets) ou encore la Blockchain, le cloud, lui, prospère tant que les données s’affirment de plus en plus comme le pétrole du XXIe siècle – comme l’a encore montré la 8e édition du Big Data Paris en mars dernier (1).

Amazon et Microsoft en tête, suivis de Google
Le nuage informatique permet aux entreprises de créer un « lac de données », ou Data Lake (stockage des données dans leurs formats originaux ou peu modifiés), à partir duquel l’analyse des données et de leur valorisation peut s’opérer (data mining, marchine learning, business intelligence, cognitive search, master data management, …). Plus de dix ans après que l’expression « Big Data » ait été prononcée – le 22 décembre 2008 dans leur livre blanc (2) par trois chercheurs universitaires de la Computing Research Association américaine –, le cloud est un marché multimilliardaire à la croissance insolente. On estime que le tournant du cloud-first a été pris au cours des années 2013-2016, avec les GAFAM qui se sont engouffrés sur ce marché porteur pour leur plus grand profit. Amazon vient de doubler ses bénéfice grâce au cloud sur le premier trimestre 2019. Sa filiale AWS (Amazon Web Services), qui compte parmi ses clients Apple, Netflix ou encore Pinterest, est le numéro un mondial du secteur. Microsoft arrive en deuxième position grâce à Azure. Google Cloud est aussi à l’offensive avec le Français Sébastien Marotte, son vice-président pour la région EMEA. Le géant du Net compte parmi ses clients européens Airbus, Alstom, Sky, BNP Paribas, Drouot Digital, GRDF, Philips ou encore Veolia (3). L’entrée en vigueur il y a près d’un an en Europe – le 25 mai 2018 – du règlement général sur la protection des données (RGPD) ne semble pas freiner les ardeurs des GAFAM qui ont plus que jamais la tête dans les nuages. « Le “Cloud Act” américain est-il une menace pour les libertés des citoyens européens ? », s’était interrogé l’avocat franco-américain Winston Maxwell dans Edition Multimédi@ après l’affaire controversée « Microsoft » (4). Le Cloud Act fut adopté aux Etats-Unis il y a plus d’un an maintenant (5) – promulgué le 23 mars 2018. Ce texte de loi fédéral et sécuritaire américain prévoit une base juridique permettant
au gouvernement des Etats-Unis de conclure des accords avec des gouvernements étrangers concernant l’accès aux données détenues par les prestataires de services américains, et vice versa. En clair : les autorités publiques et les agences de renseignement américaines sont en droit d’obtenir – des opérateurs télécoms, des fournisseurs d’accès à Internet (FAI) et des fournisseurs de services de cloud – des informations et/ou enregistrements stockés sur leurs serveurs, que ces données et contenus « soient localisés à l’intérieur ou à l’extérieur des Etats-Unis ».

Cloud Act américain et RGPD européen
En outre, ce Cloud Act permet aux Etats-Unis de passer des accords bilatéraux avec d’autres pays, lesquels pourront à leur tour obtenir des informations de la part des fournisseurs de services américains. Or l’article 48 du RGDP dispose que « toute décision d’une juridiction ou d’une autorité administrative d’un pays tiers exigeant d’un responsable du traitement ou d’un sous-traitant qu’il transfère ou divulgue des données à caractère personnel ne peut être reconnue ou rendue exécutoire de quelque manière que ce soit qu’à la condition qu’elle soit fondée sur un accord international ». Mais dans son amicus brief de 2017 dans l’affaire « Microsoft » (6), la Commission européenne estime que le RGPD tolérait – malgré son article 48 – des transmissions de données notamment sur le fondement de l’intérêt légitime ou de l’intérêt public. @

Charles de Laubier

Les priorités 2019 du nouveau président du CSPLA

En fait. Le 21 janvier prochain se réunira le prochain « trilogue » de négociation sur le projet de directive européenne « Droit d’auteur dans le marché unique numérique ». Pendant ce temps-là, le nouveau président du CSPLA, Olivier Japiot, a fixé les priorités de son mandat de trois ans.

En clair. Edition Multimédi@ a demandé ses priorités pour l’année 2019 à Olivier Japiot, conseiller d’Etat nommé le 28 novembre dernier – par arrêté de la ministre de
la Justice et du ministre de la Culture (publié au JO du 4 décembre) – président du Conseil supérieur de la propriété littéraire et artistique (CSPLA). « En principe, devraient être présentés à la réunion plénière du printemps prochain les trois rapports suivants : “Ventes passives” [c’est-à-dire les ventes non sollicitées par le vendeur de contenus audiovisuels à l’échelle transfrontière au sein du marché unique numérique, ndlr], “Preuve de l’originalité” [d’une oeuvre pour justifier de sa protection légale, y compris sur Internet, ndlr], “Intelligence artificielle” [dans les secteurs de la création culturelle, notamment lorsque l’IA se substitue à l’humain, ndlr] », nous at- il répondu. Quant à la mission que son prédécesseur, Pierre- François Racine, lui avait confiée
il y a tout juste un an sur l’impression 3D, elle devrait déboucher au cours de ce 1er semestre 2019 sur l’adoption d’« une charte de bonnes pratiques dans le domaine de l’art ». Cette mission-là a déjà le rapport qu’Olivier Japiot lui-même avait rendu au CSPLA en juin 2016 et intitulé « L’impression 3D et le droit d’auteur : des menaces à prévenir, des opportunités à saisir ». Il y préconisait justement d’« établir une charte des bonnes pratiques afin notamment de les inciter à afficher systématiquement un appel pédagogique au respect de la propriété intellectuelle » pour prévenir du piratage,
« principalement sur les oeuvres d’art plastique » (1). La charte « Impression 3D », établie avec Vincent Ploquin-Duchefdelaville, a pris du retard car elle devait être proposée le 31 juillet dernier (2). Concernant l’IA, le rapport d’Alexandra Bensamoun
et de Joëlle Farchy lui sera remis fin avril. Le rapport sur la preuve de l’originalité, par Josée-Anne Bénazeraf et Valérie Berthez, est attendu pour fin mars. Celui sur les ventes passives devait être remis à l’automne dernier. Le CSPLA a déjà publié de nombreux rapports (blockchain, licences libres, données et contenus numériques, etc.). « Nous proposerons des coopérations sur des sujets d’intérêt commun, notamment en matière d’études et de manifestations, à des partenaires (…) tels que l’Hadopi, le CNAC (3), le Conseil national du numérique et l’INPI (4) », a aussi écrit Olivier Japiot dans un courrier (5) adressé aux membres du CSPLA le 14 décembre. @