La Commission européenne 2019-2024 part en quête d’un « leadership numérique » face aux GAFA et aux BATX

Entre le marteau des géants américains de l’Internet et l’enclume de leurs homologues chinois, la nouvelle Commission européenne, présidée par Ursula von der Leyen et installée depuis le 1er décembre, va tenter de s’imposer dans le monde numérique. Pas moins de quatre commissaires ont le digital au coeur de leurs attributions.

C’est d’abord sur les épaules de la Danoise Margrethe Vestager (photo) que repose la charge de faire « une Europe préparée à l’ère numérique ». Cet objectif est justement le libellé de ses attributions au sein de la nouvelle Commission européenne, dont elle a été nommée viceprésidente exécutive. Très redoutée des GAFA qu’elle a mis pour certains à l’amende lorsqu’elle était commissaire européenne en charge de la concurrence (2014-2019), la voici en haut de l’affiche dans cette Commission « Leyen » qui remplace la Commission « Juncker » et qui a pris ses quartiers à Bruxelles depuis le 1er décembre pour un mandat de cinq ans (2019-2024). Margrethe Vestager devra composer avec trois autres commissaires européens qui auront eux aussi affaire avec la stratégie digitale du Vieux Continent : la Bulgare Mariya Gabriel qui se retrouve avec le portefeuille « Innovation et Jeunesse » (après avoir été auparavant en charge de l’Economie et de la Société numériques), le Français Thierry Breton qui fait son entrée à Bruxelles avec la responsabilité du Marché intérieur, et le Belge Didier Reynders qui est aussi un nouveau venu pour prendre en charge la Justice.

Vers une nouvelle « loi sur les services numériques »
La réussite ou pas de « l’Europe digitale » dépend donc de ce « quadriumvirat » où chacun a de près ou de loin le numérique dans son portefeuille. « La transition numérique aura des répercussions sur tous les aspects de notre économie et de notre société. Votre tâche consistera à faire en sorte que l’Europe saisisse pleinement le potentiel de l’ère numérique et renforce sa capacité industrielle et d’innovation. Ce sera un élément-clé du renforcement de notre leadership technologique et de notre autonomie stratégique », a écrit la présidente de la nouvelle Commission européenne, Ursula von der Leyen, dans la lettre de mission qu’elle a adressée à Margrethe Vestager. Cela passera par une nouvelle stratégie à long terme pour l’avenir industriel de l’Europe, une maximisation de l’investissement dans la recherche et l’innovation, et une nouvelle stratégie pour les PME et les start-up, « notamment en réduisant la charge réglementaire et en leur permettant de tirer le meilleur parti de la numérisation ». Pour les cent premiers jours du mandat de Margrethe Vestager, la présidente de la Commission européenne lui demande de « coordonner les travaux sur une approche européenne de l’intelligence artificielle (IA), y compris ses Continuer la lecture

Cédric O, porte-voix « French Tech » d’Emmanuel Macron, est secrétaire d’Etat chargé du Numérique depuis 6 mois

Cédric O fut le coorganisateur de la soirée « French Tech » à Las Vegas en 2016, événement qui donna le coup d’envoi de la campagne présidentielle d’Emmanuel Macron. Depuis plus de 6 mois maintenant, l’ancien trésorier d’En marche (devenu LREM) est au pouvoir et pousse les feux sur le numérique et surtout les start-up.

Six mois maintenant qu’il est à Bercy où il a remplacé Mounir Mahjoubi. Cédric O (photo) est l’un des plus jeunes (36 ans) membres du gouvernement, secrétaire d’Etat chargé du Numérique auprès du ministre de l’Economie et des Finances (Bruno Le Maire) et du ministre de l’Action et des Comptes publics (Gérald Darmanin). Ce portefeuille « par délégation », il l’a remporté à la faveur de l’élection présidentielle d’Emmanuel Macron, qui fut lui-même ministre de l’Economie, de l’Industrie et du Numérique (août 2014 à août 2016). Comme Mounir Mahjoubi, Cédric O a été désigné par le locataire de l’Elysée en raison de son engagement politique à ses côtés lorsque ce dernier était candidat aux plus hautes fonctions de l’Etat. Proche conseiller d’Emmanuel Macron, Cédric O a remplacé le 31 mars dernier Mounir Mahjoubi, lequel venait de quitter le gouvernement en vue de se porter candidat aux élections municipales à Paris en 2020 – la macronie ayant finalement préféré investir Benjamin Griveaux. Mais Mounir Mahjoubi avait entre temps retrouvé son siège de député de Paris (1) où il avait été élu en juin 2017, avec comme suppléante une certaine… Delphine O, la soeur cadette de Cédric O.

Celui qui murmure « digital » à l’oreille de Macron
Celle-ci est devenue députée au moment où Mounir Mahjoubi fut de mai 2017 à mars 2019 le « Monsieur numérique » du gouvernement. Redonnant alors son siège de députation à Mounir Mahjoubi en avril 2019, Delphine O intègre le ministère de l’Europe et des Affaires étrangères et est nommée le mois suivant ambassadrice, secrétaire générale de la conférence mondiale de l’Organisation des Nations unies (ONU) sur les femmes depuis juin dernier. Son frère, lui, a profité de ce jeu de chaises musicales en étant nommé secrétaire d’Etat chargé du Numérique. Concours de circonstance ou népotisme ? Quoi qu’il en soit, les deux O, nés d’une Française et d’un Coréen, ne manquent pas d’entregent. Diplômé de HEC Paris en 2006, Cédric O est attiré par la politique et fera partie – avec notamment Benjamin Griveaux – de l’équipe de campagne de Dominique Strauss-Kahn pour la primaire PS de 2006 en vue de l’élection présidentielle à l’époque. Il participe en outre à la création du Continuer la lecture

Commission européenne : la face digitale d’UVDL

En fait. Le 16 juillet, l’Allemande Ursula von der Leyen (UVDL) a été élue par les eurodéputés – d’une courte majorité (52,25 %) – à la présidence de la Commission européenne, où elle remplacera le 1er novembre prochain Jean-Claude Juncker.
Elle a présenté son agenda 2019-2024 pour l’Europe, encore plus digitale.

En clair. C’est la première femme élue à la tête de la Commission européenne (1). Il y a dix ans, alors ministre du Travail d’Angela Merkel, Ursula von der Leyen (UVDL) faisait du blocage de sites web pédopornographiques son cheval de bataille. Ce qui lui a valu le surnom de « Zensursula » (2). C’est face à elle que le Parti pirate allemand rencontre un succès électoral, jusqu’à son apogée en 2013. Avec aujourd’hui la lutte contre les contenus illicites en ligne et la cyberhaine, la chasse aux fausses nouvelles ou encore les mesures contre le piratage des œuvres protégées par le droit d’auteur, c’est à se demander si « Censursula » n’est finalement pas la bonne personne pour prendre la tête de la Commission européenne. Pour l’heure, l’ex-ministre allemande de la Défense (décembre 2013-juillet 2019) – issue du parti conservateur des chrétiens démocrates (CDU) – fait du numérique une de ses six priorités de son quinquennat européen (novembre 2019-novembre 2024). Dans ses « orientations politiques pour la prochaine Commission européenne » qu’elle a détaillées devant les eurodéputés le 16 juillet (3), le digital apparaît en troisième place de ses six ambitions. UVDL déclare que « l’Europe doit mener la transition vers une planète saine et un nouveau monde numérique ». Alors que la « taxe Moscovici » applicable aux GAFA est déjà sur son bureau à Bruxelles (lire en Une), elle se veut déterminée : « Je défendrai l’équité fiscale, que ce soit pour les entreprises physiques ou numériques, et je veillerai à ce que la fiscalité des Big Tech soit une priorité ».
Et de prévenir : « Si d’ici la fin de 2020 il n’y a toujours pas de solution mondiale [via l’OCDE, ndlr] pour une taxe numérique équitable, l’UE devrait agir seule ». Sous le leitmotiv « Une Europe digne de l’ère numérique », UVDL entend faire de l’intelligence artificielle (IA), de l’Internet des objets, des réseaux 5G ou encore de la blockchain, sur fond de « souveraineté technologique », des leviers de croissance pour l’Europe. « Au cours de mes 100 premiers jours au pouvoir, je proposerai une législation pour une approche européenne coordonnée sur les implications humaines et éthiques de l’intelligence artificielle. (…) Une nouvelle loi sur les services numériques – Digital Services Act – améliorera nos règles de responsabilité et de sécurité pour les plateformes, les services et les produits numériques », a-t-elle promis. @

Explicabilité des algorithmes : à quel niveau faut-il mettre le curseur de la régulation ?

Le néologisme « explicabilité » prend de l’ampleur à l’heure des algorithmes
et de l’intelligence artificielle. En Europe, France comprise, la loi exige déjà qu’ils doivent être explicables dans un souci de transparence et de responsabilisation. La question est de savoir s’il faut encore plus réguler.

Par Winston Maxwell* et David Bounie**, Telecom Paris, Institut polytechnique de Paris

lL’« explicabilité » est devenue un principe incontournable de la future bonne régulation des algorithmes. L’explicabilité figure dans les recommandations que l’OCDE (1) a adoptées le 22 mai (2)
sur l’intelligence artificielle (IA), dans
la communication de la Commission européenne du 8 avril (3), dans le rapport du groupe d’experts correspondant (4),
et dans le rapport Villani (5). Garante de plus de transparence, l’explicabilité des algorithmes n’est pas un concept nouveau.

Explicabilité : déjà présente dans la loi
Dans les années 1980 et 1990, de nombreux travaux scientifiques en France et aux Etats-Unis ont étudié l’explicabilité de l’intelligence artificielle, explicabilité jugée nécessaire pour promouvoir l’acceptabilité des systèmes « experts » (6). L’année
2018 marque le renouveau du concept. Le rapport Villani évoque la nécessité d’« ouvrir les boîtes noires » (7) ; le groupe d’experts européens souligne l’importance de l’explicabilité pour la confiance dans les systèmes IA (8). Que recouvre ce terme qui ne figure nulle part dans les dictionnaires (9) ? Les nouvelles recommandations de l’OCDE font la meilleure synthèse, se focalisant sur les finalités des explications (10). Les législateurs français et européen n’ont pas attendu les conclusions de l’OCDE pour imposer des obligations de transparence.
Le règlement général sur la protection des données (RGPD) impose l’obligation de fournir « des informations utiles concernant la logique sous-jacente » de toute décision automatique entraînant un effet important sur la personne (11). La récente révision de
la Convention 108 du Conseil de l’Europe (12) confère aux personnes le droit d’obtenir connaissance « du raisonnement qui sous-tend le traitement ». La loi « Lemaire » et ses décrets d’application imposent à l’administration l’obligation de communiquer à l’individu les « règles définissant tout traitement » algorithmique et les « principales caractéristiques de sa mise en oeuvre » (14). Ces mêmes textes imposent aux plateformes l’obligation de communiquer les « critères de classement », ainsi que leur
« principaux paramètres » (15). Au niveau européen, le futur règlement « Plateformes » – surnommé aussi P2B (16) – imposera aux places de marché et aux moteurs de recherche l’obligation d’indiquer les « principaux paramètres » qu’ils utilisent pour classer les biens et les services sur leurs sites. Ce règlement, qui devait être adopté
le 20 juin 2019 par le Conseil de l’Union européenne, n’imposera pas en revanche la communication de l’algorithme lui-même, protégé par la directive sur le secret des affaires (17). Avec autant de dispositions déjà en place, faut-il encore plus réguler ? L’explicabilité est un problème qui dépasse le débat sur la transparence des plateformes. Elle touche à des secteurs clés de l’industrie, et risque de freiner le déploiement des algorithmes si les contours de l’explicabilité ne sont pas bien définis par le régulateur. La difficulté est à la fois économique et juridique. Sur le plan économique, l’utilisation des algorithmes les plus performants sera freinée si leur fonctionnement n’est pas suffisamment compris par les utilisateurs et les régulateurs. Par exemple, dans la lutte contre le blanchiment d’argent, les algorithmes les plus performants sont également les plus opaques. Or, les banques et leurs régulateurs n’adopteront ces algorithmes que si leur fonctionnement est compris et auditable.
Faire parler ces boîtes noires est donc une condition nécessaire à leur adoption par l’industrie et par l’administration. L’explicabilité est également déterminante pour des questions de responsabilité. En cas d’accident, de discrimination ou toute autre
« mauvaise » décision algorithmique, il sera essentiel d’auditer le système afin d’identifier la source de la mauvaise décision, corriger l’erreur pour l’avenir, et déterminer les éventuelles responsabilités. De plus, l’exploitant du système doit être
en mesure de démontrer sa conformité avec le RGPD et d’autres textes applicables. Comment démontrer une conformité si le fonctionnement interne de l’algorithme reste énigmatique pour son exploitant ? Une documentation expliquant le fonctionnement de l’algorithme sera nécessaire.

Apprentissage machine et interprétation
Un algorithme d’apprentissage machine (machine learning) est l’aboutissement de différentes phases de développement et de tests : on commence par la définition du problème à résoudre, le choix du modèle, le choix des données d’apprentissage, le choix des données de test et de validation, les ajustements des paramètres (tuning),
et le choix des données d’exploitation. Le modèle qui émerge après son apprentissage sera très performant mais presqu’aussi inscrutable que le cerveau humain. Si les théories mathématiques sous-jacentes aux modèles utilisés sont bien comprises, il
est délicat – pour ne pas dire souvent impossible – de comprendre le fonctionnement interne de certains modèles. C’est le cas bien souvent de certains modèles tels que les machines à vecteurs de support, les forêts aléatoires, les arbres améliorés par gradient, et les algorithmes d’apprentissage profonds tels que les réseaux de neurones artificiels, les réseaux de neurones convolutifs et les réseaux de neurones récurrents difficiles à interpréter.

Transparence, auditabilité et explicabilité
Le concept d’explicabilité – ou « explainable AI » (XAI) en anglais) –, parfois désigné par intelligibilité, est un thème de recherche en informatique en plein essor. Il est en particulier soutenu par un programme ambitieux de l’agence du département de la Défense des Etats-Unis, Darpa (18). Les recherches s’orientent sur le développement de méthodes qui aident à mieux comprendre ce que le modèle a appris, ainsi que des techniques pour expliquer les prédictions individuelles. Les solutions techniques se regroupent autour de deux familles : l’identification des facteurs les plus importants utilisés par le modèle (« saliency approach »), et la perturbation des données d’entrée afin de comprendre l’impact sur les décisions de sortie (« perturbation approach »).
Ces approches permettront la visualisation des facteurs déterminants dans la prise
de décision algorithmique.
Aux concepts d’interprétabilité et d’explicabilité sont associés ceux de transparence et d’« auditabilité » des algorithmes. L’idée est de rendre publics, ou bien de mettre sous séquestre, des algorithmes en vue les auditer pour étudier des difficultés potentielles. Comme illustré dans le débat sur le règlement « Plateformes » (P2B), imposer la communication des algorithmes se heurterait à la protection des secrets d’affaires, protégée par la directive européenne du 8 juin 2016 (19). Cependant, il existe des solutions intermédiaires, qui permettraient à la fois un audit approfondi du système
tout en protégeant le secret des affaires. La Cnil recommande de mettre en place
une plateforme nationale d’audit des algorithmes (20). L’une des difficultés pour le régulateur est l’impossibilité de répliquer le fonctionnement d’un algorithme à un moment T. Un algorithme d’apprentissage machine peut se mettre à jour régulièrement, apprenant à améliorer sa performance au fur et à mesure, en fonction des nouvelles données analysées. Ainsi, l’algorithme pourra donner un score de 93,87 % le lundi, et un score de 94,28 % le jeudi, s’appuyant sur exactement les mêmes données d’entrée. Cette absence de reproductibilité peut poser problème pour un régulateur en charge de valider un système avant sa mise en service, car le modèle changera lors de chaque nouvelle phase d’apprentissage. Pour un algorithme de moteur de recherche, ce n’est pas grave. Mais pour un algorithme pouvant provoquer des dommages corporels en cas d’erreur, cette évolutivité posera problème.
Exiger une transparence totale sur le fonctionnement de l’algorithme ne servirait à rien. Une telle exigence se heurterait à la protection du secret des affaires et, dans la plupart des cas, ne rendrait pas l’algorithme plus intelligible, même pour les initiés. La réglementation doit plutôt se concentrer sur les différentes finalités de l’explicabilité et les différents publics visés – grand public, régulateur, expert judiciaire.
Une explication envers un demandeur de crédit pourrait privilégier une approche dite
« contrefactuelle », par laquelle l’individu pourrait tester d’autres hypothèses d’entrée pour voir l’effet sur son score algorithmique.
Les outils d’explicabilité envers un régulateur seraient plus élaborés, permettant une explication du fonctionnement global de l’algorithme (dit « global explainability »), ainsi qu’une explication concernant chaque décision particulière (« local explainability »).
Les outils mis à la disposition du régulateur pourraient inclure des cartographies de pertinence (saliency maps), et autres outils de visualisation statistique. Enfin, en cas d’audit, l’exploitant de l’outil devra être en mesure de donner accès à l’ensemble de
la documentation concernant l’algorithme et les données d’apprentissage, et permettre au régulateur de conduire des tests, notamment des tests de perturbation de données d’entrée.
L’explicabilité, comme la régulation, est source de coûts. Un fort niveau d’explicabilité peut limiter le type de modèle utilisé, conduisant à des pertes de performance. Cependant, certains estiment que le compromis entre performance et explicabilité n’est que temporaire, et disparaîtra avec le progrès technique. La régulation est également source de coûts, surtout lorsque la régulation ne suit pas l’évolution technologique.

Privilégier une régulation « bacs à sable »
Ainsi, la Commission européenne et le Conseil d’Etat recommandent la régulation expérimentale – des « bacs à sable » de régulation – permettant de tester différentes approches de régulation pour déterminer celle qui sera la plus efficace. Le principe européen de la proportionnalité guidera le niveau de régulation. Le niveau d’exigences en matière d’explicabilité augmentera avec le niveau de risques. Pour certains usages, aucune explicabilité ne sera nécessaire. Pour un algorithme qui apprend à jouer aux échecs, le fonctionnement interne ne soulève pas d’enjeu réglementaire. Par conséquent, la boîte noire pourra rester fermée. @

* Winston Maxwell, ancien avocat associé du cabinet
Hogan Lovells, est depuis juin 2019 directeur d’étude, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.
** David Bounie est professeur d’économie
à Telecom Paris, Institut polytechnique de Paris.

Culture : la Convention de 2005 apprivoise Internet

En fait. Du 5 au 7 juin, au siège de l’Unesco à Paris, s’est tenue une nouvelle conférence autour de la Convention de 2005 sur « la protection et la promotion
de la diversité des expressions culturelles ». Il s’agit notamment d’adapter à l’ère numérique ce texte ratifié par 45 pays et l’Union européenne.

En clair. « Promouvoir la diversité des expressions culturelles à l’ère numérique ». L’Unesco, organisation des Nations unies pour l’éducation, la science et la culture, poursuit depuis plus de six ans maintenant (1)) l’objectif d’étendre la Convention de 2005 à Internet. Cela passe par une feuille de route (2) et des directives dites opérationnelles (3) à mettre en oeuvre en 2020 et 2021. Il s’agit d’adapter les politiques publiques culturelles aux domaines du digital, au moment où des questions se posent sur la réforme de la régulation des médias, la concentration des contenus et des plateformes numériques, l’impact des algorithmes dans l’accès aux contenus culturels, ou encore sur l’intelligence artificielle pour la créativité.
« L’un des principaux défis consiste à renforcer la production nationale afin de parvenir à un équilibre entre les contenus locaux, régionaux et internationaux », pointe l’Unesco, actuellement dirigée par la Française Audrey Azoulay (4). Autrement dit, comment éviter que les GAFAN ne remportent la bataille des contenus dans le monde et n’uniformise la culture. D’autant que les Etats-Unis, patrie des géants du Net, ne sont pas signataires de la Convention de 2005 ! Par ailleurs, les Américains exigent d’inclure les services audiovisuels et culturels dans les accords de libre-échange qu’ils signent, alors que des pays comme la France au sein de l’Union européenne le refusent catégoriquement pour préserver une certaine « exception culturelle » (5). La Convention de l’Unesco doit en outre réaffirmer le principe de neutralité technologique et le droit souverain des Etats de formuler, d’adopter et de mettre en oeuvre « des politiques et mesures en matière de protection et de promotion de la diversité des expressions culturelles dans l’environnement numérique ». En creux, il faut éviter, d’après l’Unesco, que les pouvoirs publics ne perdent justement le pouvoir de financement et d’influence dont ils jouissent dans le monde créatif au profit de grands acteurs privés et globaux. Quant au Fonds international pour la diversité culturelle (FIDC), institué par la Convention de 2005, il finance des projets dans plus de 54 pays en développement – notamment dans le cinéma, l’audiovisuel et l’art numérique – mais son budget (7,5 millions de dollars investis depuis 2010), est très limité : seuls 2% des projets soumis sont financés. @