Les algorithmes sont partout mais leur régulation est nulle part : une zone de non droit numérique ?

Ils sont soupçonnés de formater automatiquement le monde numérique à des fins commerciales, à l’insu des utilisateurs qui leur ont cédé sans le savoir une partie de leur pouvoir de décision et de leur libre-arbitre. La question du contrôle de la « loyauté des algorithmes » et de leur régulation se pose.

La Commission nationale de l’informatique et des libertés
(Cnil) s’est donnée jusqu’à l’automne prochain pour publier la synthèse des échanges et contributions qui découleront du débat sur les algorithmes qu’elle a lancé le 23 janvier dernier.
« Des pistes ou propositions pour accompagner le développement des algorithmes dans un cadre éthique pourraient faire par la suite l’objet d’arbitrages par les pouvoirs publics », a prévenu Isabelle Falque-Pierrotin (photo), présidente de la Cnil, à l’occasion d’une table ronde « éthique et numérique » consacrée aux algorithmes.

Réglementation ou auto-régulation ?
La loi « République numérique » du 7 octobre 2016 a en effet confié à la Cnil la mission de conduire « une réflexion sur les problèmes éthiques et les questions de société soulevés par l’évolution des technologies numériques ». De son côté, le Conseil supérieur de l’audiovisuel (CSA) a publié le 20 janvier dernier un rapport – le premier de son CSA Lab, groupe de réflexion prospective sur l’audiovisuel lancé en juin 2016 – sur « le rôle des données et des algorithmes dans l’accès aux contenus » (1). Les auteurs terminent leur rapport en estimant que « toute tentative de réguler les algorithmes serait probablement vouée à l’échec en raison de l’évolutivité de la technologie et du caractère confidentiel et concurrentiel des développements ».
Mais alors, comment s’assurer que les algorithmes utilisés préservent bien la diversité culturelle, maintiennent une qualité d’accès aux contenus, respectent les consommateurs et leur vie privée, protègent les données personnelles, garantissent une certaine loyauté, ou encore développent la confiance en la société numérique ?
A défaut de réglementer les algorithmes, le rapport du CSA Lab suggère que « le régulateur pourrait éventuellement contribuer à la transparence du marché en publiant des indices mesurant différents aspects qualitatifs des algorithmes ». Ces indices pourraient par exemple « mesurer le niveau de contribution des algorithmes aux différents objectifs de la politique audiovisuelle, tels que la diversité ». Au sein du CSA Lab, ce sont Yann Bonnet (secrétaire général du Conseil national du numérique), Nicolas Curien (membre du CSA) et Francesca Musiani (chargée de recherche CNRS et chercheuse associée à Mines ParisTech) qui se préoccupent du rôle des données
et des algorithmes dans l’accès aux contenus (2). « Premières manifestations de l’intelligence artificielle, dont la généralisation constitue aujourd’hui un temps fort de
la transition numérique, les algorithmes sont des agents intelligents, des robots, dont
il convient évidemment de s’assurer qu’ils opèrent au service d’un intérêt général convenablement et clairement défini, et non pas d’intérêts particuliers et opportu-
nistes », préviennent-ils.
Quant au Conseil général de l’économie, de l’industrie, de l’énergie et des technologies (CGE), qui dépend de Bercy, il a présenté le 15 décembre dernier son rapport sur les
« modalités de régulation des algorithmes de traitement des contenus » (3). D’emblée, les deux auteurs – Jacques Serris et Ilarion Pavel – se veulent prudents : « Ce rapport ne propose pas une nouvelle régulation sectorielle qui s’appliquerait aux algorithmes. En revanche, il souligne qu’il faut développer la capacité à tester et contrôler les algorithmes eux-mêmes ». Il s’agit de détecter l’existence de discriminations illicites
et de vérifier la conformité aux lois et règlements. Encore faut-il pouvoir contrôler les algorithmes en question et, en cas d’infraction présumée, de porter l’affaire en justice. Aussi, le CGE recommande au gouvernement de mettre en oeuvre des moyens techniques et humains supplémentaires pour analyser les flux d’échanges de données et le fonctionnement des algorithmes de traitement des contenus.

Cnil, AMF, Arjel, DGCCRF
« Pour les services de contrôle, la démonstration de la déloyauté de l’information ou
de la pratique commerciale trompeuse passe par le décryptage de l’algorithme, la connaissance de ses critères de fonctionnement et leur pondération », dit le CGE. Et de poursuivre : « L’utilisation d’une méthode statistique ad hoc n’est pas suffisante et est sujette à forte contestation. Cela pose la question des moyens techniques et humains nécessaires pour pouvoir mener à bien les contrôles ». En France, la Cnil, l’Autorité des marchés financiers (AMF) et l’Autorité de régulation des jeux en ligne (Arjel) disposent d’ores et déjà d’équipes et de moyens de contrôle et d’investigation leur permettant de tester le fonctionnement d’algorithmes. De son côté, la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) dispose d’un service spécialisé de contrôle du commerce électronique qui pourrait être mis à contribution.

Bercy veut un « bureau de contrôle »
Aussi, le rapport du CGE propose d’aller plus loin en créant un « bureau des technologies de contrôle de l’économie numérique » qui « pourrait être localisé au sein de la DGCCRF » justement. Le rôle de ce bureau spécialisé : contrôler non seulement la loyauté des algorithmes, mais aussi les voitures connectées, la maison intelligente, les nouvelles méthodes de paiement, le Big Data ou encore l’Internet des objets. Il pourrait être saisi par la Cnil, l’AMF et l’Arjel, mais aussi par l’Autorité de la concurrence, l’Arcep, le CSA, ainsi que par l’Acam (4), l’ACPR (5) ou encore l’ANSM (6). Le CGE préconise en outre la mise en place d’une « plateforme scientifique collaborative » destinée à favoriser notamment le développement d’outils logiciels
et de méthodes de tests d’algorithmes « responsables, éthiques et transparents ».
L’Institut national de recherche en informatique et en automatique (Inria) a proposé de porter une telle plateforme, dénommée TransAlgo, qui sera développée en coopération avec le Conseil national du numérique (CNNum), la DGCCRF et la Direction générale des entreprises (DGE) du ministère de l’Economie et des Finances. « Le premier objectif est d’encourager la conception d’algorithmes de traitement de données “responsables et transparents par construction” (on parle de responsible-by-design).
Un algorithme est dit “responsable” s’il respecte les lois (la confidentialité de certaines données, la non-discrimination par ses critères, …), et s’il se conforme à certaines règles éthiques (la neutralité) », explique l’Inria.
Les algorithmes défraient la chronique et soulèvent des questions de fond. On leur reproche d’uniformiser les résultats de recherche et les informations, au point d’enfermer les individus dans leur « bulle » en fonction de leurs centres d’intérêt, leurs connaissances, leurs amis, leurs goûts, leurs médias, leur religion ou encore leurs idées politiques. Les algorithmes confortent chacun d’entre nous dans ses convictions, sa culture et sa façon de percevoir le monde, sans nous inviter à aller à la découverte de l’autre et de la différence. C’est l’entre-soi automatisé. Ils sont prédictifs, en anticipant les comportement des internautes et des mobinautes qui ont laissé derrière leurs navigations et transactions des traces exploitables. Publicités ciblées, voire
« personnalisées », suggestions d’« amis », produits et services « vivement » recommandés, vidéos suggérées, recommandation en tous genres, … La navigation sur le Web ou dans les applications mobiles relève du « parcours du combattant »
pris pour cible par les marchands, publicitaires et autres prestataires. Une armée d’algorithmes collectent les données et les analysent afin de « filtrer » les contenus,
« ordonner » les réponses, « recommander » tous azimuts, « calculer » un score ou encore « prédire » un événement ou un risque.
Qu’est-ce qu’un algorithme ? Le terme vient latin médiéval algorithmus, latinisation du nom d’un mathématicien de langue arabe Al-Khwarizmi, et du grec arithmos qui veut dire nombre. Un algorithme est un ensemble de règles opératoires, dont l’application permet de résoudre un problème énoncé au moyen d’un nombre fini d’opérations. Voilà pour la définition. L’informatique et Internet – Google et Facebook en tête – ont popularisé les algorithmes, pour le meilleur et pour le pire, sans parfois distinguer le
vrai du faux. Les algorithmes sont des programmes autonomes qui s’enrichissent au fur et à mesure des informations qui l’alimentent. Ils apprennent des masses de données qui leur parviennent en direct. Le Big Data est leur fond de commerce. Le calcul de probabilités leur raison d’être. « Un algorithme est une suite finie d’opérations ou d’instructions, déterminée de manière non ambiguë et permettant de résoudre un problème ou d’obtenir un résultat. L’algorithme reçoit des données en entrée (…) et
il produit en sortie d’autres données », définit le CSA dans son rapport.
Mais l’impact économique des algorithmes reste à mesurer, de même que les enjeux sociétaux. Quels sont les effets sur les comportements des usagers isolés dans des
« bulles de filtres », expression employée par Eli Pariser dans « The Filter Bubble »
en 2012 pour désigner le fait que la personnalisation d’Internet – en fonction des algorithmes et des cookies ainsi que de l’analyse systématique de la data – enferme l’internaute dans sa propre vision du monde ?

Risque de discriminations tous azimuts
Outre un risque de « repli sur soi », les algorithmes présentent en outre des risques de discrimination dans l’accès à la santé, à l’emploi, au logement, au crédit ou encore à l’éducation. « Les enjeux juridiques sont essentiellement liés à la capacité d’analyse des pouvoirs publics, pour la vérification de la conformité aux règles de droit », explique le CGE. Alors, réguler ou ne pas réguler ? La question n’est pas tranchée. @

Charles de Laubier