Comment la DGCCRF (Bercy) se pose de plus en plus en redresseur de torts de l’économie numérique

La Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) est en passe de devenir le vrai gendarme de l’économie numérique. E-commerce, crowdfunding, réseaux sociaux, et demain algorithmes, Internet des objets ou encore voitures connectées : gare aux abus !

Un récent rapport du Conseil général de l’économie, de l’industrie, de l’énergie et des technologies (CGE), lequel dépend du ministère de l’Economie et des Finances, propose de créer un « bureau des technologies de contrôle de l’économie numérique » qui « pourrait être localisé au sein de la DGCCRF », la Direction générale de la concurrence, de la consommation et de la répression des fraudes, rattachée à Bercy et dirigée par Nathalie Homobono (photo) depuis 2009. Le rôle de ce bureau spécialisé, s’il était créé, serait de contrôler le Big Data, l’Internet des objets, les nouvelles méthodes de paiement, la maison intelligente, la loyauté des algorithmes, ou encore les voitures connectées (1). Bref, cela reviendrait à lui donner un droit de regard sur presque toutes les coulisses de l’économie numérique.

Avertissements, injonctions, amendes, …
Selon les auteurs de ce rapport de Bercy, cette cellule de contrôle – inspirée du modèle américain de l’Office of Technology Research and Investigation (OTRI) crée en mars 2015 au sein de la Federal Trade Commission (FTC) – pourrait être saisie par la Cnil (2), l’AMF (3) et l’Arjel (4), mais aussi par l’Autorité de la concurrence, l’Arcep (5), le CSA (6), ainsi que par l’Acam (7), l’ACPR (8) ou encore l’ANSM (9). Le bureau en question nécessiterait environ six personnes, dont les compétences seraient non seulement techniques et scientifiques, mais aussi juridiques et économiques, avec un « conseil d’orientation » composé de représentants des pouvoirs publics, d’experts et de chercheurs. Avec un tel bureau de contrôle de l’économie numérique, le pouvoir d’enquête et d’investigation de la DGCCRF serait considérablement renforcé. Pour l’heure, elle dispose Lire la suite

Les algorithmes sont partout mais leur régulation est nulle part : une zone de non droit numérique ?

Ils sont soupçonnés de formater automatiquement le monde numérique à des fins commerciales, à l’insu des utilisateurs qui leur ont cédé sans le savoir une partie de leur pouvoir de décision et de leur libre-arbitre. La question du contrôle de la « loyauté des algorithmes » et de leur régulation se pose.

La Commission nationale de l’informatique et des libertés
(Cnil) s’est donnée jusqu’à l’automne prochain pour publier la synthèse des échanges et contributions qui découleront du débat sur les algorithmes qu’elle a lancé le 23 janvier dernier.
« Des pistes ou propositions pour accompagner le développement des algorithmes dans un cadre éthique pourraient faire par la suite l’objet d’arbitrages par les pouvoirs publics », a prévenu Isabelle Falque-Pierrotin (photo), présidente de la Cnil, à l’occasion d’une table ronde « éthique et numérique » consacrée aux algorithmes.

Réglementation ou auto-régulation ?
La loi « République numérique » du 7 octobre 2016 a en effet confié à la Cnil la mission de conduire « une réflexion sur les problèmes éthiques et les questions de société soulevés par l’évolution des technologies numériques ». De son côté, le Conseil supérieur de l’audiovisuel (CSA) a publié le 20 janvier dernier un rapport – le premier de son CSA Lab, groupe de réflexion prospective sur l’audiovisuel lancé en juin 2016 – sur « le rôle des données et des algorithmes dans l’accès aux contenus » (1). Les auteurs terminent leur rapport en estimant que « toute tentative de réguler les algorithmes serait probablement vouée à l’échec en raison de l’évolutivité de la technologie et du caractère confidentiel et concurrentiel des développements ».
Mais alors, comment s’assurer que les algorithmes utilisés préservent bien la diversité culturelle, maintiennent une qualité d’accès aux contenus, respectent les consommateurs et leur vie privée, protègent les données personnelles, garantissent une certaine loyauté, ou encore développent la confiance en la société numérique ?
A défaut de réglementer les algorithmes, le rapport du CSA Lab suggère que « le régulateur pourrait éventuellement contribuer à la transparence du marché en publiant des indices mesurant différents aspects qualitatifs des algorithmes ». Ces indices pourraient par exemple « mesurer le niveau de contribution des algorithmes aux différents objectifs de la politique audiovisuelle, tels que la diversité ». Au sein du CSA Lab, ce sont Yann Bonnet (secrétaire général du Conseil national du numérique), Nicolas Curien (membre du CSA) et Francesca Musiani (chargée de recherche CNRS et chercheuse associée à Mines ParisTech) qui se préoccupent du rôle des données
et des algorithmes dans l’accès aux contenus (2). « Premières manifestations de l’intelligence artificielle, dont la généralisation constitue aujourd’hui un temps fort de
la transition numérique, les algorithmes sont des agents intelligents, des robots, dont
il convient évidemment de s’assurer qu’ils opèrent au service d’un intérêt général convenablement et clairement défini, et non pas d’intérêts particuliers et opportu-
nistes », préviennent-ils.
Quant au Conseil général de l’économie, de l’industrie, de l’énergie et des technologies (CGE), qui dépend de Bercy, il a présenté le 15 décembre dernier son rapport sur les
« modalités de régulation des algorithmes de traitement des contenus » (3). D’emblée, les deux auteurs – Jacques Serris et Ilarion Pavel – se veulent prudents : « Ce rapport ne propose pas une nouvelle régulation sectorielle qui s’appliquerait aux algorithmes. En revanche, il souligne qu’il faut développer la capacité à tester et contrôler les algorithmes eux-mêmes ». Il s’agit de détecter l’existence de discriminations illicites
et de vérifier la conformité aux lois et règlements. Encore faut-il pouvoir contrôler les algorithmes en question et, en cas d’infraction présumée, de porter l’affaire en justice. Aussi, le CGE recommande au gouvernement de mettre en oeuvre des moyens techniques et humains supplémentaires pour analyser les flux d’échanges de données et le fonctionnement des algorithmes de traitement des contenus.

Cnil, AMF, Arjel, DGCCRF
« Pour les services de contrôle, la démonstration de la déloyauté de l’information ou
de la pratique commerciale trompeuse passe par le décryptage de l’algorithme, la connaissance de ses critères de fonctionnement et leur pondération », dit le CGE. Et de poursuivre : « L’utilisation d’une méthode statistique ad hoc n’est pas suffisante et est sujette à forte contestation. Cela pose la question des moyens techniques et humains nécessaires pour pouvoir mener à bien les contrôles ». En France, la Cnil, l’Autorité des marchés financiers (AMF) et l’Autorité de régulation des jeux en ligne (Arjel) disposent d’ores et déjà d’équipes et de moyens de contrôle et d’investigation leur permettant de tester le fonctionnement d’algorithmes. De son côté, la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) dispose d’un service spécialisé de contrôle du commerce électronique qui pourrait être mis à contribution.

Bercy veut un « bureau de contrôle »
Aussi, le rapport du CGE propose d’aller plus loin en créant un « bureau des technologies de contrôle de l’économie numérique » qui « pourrait être localisé au sein de la DGCCRF » justement. Le rôle de ce bureau spécialisé : contrôler non seulement la loyauté des algorithmes, mais aussi les voitures connectées, la maison intelligente, les nouvelles méthodes de paiement, le Big Data ou encore l’Internet des objets. Il pourrait être saisi par la Cnil, l’AMF et l’Arjel, mais aussi par l’Autorité de la concurrence, l’Arcep, le CSA, ainsi que par l’Acam (4), l’ACPR (5) ou encore l’ANSM (6). Le CGE préconise en outre la mise en place d’une « plateforme scientifique collaborative » destinée à favoriser notamment le développement d’outils logiciels
et de méthodes de tests d’algorithmes « responsables, éthiques et transparents ».
L’Institut national de recherche en informatique et en automatique (Inria) a proposé de porter une telle plateforme, dénommée TransAlgo, qui sera développée en coopération avec le Conseil national du numérique (CNNum), la DGCCRF et la Direction générale des entreprises (DGE) du ministère de l’Economie et des Finances. « Le premier objectif est d’encourager la conception d’algorithmes de traitement de données “responsables et transparents par construction” (on parle de responsible-by-design).
Un algorithme est dit “responsable” s’il respecte les lois (la confidentialité de certaines données, la non-discrimination par ses critères, …), et s’il se conforme à certaines règles éthiques (la neutralité) », explique l’Inria.
Les algorithmes défraient la chronique et soulèvent des questions de fond. On leur reproche d’uniformiser les résultats de recherche et les informations, au point d’enfermer les individus dans leur « bulle » en fonction de leurs centres d’intérêt, leurs connaissances, leurs amis, leurs goûts, leurs médias, leur religion ou encore leurs idées politiques. Les algorithmes confortent chacun d’entre nous dans ses convictions, sa culture et sa façon de percevoir le monde, sans nous inviter à aller à la découverte de l’autre et de la différence. C’est l’entre-soi automatisé. Ils sont prédictifs, en anticipant les comportement des internautes et des mobinautes qui ont laissé derrière leurs navigations et transactions des traces exploitables. Publicités ciblées, voire
« personnalisées », suggestions d’« amis », produits et services « vivement » recommandés, vidéos suggérées, recommandation en tous genres, … La navigation sur le Web ou dans les applications mobiles relève du « parcours du combattant »
pris pour cible par les marchands, publicitaires et autres prestataires. Une armée d’algorithmes collectent les données et les analysent afin de « filtrer » les contenus,
« ordonner » les réponses, « recommander » tous azimuts, « calculer » un score ou encore « prédire » un événement ou un risque.
Qu’est-ce qu’un algorithme ? Le terme vient latin médiéval algorithmus, latinisation du nom d’un mathématicien de langue arabe Al-Khwarizmi, et du grec arithmos qui veut dire nombre. Un algorithme est un ensemble de règles opératoires, dont l’application permet de résoudre un problème énoncé au moyen d’un nombre fini d’opérations. Voilà pour la définition. L’informatique et Internet – Google et Facebook en tête – ont popularisé les algorithmes, pour le meilleur et pour le pire, sans parfois distinguer le
vrai du faux. Les algorithmes sont des programmes autonomes qui s’enrichissent au fur et à mesure des informations qui l’alimentent. Ils apprennent des masses de données qui leur parviennent en direct. Le Big Data est leur fond de commerce. Le calcul de probabilités leur raison d’être. « Un algorithme est une suite finie d’opérations ou d’instructions, déterminée de manière non ambiguë et permettant de résoudre un problème ou d’obtenir un résultat. L’algorithme reçoit des données en entrée (…) et
il produit en sortie d’autres données », définit le CSA dans son rapport.
Mais l’impact économique des algorithmes reste à mesurer, de même que les enjeux sociétaux. Quels sont les effets sur les comportements des usagers isolés dans des
« bulles de filtres », expression employée par Eli Pariser dans « The Filter Bubble »
en 2012 pour désigner le fait que la personnalisation d’Internet – en fonction des algorithmes et des cookies ainsi que de l’analyse systématique de la data – enferme l’internaute dans sa propre vision du monde ?

Risque de discriminations tous azimuts
Outre un risque de « repli sur soi », les algorithmes présentent en outre des risques de discrimination dans l’accès à la santé, à l’emploi, au logement, au crédit ou encore à l’éducation. « Les enjeux juridiques sont essentiellement liés à la capacité d’analyse des pouvoirs publics, pour la vérification de la conformité aux règles de droit », explique le CGE. Alors, réguler ou ne pas réguler ? La question n’est pas tranchée. @

Charles de Laubier

Audiovisuel : YouTube assure qu’il n’est pas « éditeur », quoique…

En fait. Le 27 septembre, le Conseil supérieur de l’audiovisuel (CSA) a organisé ses premières Rencontres sur le thème de « L’audiovisuel dans l’espace numérique : plateformes et données ». En première ligne, Google a défendu son statut d’hébergeur : « Nous ne sommes pas éditeur de contenus ». Vraiment ?

laurent-samamaEn clair. Alors que le statut d’hébergeur de certaines plateformes vidéo telles que YouTube ou Dailymotion est remis en question par les industries culturelles, en particulier en France, les premières Rencontres du CSA ont permis d’entendre Google à ce sujet. « Nous ne sommes pas éditeur de contenus, mais nous travaillons en partenariat avec les éditeurs de contenus », a affirmé Laurent Samama (photo), directeur des relations stratégiques Média et Divertissement de la firme de Mountain View pour la région EMEA (1). Et le Français d’insister : « Nous ne nous considérons pas comme un acteur à part entière car nous ne sommes pas éditeur de contenus ; nous ne faisons pas de contenus ».

Algorithmes de recommandation : une manière d’éditorialiser ?
Le statut d’hébergeur permet aux plateformes vidéo de non seulement bénéficier d’une responsabilité limitée dans la lutte contre le piratage mais aussi de ne pas être soumises à des obligations de financement de la création. Le CSA, lui, s’interroge sur le statut de YouTube. Dans un rapport publié peu avant ces Rencontres, le régulateur écrit : « Certaines plateformes, (…), opèrent désormais simultanément à plusieurs niveaux et exercent à la fois les fonctions de production, d’édition et de distribution de contenus (exemple de YouTube) » (2). Ce qu’a aussitôt nuancé Nicolas Curien, membre du CSA : « Le CSA dit effectivement que YouTube n’est pas seulement un hébergeur. Le CSA ne dit pas qu’il est éditeur ou distributeur, mais il invite à repenser les catégories traditionnelles des fonctions des métiers de l’audiovisuel ». Laurent Samama est alors remonté au créneau : Lire la suite